LGTH
LGTH
### Search before asking - [X] I had searched in the [issues](https://github.com/deepflowio/deepflow/issues?q=is%3Aissue) and found no similar feature requirement. ### Description 当CK的能力不足的时候,server会写入堆积导致内存增高,不然就是队列长度不够,导致数据丢弃,希望server和ck提高解耦,避免直接写入,如果server异常重启后,如流日志丢失,也是不希望出现的情况 ### Use case 能否增加一个MQ的中间件,避免直接写入数据到ck,主要想达到的效果是,避免ck压力过大(瞬时写入,需要削峰填谷)和server异常重启后如流日志和请求日志数据不丢失。 比如是否可以在server中增加一个写入和消费MQ的模块,用于保留流日志和请求日志 ### Related issues _No...
**What is your proposal**: 目前1.4版本的CPU归一化只能缩小cfs_quota的值,用于压榨CPU好的节点性能,让更多Pod能调度上去,但我让其支持可以扩大cfs_quota的值,用于拉起不同类型的CPU节点性能水平。 **Why is this needed**: 如场景:有一个应用,为支持1w的QPS,设置副本数为10,需要规格为4C-8G。这是在intel上的标准,如果是在Hygon上,则需要6C-8G的规格,副本数则为10个副本。在一个混合节点的集群中,资源画像可以解决大部分问题,但不够优雅,而且管理起来会有些问题,比如为了可靠性按照最低的规格去申请资源,会有一部分浪费,而且应用方不关注底层是哪种CPU。 **Is there a suggested solution, if so, please add it**: 所以是否可以让归一化能力支持扩大设置,另外是否可以考虑针对不同的应用Pod,去开启。毕竟不同应用的敏感度不一样,可以按需开启,而不是对节点上所有的pod都开启。