xiongbl526
xiongbl526
The following error occurred when starting the API module and Alter module while deploying the upgrade from 3.1.8 to 3.2.1 using Helm: ![Uploading 9806BF61-6324-4cef-8953-8631B003D208.png…]() ![Uploading 9833A4F9-E0E2-428e-B718-C253E364AF6D.png…]()
[INFO] 2024-04-25 16:42:28.654 +0800 o.a.d.p.t.a.TaskPluginManager:[63] - Registering task plugin: JAVA - JavaTaskChannelFactory [INFO] 2024-04-25 16:42:28.724 +0800 o.a.d.p.t.a.TaskPluginManager:[68] - Registered task plugin: JAVA - JavaTaskChannelFactory [INFO] 2024-04-25 16:42:28.724 +0800 o.a.d.p.t.a.TaskPluginManager:[63] -...
> Please tell me your clickhouse version and operation details. byconity base on 21.8 version just SELECT bitmapBuild([1, 2, 3, 4, 5]) AS res;
Your effort is greatly appreciated. This problem has significantly stalled our progress on dolphinscheduler, which is a must-use tool for us. We're eagerly awaiting any further insights you might have....
> I have found a possible solution,I will try to fix it this weekend,I will let you know if there is any progress I resolved the problem by upgrading the...
I am not sure if it will cause issues such as memory leaks.
> @xiongbl526,kafka消费表其实不需要监控,因为kafka消费表最终体现在消费lag上,所以一般只需要监控kafka侧的lag情况即可。 现在有时看byconity引擎 出现几秒内消费量直接降到0 然后过几秒瞬间升起来 这样峰谷的消费情况 消费很不稳定 这种通过调节哪些参数可以优化呢
以每秒生产量3.4k 左右的一个topic为例 kafka引擎消费者数配置的各topic分区数相同,block_size为0.1M 消费降为0时 lag大概三万五左右 基本每隔十五秒消费量就会降为0 每隔十五秒每秒消费量涨到7k左右 我把block_size调大 这个峰谷落差更大了 ---- 回复的原邮件 ---- | 发件人 | Maomeng ***@***.***> | | 日期 | 2024年08月13日 10:00 | | 收件人 | ***@***.***> | |...
谢谢,我们再验证下 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年08月14日 11:03 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [ByConity/ByConity]...
> @xiongbl526 inode到了95%了,按照经验应该是先把inode降下去,而不是更改内核的配置。inode打满说明文件系统不能再继续提供服务了 有什么办法控制inode快速增长吗