泡泡の爸爸
泡泡の爸爸
目前的kafka消费策略是有点问题的,没有从根本解决kafka fetch loop的问题,虽然队列限制了10000的大小,但是fetch loop会一直执行,除非手动pause,offset会一直自动提交。如果收到消息后判断当前队列大于10000后,直接return是会丢失消息的。同时,当消息量增加,消费能力较弱时,node eventloop由于在不停触发on message事件,会导致eventloop队列内持续增长,有内存溢出的风险。
新用户貌似不能注册了,想购买电子书咋办?
**注意: 若controller、schema文件名中包含短横线:"-" 或者下划线:"_",为了保持与Eggjs特性一致,文件名将会自动转换成驼峰命形式。**
**_注意:parameter(仅当类型为body时)及response中可以通过schema的example字段来定义示例!_** 例如: