wangshao1
wangshao1
### Is this a regression? Yes ### Description 现象: 执行slaveof同步该数据时一直报timeout,无法完成数据同步。 原因: pika master节点配置了千兆网卡,出现了网卡降速,降低到100Mb/s. 定位过程: 执行netstat -na|grep {port}发现回包积压严重,查看监控发现内存一直上涨,查看网卡带宽发现降低到100Mb/s,怀疑rsync请求的数据包大于网卡带宽导致请求无法及时收到回包,rsync client应用层重传导致进一步加剧。当前pika节点所在物理机除pika外还部署了一个proxy节点。 运维操作: 1. DBA同学将当前pika节点上的proxy下线,减少网络带宽使用。 2. 修改rsync主从复制的限速参数(throttle-bytes-per-second),调整到10MB,重启pika节点。 3. slave节点开始缓慢同步历史数据,等到主从历史数据同步完成,且积压binlog同步完成,切主。 4. 老master机器下线保修,为新master重新启动一个slave。 复现方法: master端:写入一批数据到RocksDB中,通过wondershaper限制master端网络带宽。(sudo wondershaper...
### Is this a regression? Yes ### Description master节点收到slave节点拉取文件的请求之后,如果本地的dump目录被删除,会向slave节点回包,返回错误,但没有设置offset字段。 slave节点在收到回包之后,会比对offset字段,如果offset字段不匹配,会认为这是一个过期的回包丢弃掉,继续等待新的回包。这种情况下,master的错误会被被意外丢弃掉,导致请求超时。 ### Please provide a link to a minimal reproduction of the bug _No response_ ### Screenshots or videos  ###...
how to set variable labels?
### Which PikiwiDB functionalities are relevant/related to the feature request? _No response_ ### Description 1. 使用无锁队列替换当前的队列实现。 2. rocksdb kv分离的优化,减少Compaction过程中对blob文件的随机IO。https://github.com/pikiwidb/rocksdb/pull/2/files 3. pika对应工具的更新,如pika-port。 4. binlog和wal重复,只保留一份。 5. rocksdb env,现在是所有rocksdb公用同一个bgthreadpool线程池,是否进行拆分,每个rocksdb使用独立的bgthreadpool。 6. benchmark_client支持更多接口。 ### Proposed...
### Is this a regression? Yes ### Description pkpatternmatchdel only deletes db based on given pattern and lefts the stale value reserved in rediscache. This will lead to inconsistent. ###...
### Is this a regression? Yes ### Description On branch 3.5, stream type doesn't specify compactionfilter when opened, so for deleted stream value, they will not been purged during compaction....
1. 修复codis单元测试bug。 2. github pipeline增加codis相关单元测试。
之前的codis proxy 中,如果后端服务读请求超时,对应链接会close重新创建新链接,对应链接上的请求会直接失败。 修改之后,如果请求超时,只会将对应的request设置为err,不会kill链接。
基于PacificA协议实现的pika数据强一致。 原始pr链接:https://github.com/OpenAtomFoundation/pikiwidb/pull/2994 该pr是基于3.5版本提交的pr。