dryheart
dryheart
GRUB_CMDLINE_LINUX added: systemd.unified_cgroup_hierarchy=1 cgroup_no_v1=all
我们发现貌似这个配置会引起精度损失:"compress": {"rate":16}
> 您好,搭建独立的etcd,2个vearch共享etcd是可以看到所有的PS节点和db。db没有隔离的,ps节点可以做到隔离。如果要想在创建db的时候,做到资源隔离,可以使用curl -H "content-type: application/json" -XPUT -d' > { > "name":"ts_db", > "ps":["127.0.0.1","127.0.0.2","127.0.0.3"] > } > ' http://master_address/db/_create > ,这样,db下面的partition只会使用指定的ps节点。  etcd有类似namespace功能,可以按集群加个前缀就好了 指定ps建表,k8s这种部署方式 不太方便
> 上周和你们进行了沟通,请问使用新发布的版本测试还存在该现象吗? 目前已将新改动更新到了线上,还在导存量数据。后续有问题会及时反馈
> 根据你的建表语句没有重现该问题,麻烦发一下插入的数据以及查询的参数,我本地重现一下问题,谢谢 建表语句改为"partition_num": 10 原始向量用随机值就行,插入完,用20条原始向量通过msearch查,返回向量与原始向量相同时,score分数只0.3左右,总之比1小很多
看了下源码,应该是msearch拼接向量时的归一化问题 比如128位向量,10条批量查询。我们需要把向量合并成1280维去查询,**归一化逻辑将1280维一块处理,这里会有问题,应该128维单独归一化**
### 补充一些PS节点log: - ERROR log ``` ERROR 2021-09-03 18:10:17,310 master.go:135 server can not find on master, maybe server is offline, nodeId:[12] ERROR 2021-09-03 18:10:17,310 partition_service.go:120 partition recovery get server info...
@gDreamcatcher @kuailelijuan @jinzishuai 这个问题近期有做修复吗
> 1、重启前后调用health接口得到的数据量一样吗? > 2、重启前向量索引dump下了吗?可以查看retrieval_model_index/2021-08-29-00:18:26/dump.done文件,如果索引没有dump,重启后将重新创建索引。配置文件中有控制自动调用dump频率的参数,也可手动调用curl -XPOFT http://router_server/$db_name/$space_name/_flush接口dump索引。 1. 重启后数据量一样 2. 重启前没有dump,重启后看log应该会自动重建索引,但实际上查不到数据 3. http://router_server/$db_name/$space_name/_flush,调了接口查询恢复了
> 请问你使用的是批量插入数据接口吗? 是的