Anthony-Sun-S

Results 9 comments of Anthony-Sun-S

我是在测试检索阶段还没有进到重排,发现使用sentence-transformer的情况下m3比v1.5large表现好很多,换成flagembedding的compute_score时指标还能再提升;之前也有试过直接使用rerank,但是还是有一定差距的

好的,期待您的更新,辛苦了!

> 1. 修改`save_steps`参数可以设置保存的步数 > 2. 可能是有个别样例会超过最长的max_len,可以修改https://github.com/FlagOpen/FlagEmbedding/blob/53cfac4a50ac0e023b2f8d19b10667c9c210fa41/FlagEmbedding/reranker/data.py#L40 > 的`truncation=True`为`truncation='longest_first'` > 3. 模型合并指的是LLM-reranker合并吗,LLM-reranker的合并是将lora的参数合并到原始的模型之上 1.可以自己修改保存规则吗 2.超长的不到总训练集的十分之一,但是每一个step都会至少报错一遍,设置成了'longest_first'也没有效果 ![image](https://github.com/FlagOpen/FlagEmbedding/assets/62236721/581930c7-8a0d-4047-978d-4434d1e32268) 3.模型合并我是用的LM_cocktail合并了原始的reranker-m3和我微调之后的reranker-m3,目前是还没有用数据合并,今天会尝试一下,用的代码是示例那种,encoder这个合并的随机性就非常大,同样的代码跑几遍的指标就差距还蛮大的,有的会非常好,有的就不太好;reranker合并之后比较稳定,指标也不错,第一次接触模型合并,想了解一下是合并的方法是什么,如果是非bge的模型可以用LM_cocktail进行合并吗?谢谢您 `model = mix_models( model_names_or_paths=["BAAI_bge-reranker-v2-m3", "reranker/output/0412"], model_type='encoder', weights=[0.4, 0.6], output_path="model/mixed_reranker")`

> > 1. 在训练的时候添加`save_steps`参数就可以了 > > 2. 可以修改这部分代码 > > > > ``` > > qry_inputs = self.tokenizer.encode(qry_encoding, > > truncation=True, > > max_length=self.args.max_len * 3 // 4, > >...

> 你的reranker-m3测出来召回率有正提升不,我用了reranker以后反而掉了 你试一下用LM_Cocktail再做一次模型融合,我训练完也是掉了,然后融合之后提升蛮大的

> 我embedding用的bge-m3的,目前感觉有提升,但是好像还是没超过embedding的分数的 我是微调的reranker-m3,先embedding再reranker的话我这边不微调也有提升

> 没有微调embedding模型只微调了reranker模型是吗 对,embedding是还没来得及微调,单纯使用原本的bge-m3和reranker-m3也有提升的效果,embedding用的sentence_transformer没有用那个混合分数的,整体指标也是有再提升的

> 好像就是embedding微调了以后超不过embedding提升后的分数我看别人也说,我还在试 正好今天差不多reranker就训练完了,我也是一下训练embedding看看