zhaofengshun

Results 14 comments of zhaofengshun

好的  已经解决了 谢谢 ------------------ 原始邮件 ------------------ 发件人: "lolisaikou"

没有“学习”啊------------------ 原始邮件 ------------------ 发件人: "colincai"

> ``` > 改成 > ``` > > while (!text("答题竞赛").exists()); > delay(1); > bounds(552,1464,1032,1800).clickable().click(); > bounds你再抓下自己的手机 怎么改?在哪里改呀

可以了,谢谢大佬------------------ 原始邮件 ------------------ 发件人: "sephiroth945"

> > > > > 您好,请教一下,基于llm-based的reranker,贵团队发布了两个版本: 1.[bge-reranker-v2-gemma](https://huggingface.co/BAAI/bge-reranker-v2-gemma) 2.[BAAI/bge-reranker-v2-minicpm-layerwise](https://huggingface.co/BAAI/bge-reranker-v2-minicpm-layerwise) > > > > > 计算query和doc的相关性, 第一种使用的是输出yes的概率值。 第二种使用的是最后一个词的向量通过一个mlp映射到1的分值,可以使用layerwise,如果不layerwise的话,可以使用一些现成的库来做比如:MiniCPMForSequenceClassification。 > > > > > 请问下: 1.在相同的数据下,有比较过两种方法的差异吗? 2.在相同的数据下,同一种方法,过加不加prompt描述的差异吗? > > > > > >...

> 现在代码已经更新,在compute_score的时候可以传参`use_dataloader=False`来解决这个问题 那请问一个batch里面 比如说我输入一个qa对是100ms,输入十个qa对是1000ms这个要怎么解决啊?

> 3\. from_finetuned_model 想请问一下from_finetuned_model和from_raw_model有什么不同吗

> 感谢您的关注,我们后续会发布技术报告并开源三个模型的微调代码 你好想请问一下微调BGE-Reranker-v2.5-Gemma2-Lightweight的代码发了吗?