Liu Xiaochen

Results 4 comments of Liu Xiaochen

> I think it is likely that will be enough memory, unless the documents are truly huge. Can you send us a document which causes the problem so we can...

> > > > > 您好,请教一下,基于llm-based的reranker,贵团队发布了两个版本: 1.[bge-reranker-v2-gemma](https://huggingface.co/BAAI/bge-reranker-v2-gemma) 2.[BAAI/bge-reranker-v2-minicpm-layerwise](https://huggingface.co/BAAI/bge-reranker-v2-minicpm-layerwise) > > > > > 计算query和doc的相关性, 第一种使用的是输出yes的概率值。 第二种使用的是最后一个词的向量通过一个mlp映射到1的分值,可以使用layerwise,如果不layerwise的话,可以使用一些现成的库来做比如:MiniCPMForSequenceClassification。 > > > > > 请问下: 1.在相同的数据下,有比较过两种方法的差异吗? 2.在相同的数据下,同一种方法,过加不加prompt描述的差异吗? > > > > > >...

为什么不直接取倒数第二个位置的索引,或者不加yes直接取-1

> 我们只需要一个数值进行排序,这里计算的是yes的概率,进行排序。 > 我们只需要一个数值进行排序,这里计算的是yes的概率,进行排序。 请问为什么不直接取-2位置的logits,或者不加yes,取-1位置的logits,而是通过在最后加一个yes,然后torch.max来定位?padding应该都是left padding吧,还是最后一个位置的logits预测label?