currylym
currylym
请问如果要复现mrc-ner模型下dice loss的效果,采用当前仓库dice loss的写法么🤔 看到https://github.com/ShannonAI/mrc-for-flat-nested-ner/blob/master/loss/adaptive_dice_loss.py 仓库下也有对应的实现,有点疑问咨询下大佬,感谢🙏
有两个问题请教一下大佬: https://github.com/rener1199/deep_memory/blob/4840faaf6b5b65a9d8dcf3dbc19a42f7acf49b92/model_mem_wide_deep.py#L122 1.这里h_mem和mem_layer作用是什么 https://github.com/rener1199/deep_memory/blob/4840faaf6b5b65a9d8dcf3dbc19a42f7acf49b92/model_mem_wide_deep.py#L66 2.gradient block是通过这里stop_gradient实现的吗 谢谢~
原始数据:pair模式的正负样本 rerank微调数据组织方式: 1. 对于正样本,使用难样本采样策略,使用默认参数 2. 对于负样本A-B,构造成{"query": A, "pos": [A], "neg": [B]},后续也采用难样本采样策略继续补充neg样本;话说这里用大模型生成一个假的正样本A',效果会好一些吗🤔 这样微调bge-reranker-v2-m3后,训练loss正常下降,但是测试集上指标变化不大;打分表现是分数整体变小,都偏负数 请教下,如果我想保留人工标注的负样本对数据,应该怎么构造reranker的微调数据呢? 感谢🙏