dongxqm

Results 4 issues of dongxqm

您好,请问在原论文中提到在使用 LLM 增强 contriever 的时候的训练 label 是 Rouge-1 的准确率吗?但是我看源码loss 的正负样本 label 是0,1呢?开放的源码不全吗? ``` “Therefore, the labels we use for training are the Rouge-1 precision scores of a query-reference pair.” ```

您好,请问您在 wmt17的 zh-en 以及 en-zh 两个方向上设置的学习率和optimizer 的具体参数是多少呢?是仅仅用了 wmt17的 中英平行语料进行微调吗?wmt17的中英训练数一共多少 sample呢?大概是训练了多少个 epoch 收敛的? 期待您的答复!

您好,看到论文里写的最后的对比训练用的是,一个线性层做的一个打分排序模型?请问这一步是不是没有用的强化学习