fang suk

Results 5 comments of fang suk

@CuongNN218 I find some problems in your implementation: Only in the wrong sample, the compensation factor will be calculated.not every sample. I tried to add compensation factor to bamps53's loss.My...

i have the same problem, i train and test on kitti datasets,but the result is no good.

pytorch为了数值稳定性,使用了log-sum-exp的技巧,把log和sum-exp(也就是softmax的操作)放到一起计算。所以在分类问题中,torch使用两种方式:(1)模型最后一层直接用linear,softmax放到loss中计算(torch的BCEloss)。(2)使用log softmax替换softmax,在loss计算时去除log操作。可以去看torch的官方文档,如果你在linear层加上softmax很有可能你做了两次softmax操作

评测的结果是基于sft和RLHF的版本,目前是开源了基础版本是么?