关于sample-level
学长您好,我想请问下代码中evaluate.py模块的sample-level片段,为什么不是mix/2 和 1 进行比较,而是直接mix 和 1去比较,没怎么理解,可以麻烦您解答一下下吗?
mix/2应该和0.5比较,因为预测是0~1之间的概率值嘛,所以这个概率大于0.5就认为是fake(1)。因此我这里只是等价写成mix和1比较而已hhh
看到学长的解释,我感觉我的问题很呆- -!谢谢学长,3q
不客气~有碰到其它问题欢迎随时留言:smile:
学长不好意思又打扰了。paper上的lr,epochs和代码中的不太一样,是您后期修改了嘛。还有f2f的百度云landmark提取码貌似不对
- 是的,paper上提供的参数已经是差不多快两年前的版本了,现在库里的参数都是更新过后的。此外当时的实验都是用TensorFlow2.0做的,后面再这个库里更新成PyTorch版本了,两个环境下对网络的实现有出入,并且甚至不同版本的PyTorch训练效果都有出入,所以lr和epoch可以根据情况适当调整。
对于paper中报告的性能相关的更多说明可以看https://github.com/frederickszk/LRNet/issues/15#issuecomment-1114013545 里边的Q3,简要来说paper中的FF++当时是只指代单一DF数据集的,所以性能都是在DF上的数据。不过最近正在陆续更新在FF++全集上训练的模型,所以对应的lr、epoch等也会有变。
- F2F的链接我测试过了,提取码应该是对的,试试看手动输入提取码,然后注意不要有空格就行~
hh学长回答这么快速的嘛。谢谢!!!!!!!!!!!!!!!!!
那如果训练全部数据集,为啥要添加4次origin的数据集
为了平衡训练集中的真假样本比例,不然的话假样本会是真样本的4倍,对训练和性能有影响。(目前看到的绝大部分工作对FF++全集都是这样处理的) 当然在test/evaluate的时候我都只读入了一次origin的数据集,保证公平评估性能
我懂了,谢谢学长 : )