Wall.E
Wall.E
but when I use the ds_tcn config,the result is still not reproducible. eg. FAR=1, FRR=0.98. what's wrong with me?
> I followed the stages in "$root_path/examples/hi_xiaowen/s0/run.sh" , and try to reproduce network perfermance using config/mdtc.yaml, num_average=10, max_epoch=80, but after training and check results(score.txt, stats.0.txt, stats.1.txt), the score, fa and...
> Thank you for your question. We found that one parameter was missing in a previous code change, which may be the reason for the model's non-convergence. In wekws/kws/utils/executor.py, line...
> 很感谢您的回复 那我们也大致明白这两个点了,我们先在这两个方面做些尝试.我们很愿意和你们多沟通交流,感谢!!! > 您好,你们的工程非常棒,集合了小型的优秀的唤醒词模型以及提出创新性的了max_pooling loss.从我们用自己的数据跑你们的模型来看,比较容易过拟合,具体表现: 1,训练集loss过快收敛,训练集acc过快的到达95%以上,大概两个step的时间 > > 2,验证集的数据稍微和训练集有些不一致,loss就比较大,验证集acc=0.如果从同类的数据集中划出一部分数据作为验证集,剩余的作为训练集,loss就比较正常,acc也能达到95%以上. > > 3,和验证集比较类似的测试集(包括纯干净的数据),测试结果也不佳,激活很差,有的激活率为0 > > 4,从我们的实验结果来看,我们最终的测试集得和训练集尽可能的像,哪怕有比较小的差距,测试结果都是一边倒,个位数的识别率. > > 5,不知道你们有没有这样的情况,或者说我们还有哪里的技术点没有get到?有没有一些解决方案? 谢谢,期待你们的回复. 我也发现了这种问题,请问你们现在解决这种问题了吗?
> 或者减小模型的复杂度? 160k的mdtc和37k的mdtc都是如此效果,并没有解决问题
> 可以自己改一下 decode接口本身是支持batch的 今天在用这个工具打印置信度的时候遇到了一个新的问题,处理大于3min的音频的时候,位置编码过长导致报错,请问cli中的实例应该怎么修改呢  @robin1001 @Mddct @xingchensong
> `bpe_1024.json` is never used in training. It was an experimental and it makes no difference in this project. Hi, Can you give us some advice on how to make...
> > `bpe_1024.json` is never used in training. It was an experimental and it makes no difference in this project. > > Hi, Can you give us some advice on...
有,你是基于那个底座模型训练的
> > When the model converges to a relatively good situation, how much loss will be trained? > > When the model's **final loss** approximates 25, the audio reconstruction quality...