madajie9

Results 6 comments of madajie9

> 您好,是否可以共享一下复现群的二维码?十分感谢!

> Thanks for reimplementation. > I use the release weights to run the model, but the test results are lower than README.md mentioned. > > text_threshold=0.7 low_text=0.4 link_threshold=0.4 > Syndata+IC13+IC17...

> Hi, > > I think this is not authors' fault. I use pretrained model provided by authors on Synthtext and continue training on icidar2015. I get > > >...

> 您好,非常抱歉这么晚回复你的消息 > > 我不知道你的wsj0数据是那一个,因为wsj0有两个类型的数据一个是嘈杂语音的一个是干净语音(你可以听一下看是不是数据的问题)。 > > 在我自己的实验当中发现batch是影响结果的一个因素,但是并不能够让结果很差。 > > 因为这只是前几个loss,你是否可以多trian几个epoch看一看呢? > > 还有一种可能是conf文件的设置,你可以再对照论文中的超参数设置进行修改。 > > 我可以给你找一下我的log文件。发给你。 > > [Conv-Tasnet.log](https://github.com/JusperLee/Conv-TasNet/files/6776934/Conv-Tasnet.log) > > 祝好, > Kai 感谢您的解答! 我的数据应该是干净的那种,然后从您给的log里我观察到一些端倪,以下是我的log贴出来对比: Reading .yml file...

> 我是用A100 16卡 bs=4来训练的,因此我大约2-3天就能完成训练;loss 0.4应该是正常的,我最终收敛在0.3-附近。如果你需要evaluation,可以使用checkpoint进行测试,你可以设置多少个epoch存一次,我的建议是50个epoch测一下。loss到了后期下降缓慢也很正常 感谢您回复~ 我的问题得到解决,还有一个小问题想要请教您,之前issue也有提到过,是关于标签的,我在阅读代码之后依旧有些疑惑,所以找您请教。 代码位置:SPTSv2/util/data.py args.category_start_index = args.bins + args.padding_bins*2 num_char_classes = len(args.chars) + 1 # this is for noise label / unk label if args.pad_rec: num_char_classes...

> 请问你是跑Omni的训练吗,在第二阶段预训练有遇到loss is nan的情况,目前不知道怎么解决 我stage1一开始就nan了 Loss is nan, stopping training {'poly_loss': tensor(11.0486, device='cuda:0'), 'pt_loss': tensor(11.0483, device='cuda:0'), 'rec_loss': tensor(nan, device='cuda:0')}