dgm

Results 12 comments of dgm

model.load_state_dict(state_dict, strict=False)这样就可以了

你好,请问你解决了吗?我也遇到这样的问题,测试的准确率都不到1%,demo什么也识别不出来。

请问你们训练模型用的什么配置的设备呢

@Hangz-nju-cuhk 你好,例如,那么我用一段5分钟语音,生成5000个bin文件,那么最终也会生成2-5001个图像,直接用这个图像和语音合成,嘴型就直接能对应上吗?

![image](https://user-images.githubusercontent.com/32973161/71453676-7a2d8480-27c7-11ea-9a48-6b4aa7d9ee3b.png)

@HAOHAOXUEXI5776 请问你中英翻译,中文是怎么处理的,我使用iwlst2015的数据,中文用jieba做分词,其他的和原文代码一样,第二个epoch后BLEU就为0,后面一直是0。

> @duguiming111 用的是源代码里面的处理方式,我记得中英文都是用BPE处理的,没用jieba分词 好的 谢谢 我再试试

> > @duguiming111 用的是源代码里面的处理方式,我记得中英文都是用BPE处理的,没用jieba分词 > > 好的 谢谢 我再试试 我设置batch size大小为32,8个epoch,BLEU始终在0.7左右震荡,请问你的batch大小是多少呢?机器的显存多大呢?

谢谢大佬 在 2020-03-11 17:05:06,"felix" 写道: @duguiming111 sorry,I updated the README, contain training data. — You are receiving this because you were mentioned. Reply to this email directly, view it on...

When I run the code, python3 nmt.py --attention=scaled_luong --src=zh --tgt=en --vocab_prefix=tmp/nmt_data_zh_en/vocab --train_prefix=tmp/nmt_data_zh_en/train --dev_prefix=tmp/nmt_data_zh_en/tst2012 --test_prefix=tmp/nmt_data_zh_en/tst2013 --out_dir=tmp/nmt_attention_model --num_train_steps=12000 --steps_per_stats=100 --num_layers=2 --num_units=512 --encoder_type=bi --dropout=0.2 --decay_scheme=luong234 --metrics=bleu The best value of blue is 11.4,are...