LittleSJL
LittleSJL
您好作者,再次就代码中模型迭代次数(训练次数, max_eopoch)提出一些问题: 在您的原始代码中,max_eopch设置的是100,但我在实际跑模型的过程中发现大概10次左右(可能7,8次;可能12,13次),模型在训练集上的loss和在测试集上的F1值就会出现波动,所以再往后训练,即使loss会不断下降,大概率会overfit,所以我最终把训练次数设置在了10次左右。 我想问的是: 1、您设置100次的目的或者根据是什么呢?你在实际跑模型的时候具体用的是多少呢?(数据集我用的就是您给的) 2、为什么无论是用您给的ID_CNN或者LSTM,模型都收敛这么慢呢(我在别的github项目中用同样的数据集,大部分都是3、4次就收敛了),是否和loss的计算有关呢?请问这是10次左右才收敛是正常的吗? 希望能得到您的解答,谢谢!
我想请问一下,Foolnltk模型训练使用的是什么数据集呢?我看好像您没有说明,或者是我没找到,请问能告知一下吗?
@ray1007 作者,您好,我读过了您的论文,关于整个的训练过程,我的理解是 (1)先找好语料,构建位图,训练convAE,抽取出 glyphs features (2)通过上述的 glyphs,去增强word representation的表达 我有如下疑问: (1)我看github文件中,您只放出了char_glyph_feat.txt文件,那使用char_glyph_feat增强得到的词向量/子向量,是需要我们自己根据我们自己的数据集去训练吗 (2)我看您使用的是繁体中文得到的char_glyph_feat,那如果我的数据集是简体中文,按照上面的训练过程,我是需要自己构建位图,训练模型提取char_glyph_feat,然后再去做 词/字向量的 增强是吗 非常感谢您做的这些关于中文词向量的研究,同时希望能得到您的解答。