wangxggc
wangxggc
都可以,程序里面会做shuffle
哦,这个没有用那种方法,实际训练的时候发现,直接截取一个适中的句子长度对于训练也可以得到满意的效果,打个不恰当的比方,LSTM最多记忆30个特征的句长,句子长度大于30的时候,对于记忆信息反而帮助不大;再者,对于句子长度小于30的句子,直接补全到30对于计算的性能也没有太大影响。 PS,你可以自己尝试一下根据Min-Batch内最大句长设置Padding呀,Theano的scan函数需要稍作修改。
Yeah, you can email me with email address [email protected]
嗯啊, 训练的时候 python train.py -t 训练文件 测试文件 字典 类别权重(可以写成 None) 模型文件存放位置,建议写成(你的文件夹/lstm.model) 比如:python -t train.txt test.txt dic.txt None my_dir/lstm.model 数据格式挺简单的呀,一行一组数据, 标签\t句子1\t句子2,\t 是制表符 比如 : 0\t大 马 路 上\t你 要 去 哪...
嗯啊, 我当时主要是拿来做 句对推理的,分类的时候 句子1和句子2是一样的就可以啦。 编码不重要,那个注释我忘记删了, 字与字之间用空格隔开就可以~
对了 连续输入同一句话两次,一定程度上可以避免rnn梯度衰减的问题,应用上,比输入一遍的分类效果要好一点。
刚提交了代码,修改了几个bug,用的话重新下载一下哈
这个可以忽略,对应的参数写成None就可以
gbk编码