dh12306

Results 16 comments of dh12306

![image](https://user-images.githubusercontent.com/20471681/55457914-fcfd2680-561d-11e9-9d83-684b0fba52b2.png) this is my docker ps results

您好,请问能提供一下数据吗?非常感谢!邮箱[email protected] @nocater

I got same results with these two different functions,but different auc with qini_auc_score and uplift_auc_score,why ?

> I solved it changing in the Makefile the line: ` MK_LDFLAGS += $(shell pkg-config --libs openblas)` to: ` MK_LDFLAGS += -lopenblas -L/usr/local/lib` > > I guess that the original...

> max_seq_len 直接改就行。你用生成的predict.txt 去做submit.txt。卡住的地方,自己人工看原因,解决就行了。没有几条的,有可能是模型还是有点小问题。 改了报错啊,二楼

> 关于句子长度问题:语料库、训练集、测试集中的句子长度在200以下的占比在96%-98%之间。与训练所需时间相比,这个长度我觉得是比较合理的。所以在训练模型的时候我把句子长度定为200。当然,对于长度大于200的句子,超过200之后的实体肯定是被丢弃掉了,但这个在最后的成绩中并不会是占主导因素。如果你有更好的机器,那你句子长度可以更大,我之前统计的是如果你设置为512,可以覆盖所有的训练和测试集。 > > 第二个问题:由于设置的学习率比较小,lstm的学习速度会比较慢,如果迭代次数比较小的话会出现大量的错误标签,而我写的标签转换方法只考虑了生成的标签符合规则。出现不符合规则的标签样式肯定是不能自动转换,这个时候就需要你手动去改为正常的样式。 > > 比如,在正常规则下,a-B 后面只能跟a-E a-M 这两种标签,如果出现其它的标签你可以大概判断一下后面接哪个,改为正确的就行。 get~,谢谢

> Thank you for report. cpp runtime is the recommended way. Also, you could also try latest main branch if you stil want to run on python runtime. In latest...