BigHeart

Results 8 comments of BigHeart

It's happen when I set "batch_norm": 1, otherwise it will not happen.

最好是安1.4吧,如果不能的话,那就跑起来看报了什么错,一个个改了。大部分应该都是接口的参数问题,这就需要多去找资料了

那个就是用sklearn里的CountVectorizer将词变成稀疏矩阵,输入lightgbm中,这部分代码比较简单,可以自己试试

这里没有用 dependency path tree,因为这个的 aspect 不一定在句子中出现

没有使用dependency parse,因为这是这个比赛的aspect没有出现在句中,跟论文的任务有所区别

好像是这样的,多谢指出

这跑了是 0.7+ 的,你确定没做什么修改吗?

我觉得是:单用词向量会有 OOV 问题,使用 字向量 一定程度能缓解。同时,中文中“字”单独存在是有一定信息的,这个也可能帮助到模型。可以读一些 机器阅读理解 的论文,他们基本都用 “字+词” 的形式