lin

Results 24 comments of lin

@ryshhxq @yzho0907 嗯嗯 这个最后怎么理解呢 . 1.首先 @crownpku 作者大大 在readme哪里说可以爬自己需要的文章内容,好像政府问题,爬政府网站的文章, 2.然后按照作者大大说 就是生成词向量 . 3, 最后的问题就是最难明白的 , 那个 rasa_demo_ch.json文件是有什么作用的呢 . 谢谢啦 三位朋友 ( ryshhxq 说的问题 json列举全部可能? @yzho0907 亲是什么意思 )

@yzho0907 O(∩_∩)O谢谢 还有一个问题 按照教程训练好的NLU模型 怎么和 rasa-core一起使用的

@yzho0907 Thanks♪(・ω・)ノ 快速查询了一遍 是不是bert 最好 不过他那里写着 ******************************************************************************************************* 使用BERT进行微调 重要提示:本文的所有结果都在单个云TPU上进行了微调,后者具有64GB的RAM。目前不可能BERT-Large使用具有12GB-16GB RAM的GPU在纸上重新生成大部分 结果,因为可以适合内存的最大批量大小太小。我们正在努力向此存储库添加代码,这允许在GPU上实现更大的有效批量大小。有关更多详细信息,请参阅有关内存不足问题的部分。 此代码使用TensorFlow 1.11.0进行了测试。它使用Python2和Python3进行了测试(但在Python2中更加彻底,因为这是Google内部使用的内容)。 使用的微调示例BERT-Base应该能够使用给定的超参数在具有至少12GB RAM的GPU上运行。 ************************************************************************************************* 这样还是没有办法用 笔记本重新微调呢 感觉要求都很高 我的最好显卡才 gtx 960m

@crownpku 那个component 部分 ,是怎么修改的 , 恩恩 其实最好奇就是 作者怎么在官方还没有兼容之前修改了代码的 是不是相当于有办法 将mitie 改成用其他的呢 好像BERT

@xiyan524 你开始用中文数据训练了吗 , 卡住了, 不知道从哪里入手好. 按照理解 , 作者说过可以用fasttext,bert 效果会更加好,那个应该是说词向量. 作者输入词向量那段代码,在哪里 , 有没有找到〒▽〒, 已经找到fasttext和bert怎么生成中文的词向量了

@xiyan524 谢谢

@victoriastuart do you know how to train model use myself data ? and how to combine fasttext or bert to make the result better ? thank you

@shashiongithub how to make this project support Chinese language ? thank

@shashiongithub thank you