Arxan_hjw

Results 5 issues of Arxan_hjw

When I use node2vec to train my graph embedding,i got 2 embeddings in .pkl file... In downsteam tasks,how can i choice between vertex embeddings and context embeddings?

作者您好,注意到源码所提供的两个spo文件都只有一种关系。如果只有一种关系,例如对于medical来说,这样一个知识图谱和一个带类别标签的外部词典是否一样?下游任务为NER时,例如sentence:高血压病人不宜使用厄贝沙坦。其中存在三元组(高血压,类别,疾病)(厄贝沙坦,类别,药物),这样的三元组似乎与词典无异?不知道我的理解是否正确?

如果输入使用BERT,是不是相当于获得BERT字向量与giga字向量的拼接使用?使用BERT,训练epoch与学习率等参数需要调整吗?

![image](https://user-images.githubusercontent.com/52808842/100688216-ca8c6980-33bc-11eb-9d59-7243c229c77e.png) Chinese characters represent nodes, and numbers represent weights.Has anyone done a similar experiment? Ask for advice