Arxan_hjw
Arxan_hjw
When I use node2vec to train my graph embedding,i got 2 embeddings in .pkl file... In downsteam tasks,how can i choice between vertex embeddings and context embeddings?
作者您好,注意到源码所提供的两个spo文件都只有一种关系。如果只有一种关系,例如对于medical来说,这样一个知识图谱和一个带类别标签的外部词典是否一样?下游任务为NER时,例如sentence:高血压病人不宜使用厄贝沙坦。其中存在三元组(高血压,类别,疾病)(厄贝沙坦,类别,药物),这样的三元组似乎与词典无异?不知道我的理解是否正确?
如果输入使用BERT,是不是相当于获得BERT字向量与giga字向量的拼接使用?使用BERT,训练epoch与学习率等参数需要调整吗?
 Chinese characters represent nodes, and numbers represent weights.Has anyone done a similar experiment? Ask for advice