lixusign
lixusign
请问NN类归纳学习,拼接id的emb的物理意义是啥? 直接学习feature的归纳表达 作为节点的emb 和 学习feature + emb(id) 的归纳表达,作为节点的emb . 区别是啥,后者会效果好些吗? 另外对于后者这种,破坏了归纳学习的特点,变成了直推学习
想交流交流
CMake Error at cmake/euler_core.cmake:14 (add_library): Cannot find source file: euler/parser/gremlin.tab.c
self.stores = [ tf.get_variable('store_layer_{}'.format(i), [self.max_id + 2, self.dim], initializer=tf.random_uniform_initializer( maxval=self.store_init_maxval, seed=1), trainable=False, collections=[tf.GraphKeys.LOCAL_VARIABLES]) for i in range(1, self.num_layers)] self.gradient_stores = [ tf.get_variable('gradient_store_layer_{}'.format(i), [self.max_id + 2, self.dim], initializer=tf.zeros_initializer(), trainable=False, collections=[tf.GraphKeys.LOCAL_VARIABLES]) for...
当前看walk系列的算法包括hne 都是 src encoder一个网络, pos、negs encoder一个网络。这么做的好处是啥,为啥不用一个网络? 可以用一个网络吗? 另外如果这么设计我可不可以用,pos&negs的网络参数作为emb的结果,话说这俩网络原理上啥区别?
请教下:感觉single_view_loss这部分loss贡献度很少,信息都被multi_view attention的loss贡献了,single_view_loss的意义是类似transformer中的纠偏,防止学的太差? 如果是这样的是不是对attention的信息量很不自信^_^ , 是不是需要加个参数,p q 去控制下loss 的weight更好。