zouhan6806504

Results 20 issues of zouhan6806504

hyper_parameters: sparse_inputs_slots: 27 sparse_feature_number: 1000001 sparse_feature_dim: 9 dense_input_dim: 13 sparse_inputs_slots是离散特征的数目吧,数据里有26个,这里是26+1? sparse_feature_number和sparse_feature_dim是以什么标准来确定的?

meta2vec的模型已经训练好了,可以获得节点特征,要如何存放边、节点、关系这些属性,才能运行example里面的r_unimp?不用那么fold融合,只需要训练单模型

aistudio 32g gpu 32g内存 paddle2.2.2 pgl2.1.5 我的图约1亿条边,1kw节点 最开始我将节点归集到2类(原始数据7类),这样生成数据训练没什么大问题。但是后来我觉得这么分类可能会丢失信息,于是就按原始7分类生成训练数据,metapath也根据实际可能存在的路径生成了8种,这时候再训练就出现问题了,内存慢慢增加,最终超过32g程序崩掉 我尝试降低walk_len、walk_num、batch_node_size都不行 按理说这两种训练方式数据量都一致,就是游走的时候不同,第一种情况内存消耗稳定在17g,可能的问题出在哪里?

有个总的数据结构graph,但是细节上各种算法差得比较多 我试了graphsage,gat,这两个差得不太多,能直接用graph 轮到unimap的时候,发现需要一个m2v_feat,查了之后了解到是metapath2vec的特征,于是准备先运行一下metapath2vec算法,看数据代码又发现这个要生成配置文件中的,继续深入了解发现分割符是\t ``` etype2files: "p2a:./graph_data/paper2author_edges.txt,p2c:./graph_data/paper2conf_edges.txt" ntype2files: "p:./graph_data/node_types.txt,a:./graph_data/node_types.txt,c:./graph_data/node_types.txt" ``` 建议demo里面附上简单的数据格式要求,比如metapath2vec中需要的文件,每个文件里面几十条数据,能看出格式要求就行

### 软件环境 ```Markdown - paddlepaddle: - paddlepaddle-gpu: 2.3.2 - paddlenlp: 2.4.2 使用最近的devlop版本,aistudio环境 ``` ### 重复问题 - [X] I have searched the existing issues ### 错误描述 ```Markdown save_steps时,会丢失vocab.txt ``` ### 稳定复现步骤...

bug

I turn them into mfcc features ,shaped (128, 1172), ``` y, sr = librosa.load('E:/audio/113987.wav', sr=None) S = librosa.feature.melspectrogram(y, sr=sr, n_mels=128) log_S = librosa.amplitude_to_db(S) mel_128=librosa.feature.mfcc(S=log_S, n_mfcc=128) ``` then I use local_concurrences(mel_128.T,...