关皓文
关皓文
yes, I set the seed `my.seed
@jlmelville thank you for reply.
torch version 是对的,nvcc是老款的,把原来的软连接删了,现在可以了。thx
 1。这里看到BM体系里是包含finetuning 和prompt的。但是在文档中,只找到了一个微调的段落。请问该微调属于哪一种? 。 2. 请问cpm-bee属于第一种还是第二种模型? 
请问,如果服务器没有显卡,可以安装吗? 因为torch是支持cpu计算的。不知道BMTrain支持吗
请问这个报错是因为sock被其他程序占用的原因吗? `Traceback (most recent call last):\n File \"xxxeggroll/python/eggroll/core/client.py\", line 86, in sync_send\n response = _command_stub.call(request.to_proto())\n File \"/data/projects/python/venv/lib/python3.8/site-packages/grpc/_channel.py\", line 946, in __call__\n return _end_unary_response_blocking(state, call, False, None)\n File \"/data/projects/python/venv/lib/python3.8/site-packages/grpc/_channel.py\", line 849,...
@owlet42 就是题主测试的这个功能, `flow job submit -d fateflow/examples/lr/test_hetero_lr_job_dsl.json -c fateflow/examples/lr/test_hetero_lr_job_conf.json`。 我用2000端口的示例pipeline脚本测试,结果是正常的,toy测试也是正常的。是不是这个测试脚本里的conf文件或者dsl文件有问题呀。
@mgqa34 谢谢。 通过将结局变量调整为0,1,2的分类型变量可以正常运行。 现在遇到了另一个问题。我将我的测试总结为下图。  得出多分类型不支持评估的依据是: 1.说明文档中的这个参数的解释。  2.一个多分类的评估结果中只有二元分类的结果:  请问,这个结论是正确的吗?
@talkingwallace thx,multi可以的。 另外我发现reader中的id是升序,datatransform中则为乱序,请问这是为什么呢? 
请问,只支持纵向联邦,是否是因为,纵向联邦在推理时需要使用所有参与方的“半模型”进行联邦推理。 而横向联邦中,各个参与方的模型特征是一致的,所以联邦模型是一个模型,可以直接用训练好的联邦模型,进行本地推理,无需联邦推理?