关皓文

Results 11 comments of 关皓文

yes, I set the seed `my.seed

@jlmelville thank you for reply.

torch version 是对的,nvcc是老款的,把原来的软连接删了,现在可以了。thx

![image](https://github.com/OpenBMB/CPM-Bee/assets/39901746/6e16853c-994d-44ac-88f2-73ee4c8c76c5) 1。这里看到BM体系里是包含finetuning 和prompt的。但是在文档中,只找到了一个微调的段落。请问该微调属于哪一种? ![image](https://github.com/OpenBMB/CPM-Bee/assets/39901746/fc2d1eee-8d39-4526-9cca-de5f0b49e29a)。 2. 请问cpm-bee属于第一种还是第二种模型? ![image](https://github.com/OpenBMB/CPM-Bee/assets/39901746/58531e71-dae9-433b-8db3-dd2791d83e28)

请问,如果服务器没有显卡,可以安装吗? 因为torch是支持cpu计算的。不知道BMTrain支持吗

请问这个报错是因为sock被其他程序占用的原因吗? `Traceback (most recent call last):\n File \"xxxeggroll/python/eggroll/core/client.py\", line 86, in sync_send\n response = _command_stub.call(request.to_proto())\n File \"/data/projects/python/venv/lib/python3.8/site-packages/grpc/_channel.py\", line 946, in __call__\n return _end_unary_response_blocking(state, call, False, None)\n File \"/data/projects/python/venv/lib/python3.8/site-packages/grpc/_channel.py\", line 849,...

@owlet42 就是题主测试的这个功能, `flow job submit -d fateflow/examples/lr/test_hetero_lr_job_dsl.json -c fateflow/examples/lr/test_hetero_lr_job_conf.json`。 我用2000端口的示例pipeline脚本测试,结果是正常的,toy测试也是正常的。是不是这个测试脚本里的conf文件或者dsl文件有问题呀。

@mgqa34 谢谢。 通过将结局变量调整为0,1,2的分类型变量可以正常运行。 现在遇到了另一个问题。我将我的测试总结为下图。 ![image](https://github.com/FederatedAI/FATE/assets/39901746/03027236-82af-40d5-880d-d51e0349f27d) 得出多分类型不支持评估的依据是: 1.说明文档中的这个参数的解释。 ![image](https://github.com/FederatedAI/FATE/assets/39901746/5aec4797-5543-421d-87c1-c821784817ec) 2.一个多分类的评估结果中只有二元分类的结果: ![image](https://github.com/FederatedAI/FATE/assets/39901746/7e5e0906-a6df-4ad9-8efc-649013225c7e) 请问,这个结论是正确的吗?

@talkingwallace thx,multi可以的。 另外我发现reader中的id是升序,datatransform中则为乱序,请问这是为什么呢? ![image](https://github.com/FederatedAI/FATE/assets/39901746/3827ae5c-ea59-46f1-8640-e32bf95f7579)

请问,只支持纵向联邦,是否是因为,纵向联邦在推理时需要使用所有参与方的“半模型”进行联邦推理。 而横向联邦中,各个参与方的模型特征是一致的,所以联邦模型是一个模型,可以直接用训练好的联邦模型,进行本地推理,无需联邦推理?