hust-suwb
hust-suwb
### Issue Type Build/Install ### Source binary ### Secretflow Version 0.6.13b1 ### OS Platform and Distribution Debian 11 ### Python version 3.8.13 ### Bazel version _No response_ ### GCC/Compiler version...
如图,fate这边会抛spark exception:org.apache.spark.shuffle.MetadataFetchFailedException: Missing an output location for shuffle 0。而在spark-ui上看的话,任务都是成功的。 请问有人碰到过类似的问题吗。求解答。 环境:Centos7 + FATE v1.11.0 + Spark + RabbitMQ。
请问FATE 1.x 版本支持一方基于Eggroll另一方基于Spark的异构计算吗。 如果支持的话,请问是从哪个版本开始支持的呢,我翻了下release note,好像没看到。 如果不支持的话,那在FATE 2.0里通过互联互通的方式,FATE on eggroll 和 FATE on Spark 这两个异构引擎都基于FATE2.0 我理解肯定是可以支持的,这个理解对吗。
Federatedml/联邦统计/交集_wiki.rst文档中的链接需要更新
**What deployment mode you are use? ** docker-compose **What KubeFATE and FATE version you are using? ** 1.11.2 **What OS you are using for docker-compse or Kubernetes? Please also clear...
从 https://fate-flow.readthedocs.io/en/v1.11.1/fate_flow_resource_management/ 文档上看,其实我只需要配置 task_cores 就能设定任务使用的cpu资源,然而我实测下来发现: a. task_cores = 12 & computing_partitions = 12 b. task_cores = 24 & computing_partitions = 12 c. task_cores = 24 & computing_partitions = 24 任务耗时...
我知道FATE2.0已经落地了《金融业隐私计算互联互通平台技术规范》。我想了解如果是FATE1.x版本,比如1.11的话,去适配这个互联互通的技术规范,是可行的吗。我理解肯定是需要改FATE的代码的,但不确定是否可能较小成本就实现。 还是说如要要适配这个技术规范,最后还是会实现成跟现在FATE2.0差不多的样子?
版本:2.0 任务是正常跑完了的,切换到data的tab是有数据的,但是summary没有任何信息。 然后 schedule 的日志里有些异常
[generate_config.sh](https://github.com/FederatedAI/KubeFATE/blob/61190b0f42d0f4e18f9377bbbe728faa61d0c24c/docker-deploy/generate_config.sh#L295) ``` # RegistryURI if [ "$RegistryURI" != "" ]; then if [ "${RegistryURI: -1}" != "/" ]; then RegistryURI="${RegistryURI}/" fi sed -i "s#RegistryURI=.*#RegistryURI=${RegistryURI}/#g" ./confs-"$party_id"/.env fi ``` 这一部分代码,如果用户设置了RegistryURI,不论RegistryURI是否有使用/结尾,,也就是不论 `RegistryURI =...