RayWang99

Results 17 comments of RayWang99

> https://github.com/FederatedAI/FATE/blob/master/python/fate/ml/glm/hetero/coordinated_lr/guest.py 你可以参考lr实现代码实现。 后面我们会把2.0 开发文档丰富下 请问现在2.0以上的版本的开发文档有了吗?感谢

我们的硬件水平比较有限 Guest方系统配置:CentOS Linux release 7.6.1810 (Core)4核心、内存32G、硬盘500G Host1方系统配置:CentOS Linux release 7.6.1810 (Core)8核心、内存32G、硬盘500G Host2方系统配置:Ubuntu 20.04.6 LTS 4核 内存32G,硬盘500G

> 问下,你们这个时间是整个任务时间是吗? 能否下看每个epoch时间,这样好对比。 1.9那个因为环境切换就不好找了,但是2.0的5w数据,重新执行之后。 25分钟 reader 13s psi 2分钟 linr_0 22分钟 evaluation 40s [INFO][2024-09-23 17:01:26,667][29090][guest.fit_model][line:223]: self.optimizer set epoch 0 [INFO][2024-09-23 17:03:26,603][29090][guest.fit_model][line:223]: self.optimizer set epoch 1 [INFO][2024-09-23 17:05:26,614][29090][guest.fit_model][line:223]: self.optimizer set epoch...

> 问下,你们这个时间是整个任务时间是吗? 能否下看每个epoch时间,这样好对比。 我们做整体测试就没法弄那么细,只能说是同一个算法,同一个流程,同一些机器,尽量控制变量只有版本不一样,正因为性能有问题,所以才需要研究具体可能是什么原因。因为如果不是算法本身的原因,那说明肯定其他部分会有原因,不然整体不会慢

> 机器配置: Centos 7.2 64bit cpu Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz memory 32G use 4core on each host > > 数据&部署 guest: 5w_5 host: 5w_300 部署为1+1 > >...

> 你上面是跑一个host的任务还是2个host的任务 1 guest + 1 host

> 机器配置: Centos 7.2 64bit cpu Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz memory 32G use 4core on each host > > 数据&部署 guest: 5w5 host: 5w300 部署为1+1 任务配置 batch_size:...

> > > 机器配置: Centos 7.2 64bit cpu Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz memory 32G use 4core on each host > > > 数据&部署 guest: 5w5 host: 5w300...

> 最好也看下,你们1.9的结果是否可以复现,以及并发参数怎么设置的。 guest和host的样本数和特征数具体是多少。 这些都是影响变量。 复现的事我们会安排一下。 但是这些特征数,样本数,我们这个主要做性能测试,对比的是两个不同版本的性能,无论样本数,特征数是多少,肯定要慢一起慢,要快一起快。因为是同样两台机,同样的网络环境,同样的数据样本,同样的算法,同样的配置。我们现在倒不是觉得2.1慢,而是想不明白为什么2.1比1.9慢。

像深度学习,逻辑回归这两个算法,会有更大的差距,之所以选纵向线性回归来研究,只是因为运行速度较快,容易看到结果