Xuefen

Results 21 comments of Xuefen

Hi, shaoxiong~ I've read your code, it's nice, but I still cannot figure out this line in your Readme.md: "The scripts will be slow without the implementation of parallel computing."...

Your experimental results make sense. In Non-iid scenario, too much local training does harm to the generalization of the global model of FedAvg.

> Hi! We have released GGUF versions of the models and look forward to someone giving it a try :) > > https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf Oh Thank you Grla : ) I...

Thank you for your quick response after the May Day holidy 👍🏻 I'll have a look!

Hi friend, I guess you may consider switching a lower learning rate when conducting your SFT.

> 您好!请问您遇到这个问题了吗? > Traceback (most recent call last): > File "train_multi.py", line 188, in > main() > File "train_multi.py", line 163, in main > crypten.init() > File "/mnt/DataDisk/conda/envs/syft/lib/python3.7/site-packages/crypten/**init**.py", line 20,...

> 关于问题一,是crypten版本的问题,通过pip安装的crypten 0.1版本的确没有`MPCTensor.rand`这个方法,通过源码安装crypten(master分支)的话是有的。如果不想通过源码安装crypten,可以使用`crypten.mpc.rand`来代替。generator是有manual_seed方法的,这个也许是IDE的提示问题? > > 关于问题二,这个只是IDE的提示,应该不是报错? > > 关于问题三,也是crypten版本的问题,通过pip安装的crypten 0.1版本的确没有`BCEWithLogitsLoss`这个方法,通过源码安装crypten(master分支)的话是有的。如果不想通过源码安装crypten,可以修改这一行为`mpc_loss = crypten.nn.BCELoss()`,同时修改`MLP`模型,在最后添加一个`Sigmoid`层,达到同样的效果。 您好,我遇到了同样的这一系列问题,但我个人在探索的时候卡在了最后一步。crypten不支持Sigmoid调用,所以把torch的模型放到crypten的模型是会报错的,是不是只能下载源码的crypten模块了呢?如果可以的话,可以教一下我怎么去下载源码并且放在服务器上吗?

> 谢谢,问题已经得到解决~ 请问您是采用下载源码的方式解决的吗

> > 您好!请问您遇到这个问题了吗? > > Traceback (most recent call last): > > File "train_multi.py", line 188, in > > main() > > File "train_multi.py", line 163, in main > >...

> > > 谢谢,问题已经得到解决~ > > > > > > 请问您是采用下载源码的方式解决的吗 > > > > 是的,需要下载github上的源码然后解压CrypTen-master > > `cd /home/qingqing/PycharmProjects/CrypTen-master > > python setup.py install` > > 之后每次运行的时候我都是先setup一下再转去要运行的train_multi.py运行 谢谢!非常感激!