zhuhui-in

Results 5 comments of zhuhui-in

请问你上述说的错误的代码是在哪个文件的第几行, 我现在训练蛋白-小分子复合体生成任务中的logging_output已经加了loss.data, 但是内存依旧随着训练轮次增加内存一直往上涨。请问你有和我一样的现象么

> AI翻译已支持,等待更新发布,未来会增加上下文给翻译使用 @Anxcye @woaidangyang @InRunning I implemented this feature in the fork: `https://github.com/zhuhui-in/anx-reader/tree/ai_translate`. The implementation is rough. I upload the windows and android build in GitHub Release. I don't know...

> docking v1 or v2? v1: 使用pdbbind预训练50个epoch, 内存逐渐增长到50G+

训练脚本如下(修改了batch size=4, --all-gather-list-size 4096000), 数据是作者提供的pdbbind数据集, 预训练50个epoch,内存逐渐增加到50G,内存变化趋势如下图所示; 当使用更多的数据训练unimol的时候内存就是超出机器上限, 请问有什么办法可以让模型分批加载数据么 ``` data_path="./protein_ligand_binding_pose_prediction" # replace to your data path save_dir="./save_pose" # replace to your save path n_gpu=4 MASTER_PORT=10086 finetune_mol_model="./weights/mol_checkpoint.pt" finetune_pocket_model="./weights/pocket_checkpoint.pt" lr=3e-4 **batch_size=4** epoch=50...

> 请问可以提供训练脚本吗,以及修改过什么部分的代码吗 没有修改过代码