SpiderJack0516

Results 12 comments of SpiderJack0516

@jeonga0303 是不是要修改InternImage/classification/meta_data/.json和map这俩个文件。

@czczup 大佬你好,是不是目前还不支持训练自己的分类数据。

@czczup 这是我的命令。python -m torch.distributed.run --nproc_per_node 4 --master_port 12345 main.py --cfg configs/internimage_h_22kto1k_512.yaml --batch-size 32 --pretrained ckpt/internimage_h_jointto22k_512.pth --data-path ./imagenet --output work_dirs_deepspeed [config.json](https://github.com/user-attachments/files/17472826/config.json) [log_rank0.txt](https://github.com/user-attachments/files/17472828/log_rank0.txt) [log_rank1.txt](https://github.com/user-attachments/files/17472829/log_rank1.txt) [log_rank2.txt](https://github.com/user-attachments/files/17472830/log_rank2.txt) [log_rank3.txt](https://github.com/user-attachments/files/17472831/log_rank3.txt)

@czczup 补充一下,我的命令是这个,刚才那个少了loacl-rank 这个参数,模型就加载到日志中的样子,后面就不动了。python -m torch.distributed.run --nproc_per_node 4 --master_port 12345 main.py --cfg configs/internimage_h_22kto1k_512.yaml --batch-size 32 --pretrained ckpt/internimage_h_jointto22k_512.pth --data-path ./imagenet --output work_dirs_deepspeed --local-rank 1

@jeonga0303 建议取消分布式训练。感觉那边问题很多,现在可以i正常跑。

为什么这个微调不采用多轮对话的方式呢?

> > 为什么这个微调不采用多轮对话的方式呢? > > ` "prompt_with_history": false, 改为true可以` > > 效果我感觉和不用多轮差不多,可能我微调的模型太小了,本来就没什么多轮能力 okk,我后面会试验一下,效果好的话分享给你。

@metalisai Thank you for your method, but I find after adding 'detector.',the original model has more keys than fine tuned model. At the same time, model can be loaded normally,but...

@metalisai I have sloved the question. Thank you!