GalSang17
GalSang17
Hi, Now I have a new issue. When I used the file **main_test_table1.py** to test my own datasets. When the programming run a little while, it can catch exception like...
换到这个低版本的还是不行
> 支持Alpaca等指令数据集的SFT和RLHF流程:https://github.com/hiyouga/LLaMA-Efficient-Tuning > > 运行以下指令即可实现 Alpaca 数据集指令微调(instruction-tuning): > > ```shell > CUDA_VISIBLE_DEVICES=0 python src/train_sft.py \ > --model_name_or_path baichuan-7B模型文件夹路径 \ > --do_train \ > --dataset alpaca_gpt4_zh \ > --finetuning_type lora \...
> @GalSang17 项目自带了,点进data文件夹就可以看示例格式。 谢谢!

> Hi @zhudu , Thanks for pointing it out. We will rectify it . You can reproduce the accuracy by running python val.py --data coco.yaml --img 640 --conf 0.001 --iou...
I am also using this implementation, is it impossible to call distributed training?
> 那一版固定了15个类别,需要在网络那里修改自定义类别数量。我修好好了但还没时间上传 > […](#) > ---Original--- From: "Qing ***@***.***> Date: Tue, Aug 20, 2024 14:27 PM To: ***@***.***>; Cc: ***@***.***>;"State ***@***.***>; Subject: Re: [wang-xinyu/tensorrtx] Dev obb (PR #1539) 你好 尝试你的...
@yzqxy 我就是用的v8n的yaml文件呢,稀疏训练的配置是这样  然后test-p.yaml里面是这样子  你看方便加个微信吗,我有一些剪枝的问题想向你请教呢^_^,J-M116
> > @yzqxy 我就是用的v8n的yaml文件呢,稀疏训练的配置是这样  然后test-p.yaml里面是这样子  你看方便加个微信吗,我有一些剪枝的问题想向你请教呢^_^,J-M116 > >  我这边n是可行的,你再确认一下,你训练的yaml是不是n,剪枝命令也得是n  再次确认了,就是v8n.yaml,配置截图和报错如下  不过我稀疏训练结束时验证图片的预测效果好像偏移不对,像这样  训练的命令都是按照你的博客来的,单卡训练的