Cheng Yang
Cheng Yang
> > 把adapter_model.safetensors 重命名为 adapter_model.bin 再试试 > > 亲测可用,谢谢老师 我遇到同样的问题,改成.bin后还是提示没有lora权重。
>  有解决不,这个问题
> ### Search before asking > * [x] I had searched in the [issues](https://github.com/eosphoros-ai/DB-GPT/issues?q=is%3Aissue) and found no similar issues. > > ### Operating system information > Linux > > ###...
> 也许这会有所帮助 https://bit.ly/47P0Nvo 存档代码密码:changeme > > 您可能需要安装 c 编译器 这个跟安装C编译器有啥关系
> > CUDA_VISIBLE_DEVICES=0 python /home/ubuntu/TextToSQL/DB-GPT-Hub/src/dbgpt-hub-sql/dbgpt_hub_sql/train/sft_train.py --model_name_or_path /home/ubuntu/.cache/modelscope/hub/qwen/Qwen2___5-Coder-7B-Instruct --do_train --dataset example_text2sql_train --max_source_length 2048 --max_target_length 512 --template qwen2_5 --finetuning_type lora --lora_rank 64 --lora_alpha 32 --lora_target q_proj,v_proj --output_dir /home/ubuntu/TextToSQL/DB-GPT-Hub/src/dbgpt-hub-sql/dbgpt_hub_sql/output/adapter/Qwen25-7B-Instruct-lora --overwrite_cache --overwrite_output_dir --per_device_train_batch_size 1...
> 你好,请问哪里可以看到所支持的全部模型以及对应的template,我在最新版(主分支)找了好久看到的支持的模型都是好早之前的,如有回复万分感  这个是我的微调设置,你可以参考一下。
> > 你好,请问哪里可以看到所支持的全部模型以及对应的template,我在最新版(主分支)找了好久看到的支持的模型都是好早之前的,如有回复万分感 > >  > > 这个是我的微调设置,你可以参考一下。 先把qwen25的模型下载到本地缓存,可以通过swift下载,这样快一点。
> > > > 你好,请问哪里可以看到所支持的全部模型以及对应的template,我在最新版(主分支)找了好久看到的支持的模型都是好早之前的,如有回复万分感 > > > >  > > > > 这个是我的微调设置,你可以参考一下。 > > > > > > 先把qwen25的模型下载到本地缓存,可以通过swift下载,这样快一点。 > > 非常感谢你的回复,我会尝试一下的,图片里模型是qwen2.5,template是llama2,使用的模型和template不对应也是可以的吗? 我看之前的命令 CUDA_VISIBLE_DEVICES=0 python /home/ubuntu/TextToSQL/DB-GPT-Hub/src/dbgpt-hub-sql/dbgpt_hub_sql/train/sft_train.py --model_name_or_path...
> Hi, did you solve it? 解决了。你要对你fork的项目重新命名,并且打开你项目设置里的page设置。比如:wyy-code.github.io 如果你之前有过这样命名的项目,就要对之前的文件进行删除。
> Hello~ After I push my updates to github, I found that the pages unchanged automatically. How can I update my personal pages? Should I re-run action or create a...