浪漫的真爱
浪漫的真爱
> > 常见问题Google一下就有解了 > > 谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行 我这边在Linux下部署了14B和32B的qwen模型,在双路E5的机器下需要50G以上的内存。
你应该向林哥提交一些日志或是截屏什么的
https://github.com/linyiLYi/bilibot/issues/7 可以看看这个吗
https://github.com/linyiLYi/bilibot/issues/7#issuecomment-2108044076
报错了 ``` # python3 -m mlx_lm.lora --model models/Qwen1.5-32B-Chat --data data/ --train --iters 1000 --batch-size 16 --lora-layers 12 Loading pretrained model Segmentation fault ```
实际证明我的机器接不住这个B友【双路e5+64g ddr4】 ``` Loading pretrained model Killed ```
# 如何在linux运行这个B 首先把林哥的B 下载到本地并按照林哥的文档安装必要的依赖文件,包括mlx。 ``` pip install mlx-lm ``` 然后在启动之前你还需要下载32B的模型文件。 首先要在项目跟目录下创建`models`文件夹,在把32B用`git clone`进去。 如果发现`clone`下来的文件只有 XX MB那说明有问题这里提供第二种下载方式, 先安装必要的pip库 ``` pip install modelscope ``` 然后执行`python3`启动python终端,在python终端中执行下面代码 ``` python #模型下载 from modelscope import snapshot_download model_dir...
跑起来了,但是又了新的报错 ```bush Loading pretrained model Special tokens have been added in the vocabulary, make sure the associated word embeddings are fine-tuned or trained. Total parameters 32513.791M Trainable parameters 1.573M Loading...
# 新的思路 林哥给的是一个在M系列芯片运行的版本无法在X86机器上运行,但是林哥给了我们训练需要的数据集,那么我们是否可以用其他方法对Qwen进行lora微调