[BUG] MiniCPM-o 2.6 int4版本的下载链接是404
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
- [X] 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
- [X] 我已经搜索过FAQ | I have searched FAQ
当前行为 | Current Behavior
我用尝试用 MiniCPM-o 2.6 模型在本次测试,我用的是 RTX-4090 D 显卡24G显存,但是遇到了OOM错误,于是我尝试使用量化版本,但文档里给出的下载连接是404, huggingface 和 modelscope 上都没有这个模型。
期望行为 | Expected Behavior
能在我的4090D成功运行MiniCPM-o 2.6模型,或者提供量化版本的MiniCPM-o 2.6 int4 下载链接
复现方法 | Steps To Reproduce
just follow the readme.md
运行环境 | Environment
- OS: Windows 11 with WSL2
- Python:3.10
- Transformers:4.44.2
- PyTorch:2.2.0
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):12.1
备注 | Anything else?
No response
+1, 期待
+1,期待
你好,我正在上传这两个库。传输花的时间比之前估计的要长,今天应该可以传好。 另外,我们的模型应该只占用18-19G的显存(bf16精度下),应该能够在24G下进行推理。 可以检查一下是否没有将读取精度设置为bf16。 希望这能帮到你。
可以下载了,赞。另外requirements_o2.6.txt缺少两个依赖包,如果要用int4: optimum auto-gptq @tc-mb
我明天补上,感谢你的反馈。
你好,我正在上传这两个库。传输花的时间比之前估计的要长,今天应该可以传好。 另外,我们的模型应该只占用18-19G的显存(bf16精度下),应该能够在24G下进行推理。 可以检查一下是否没有将读取精度设置为bf16。 希望这能帮到你。
感谢您的回复