[BUG] minicpm-v:8b-2.6-q4_K_M Some pictures reported errors
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
- [X] 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
- [X] 我已经搜索过FAQ | I have searched FAQ
当前行为 | Current Behavior
Using ollama:0.5.5 to infer the minicpm-v:8b-2.6-q4_K_M model, some errors may occur with certain images. api response { "error": { "message": "POST predict: Post "http://127.0.0.1:37515/completion": EOF", "type": "api_error", "param": null, "code": null } }
request: Uploading request.txt…
期望行为 | Expected Behavior
No response
复现方法 | Steps To Reproduce
No response
运行环境 | Environment
- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):
备注 | Anything else?
No response
你好,请问你用的是我们刚刚开源的minicpm-omni的gguf么? 如果是的话,这个还没有合并到llama.cpp官方分支中,ollama的推理部分本质是llama.cpp。 所以如果想使用ollama需要等一段时间合并才可以。
@tc-mb 使用的是minicpm-v:2.6的gguf https://ollama.com/library/minicpm-v:8b-2.6-q4_K_M
诶,那不太应该。 是极端长宽的图片么?之前的代码发现过在极端长宽比会有一个bug。 我这周提交修复pr给官方。
@tc-mb 你好,最近什么时候会更新
https://github.com/ggerganov/llama.cpp/pull/11289 在这个pr里面,敬请关注。