gsm1258
gsm1258
https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/mcp/paddleocr_mcp/releases/v0.2.0/paddleocr_mcp-0.2.0-py3-none-any.whl 我看了一下,好像源代码已经解决了此问题,是否应升级一下whl包,mcp 0.2.1
> [@Jpzhaoo](https://github.com/Jpzhaoo) 使用最新的PaddleX(3.3.5版本及以上),如果推理所需的模型文件在`/root/.paddlex/official_models/`目录下已存在,那么在没有网络的情况下也可以正常推理。可以再试试。 我的是3.3.5,但是依然识别不了`/root/.paddlex/official_models/`目录下的模型,只能全部列出来,才可以
我感觉paddle好像对文档或图片四周进行了裁剪,文档影响稍小,毕竟正文在中央,图像影响太大了,顶行、底行经常被忽略。
> Hello, I would like to work on adding this feature, could you assign me? If the next version of Ollama updates to include an API key feature, please ensure...
I am running it on the official Dify cloud platform, so there is no configuration issue. Please resolve the compatibility problem as soon as possible.
 
使用paddlex作服务,内存控制得比较好。
> 感谢反馈!请问是否方便提供下复现流程和代码,我们验证一下。 在纯cpu环境(无gpu显卡),用官方的命令,paddleocr或者paddlex,使用能够观察cpu线程的软件,就可以实时看到,最多只调用10个线程,cpu_threads参数根本不起作用。我以为在命令行或者配置文件的这个参数没有传递到运行中去,实际运行仍然使用的是源代码中默认的线程数,很多推理初始线程都是10,有的甚至更少