ZimaBlue
ZimaBlue
i hava the same problem on ubuntu 22.04, please help out
> 问题是因为它需要 cpu 上的 avx2 支持。我只是为它使用了另一个支持 avx2 的系统,它工作正常。 对于那些在 cpu 上没有 avx2 支持的人也可以参考这个线程。 [nomic-ai/pygpt4all#71](https://github.com/nomic-ai/pygpt4all/issues/71) The cpu of my server supports AVX2, but the same error is reported, so strange
修bug的速度好快,最新代码测试通过,点赞
多好的功能呀,怎么能下线捏; 请问考虑在自定义配置中开启此模块吗?有了这个就不用额外搭建chatgpt套壳项目了
> 如果你要调试前端项目,如果用8001访问10821 就会跨域, 如果访问10821,把静态资源文件代理到8001,这样你的域名是10821请求的接口也是10821,就不会造成跨域了,也可以调试前端代码 我已经按照redeme本地调试步骤依次执行过:前端安装,后端调试,前端调试。 奇怪的是,我现在**直接**访问10821或者8001端口都能正确打开页面和使用功能; **但一旦开启XSwitch代理,访问10821就会显示跨域**,截图如下,百思不得其解,求解答! 
> I'm having trouble understanding how to use your code. Would you be able to provide more detailed instructions? There is a typo the readme, and this PR is intended...
@baptisteArno Hi Local LLMs are really important and are also a trend. Please also add xinference, which supports more models than ollama and has more comprehensive functions. Official documentation: https://inference.readthedocs.io/en/latest/index.html
+1 点击任务栏图标可以截图,快捷方式不行
> 我好像找到原因了,docker 启动的时候加个参数 --shm-size 20g, 如下: > > > docker run -d > > -e XINFERENCE_MODEL_SRC=modelscope -e XINFERENCE_MODEL_SRC=模型范围 > > -v /data/xinference_llm/.xinference:/root/.xinference -v /data/xinference_llm/.xinference:/root/.xinference > > -v /data/xinference_llm/.cache/huggingface:/root/.cache/huggingface -v /数据/xinference_llm/.cache/huggingface:/root/.cache/huggingface...