ImmNaruto
ImmNaruto
api里修改model.chat为model.stream_chat,然后前端做一些流式设置
可以参照wenda项目里的流式输出https://github.com/wenda-LLM/wenda来实现
+1,same problem
修改plugins/zhishuku_agents.py中的sd_agent接口方法 把里面的url改成部署好sd的api
可以切分到多张卡部署吗,本地测试了下单张24G的3090部署不了,想尝试下多卡
linux有最大打开文件数限制,改一下就好了
要安装一下Python-docx库,pip install python-docx
这个主要是模型端的适配,要设置一下上下文指定的npu,可以参考昇腾官方对大模型侧的适配,也可以参考http://mirrors.cn-central-221.ovaijisuan.com/article/7
#531 代码已更新解决langchain版本问题
尝试适配中