xaswq
xaswq
是否需要A100呢?
因为没有32G的卡,比如V100,只能设置低一点的 batch size 以免显存爆掉,请问会影响最终结果吗?谢谢!
### 联系方式 _No response_ ### MaxKB 版本 1.0.3 ### 问题描述 我本地有 ollama 下载好的 通义千问模型,我想用这个,请问可以实现吗?还是只能用 llama ### 重现步骤 模型里面只能下拉 ### 期待的正确结果 安装我所需要的任意模型,比如 ### 相关日志输出 _No response_ ### 附加信息 _No response_
### MaxKB 版本 1.0.3 ### 请描述您的需求或者改进建议 第一次ollama对话总是感觉有些慢,请问如何优化,让模型常驻后台? ### 请描述你建议的实现方案 增加一个模型的预加载,方便用户对话 ### 附加信息 _No response_
### MaxKB 版本 1.3.1 ### 请描述您的需求或者改进建议 后续能否设置为配置多个模型API,设置优先级,当前面的API挂了,额度不够的时候切换到后续的API,并且最好能保持最近的几次会话 ### 请描述你建议的实现方案 _No response_ ### 附加信息 _No response_
Excuse me, could you tell me how to generate pkls from https://github.com/JianshuZhang/WAP/tree/master/data ? I use your gen_pkl.py script, but it does not work. Thanks! 
> Code and model checkpoints will be publicly available in March 2023.
已赞助,感谢大佬,能否加个把个别对话置顶的功能,方便都在一个框框里面聊对应话题
## 编译环境 - 编译的系统: Overleaf - TeX 发行版:TeX Live 2019 / MacTeX 2019 / MiKTeX 2.9.6753 - 模板类型:doctor ## 描述问题 编译的时候会出现告警,专业博士和专业硕士这块的报错。 请问是否有优雅点的在学校latex平台上的解决方案,感谢! 截图: