我是小白,请问是否能够将deepseek r1 模型本地部署,然后ballonstranslator来使用r1翻译
可以啊,用ollama运行 ollama run deepseek-r1:32b 然后在GPT中写好模型名称deepseek-r1:32b和本地接口http://127.0.0.1:11434/v1即可
ptdgzs @.***> 于2025年2月2日周日 12:24写道:
— Reply to this email directly, view it on GitHub https://github.com/dmMaze/BallonsTranslator/issues/758, or unsubscribe https://github.com/notifications/unsubscribe-auth/AAIPT7KVDDR75SELGJ5VVU32NWMWXAVCNFSM6AAAAABWJ7TIZKVHI2DSMVQWIX3LMV43ASLTON2WKOZSHAZDKNJZGQ2TKMY . You are receiving this because you are subscribed to this thread.Message ID: @.***>
可以啊,用ollama运行 ollama run deepseek-r1:32b 然后在GPT中写好模型名称deepseek-r1:32b和本地接口http://127.0.0.1:11434/v1即可
ptdgzs @.***> 于2025年2月2日周日 12:24写道: …
本地接口是每个人都还不同的吗
本地接口
他不是写清楚了固定端口的地址吗? 还有你的显卡顶配吗?两种程序都是烧显卡的。有这买显卡的钱不如直接付费
不如直接api+system prompt破限,ds的api兼容chatgpt,而且ds再低配也是很吃资源的
可以啊,用ollama运行 ollama run deepseek-r1:32b 然后在GPT中写好模型名称deepseek-r1:32b和本地接口http://127.0.0.1:11434/v1即可 ptdgzs @.***> 于2025年2月2日周日 12:24写道: …
本地接口是每个人都还不同的吗
你成功了没?我在模型协商deepseek-r1:14b以及将API URL写为本地接口后还是不能翻译。
可以啊,用ollama运行 ollama run deepseek-r1:32b 然后在GPT中写好模型名称deepseek-r1:32b和本地接口http://127.0.0.1:11434/v1即可
ptdgzs @.***> 于2025年2月2日周日 12:24写道: […]( 写在哪里,我找了很久都没找到!
可以啊,用ollama运行 ollama run deepseek-r1:32b 然后在GPT中写好模型名称deepseek-r1:32b和本地接口http://127.0.0.1:11434/v1即可 ptdgzs @.***> 于2025年2月2日周日 12:24写道: […]( 写在哪里,我找了很久都没找到!
参考这个就行#513