BoosterCore

Results 20 comments of BoosterCore

是这样的,新建对话中确实是可以用ollama,但这个页面中并不能。目前用的OpenAI和Gemini的API都是免费版,所以在学习视频时,查看翻译,响应有些慢。 ![屏幕截图 2024-05-22 163255](https://github.com/xiaolai/everyone-can-use-english/assets/73834045/e6a8ffb5-3704-4e5c-ba65-4f1f31f30c76)

是的,我目前用的自己的密钥,但都是免费版,所以速度和token都有限制。但我本地有4090显卡,所以想在翻译时也用上ollama。多谢!

非常感谢更新,不过我本地仅部署了ollama,于是我试了`http://localhost:11434/v1/`,貌似是能检测到API,但由于默认 AI 模型列表里并不能设置相应模型,所以点翻译后报错 `404 model 'gpt-4o' not found, try pulling it first`。 不知道能否再恳请您尝试更新对ollama的支持。我这边之所以没有装 LM studio ,是因为硬盘容量实在有点紧张了,另外也不太确定 LM studio 和 ollama 这两套系统是否可以和平共处。 要求有点太高了,还望见谅!

same here, portable version ``` Traceback (most recent call last): File "L:\ComfyUI_3D\ComfyUI\nodes.py", line 1941, in load_custom_node module_spec.loader.exec_module(module) File "", line 940, in exec_module File "", line 241, in _call_with_frames_removed File...

> i used the Docker-compose file with 8009: 8009 howerver i can not visit the 8009 > > My Docker compose: services: windows: image: dockurr/windows container_name: windows environment: VERSION: "win11"...

Thank you so much! Your amazing update has enabled me to seamlessly integrate ComfyUI with Obsidian!

Finally, turn off "enable_tiling" in CogVideo ImageEncode node solved my problem.