StevenzZou

Results 14 comments of StevenzZou

> > 同上可解决: 下载文件:https://openaipublic.blob.core.windows.net/encodings/cl100k_base.tiktoken 将上一步的文件名改为9b5ad71b2ce5302211f9c61530b329a4922fc6a4 挂载目录: - ./oneapi/cache:/data/cache 将第二步的文件放到宿主机./oneapi/cache位置 设置容器环境变量:TIKTOKEN_CACHE_DIR=/data/cache 重建容器即可。 > > one-api docker-compose.yml 对应文件写法如下: > > oneapi: container_name: oneapi image: ghcr.io/songquanpeng/one-api:v0.6.4 ports: - 3001:3000 depends_on: - mysql networks:...

> > > 同上可解决: 下载文件:https://openaipublic.blob.core.windows.net/encodings/cl100k_base.tiktoken 将上一步的文件名改为9b5ad71b2ce5302211f9c61530b329a4922fc6a4 挂载目录: - ./oneapi/cache:/data/cache 将第二步的文件放到宿主机./oneapi/cache位置 设置容器环境变量:TIKTOKEN_CACHE_DIR=/data/cache 重建容器即可。 > > > one-api docker-compose.yml 对应文件写法如下: > > > oneapi: container_name: oneapi image: ghcr.io/songquanpeng/one-api:v0.6.4 ports: - 3001:3000 depends_on:...

> 我的系統是Windows,這個問題有什麼解決辦法嗎? Me too,Encountered the same problem in windows system

@huxiaochen-corporation 请问你解决了吗?我遇到了同样的问题

@songquanpeng 你好,我也是执行npm run build命令编译打包的,运行./one-api --port 3000 --log-dir ./log后 ![run](https://github.com/songquanpeng/one-api/assets/40138671/644c6982-5e0c-4437-8563-583cedf6b322) 卡在token encoders initialized这里 访问http://localhost:3000/是一片空白,要如何解决? 环境是:windows10,公司内部离线环境 花了几天时间还未解决,求助!

> @songquanpeng 你好,我也是执行npm run build命令编译打包的,运行./one-api --port 3000 --log-dir ./log后 ![run](https://private-user-images.githubusercontent.com/40138671/329978317-644c6982-5e0c-4437-8563-583cedf6b322.PNG?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTU2NTk3MzksIm5iZiI6MTcxNTY1OTQzOSwicGF0aCI6Ii80MDEzODY3MS8zMjk5NzgzMTctNjQ0YzY5ODItNWUwYy00NDM3LTg1NjMtNTgzY2VkZjZiMzIyLlBORz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA1MTQlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNTE0VDA0MDM1OVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTE3NWI1OTc2OTRjMGJiZGJjMTUyZGRmYTJhZmNlMTMxN2U5YTNhZjJkOTQwYzhkODM1MDFmMTFhYjM0ZGU5Y2YmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.Ua4wn7b5IRKGNezsEcKNBWrq-ksjhwDO4fPRCyQiazQ) 卡在token encoders initialized这里 访问[http://localhost:3000/是一片空白,要如何解决?](http://localhost:3000/%E6%98%AF%E4%B8%80%E7%89%87%E7%A9%BA%E7%99%BD%EF%BC%8C%E8%A6%81%E5%A6%82%E4%BD%95%E8%A7%A3%E5%86%B3%EF%BC%9F) 环境是:windows10,公司内部离线环境 花了几天时间还未解决,求助! 已经解决!

> 请问怎么解决啊? 看下部署文件,有个前端需要启动yarn start,要改一下端口号以免冲突

> 你这个问题是因为ollama不支持openai的vision接口,参考 [Ollama OpenAI compatibility docs](https://github.com/ollama/ollama/blob/main/docs/openai.md) > > 而one-api添加的渠道是用openai的接口格式请求的,自然就报错了 请问您我要上传图片使用多模态模型,需要做哪些设置,我非常需要

@mrguo6221 请问一下您解决这个问题了吗?

> > @mrguo6221 请问一下您解决这个问题了吗? > > 解决不了,感觉ollama也是通过这种方式保留自己的生态圈。你用openwebui 可以正常使用ollama的多模态模型,但是他就不开放api通用接口的某些功能。 我看ollama api文件里是有支持图片的 ![image](https://github.com/labring/FastGPT/assets/40138671/c3727ec2-143c-410c-8b41-28a45a3bff58)