ripenedcat

Results 11 comments of ripenedcat

> azure openai proxy的项目可以搜一下,这个满足你的需求 感谢思路,使用的https://github.com/diemus/azure-openai-proxy/blob/main/README.zh-cn.md, 将本项目base url替换成docker server url, https改为http后,成功!

> > > > 怎么搞定的?我用了这个azure-openai-proxy项目搭了个proxy,用代码调用已经成功了,但是用chatgpt next web会出错 error code 1003,感觉好像stream方式 azure API不支持? 看一下chatgpt next web选的model是不是在azure-openai-proxy的环境变量里? 以及common.ts里是否改成了http模式(如果你没有https反代的话)? 具体在看下azure-openai-proxy的log里是否有什么线索呢

@sxjeru 感谢解答。 我目前是使用docker方式部署到azure app service使用, azure那边似乎还没有直接支持pnpm deploy,所以先用docker workaround了。 请问docker方式有办法自定义服务商和模型吗,麻烦告诉我对应的文档吧,万分感谢!

@sxjeru @hcygnaw 感谢两位的分享。现在遇到一个问题,azure 端的deepseek变成了Global Standard deployment, 也就是部署完后会拿到一个这样的endpoint https://lucas-xxxx-francecentral.services.ai.azure.com/models/chat/completions ![Image](https://github.com/user-attachments/assets/c5606ec5-1784-426b-92a6-d07bb1f08a33) 这和之前..models.ai.azure.com结尾的regional endpoint不同, 猜测是这个原因导致了所有以services.ai.azure.com/models结尾的请求都会遇到401报错 ![Image](https://github.com/user-attachments/assets/f4e3fc47-5abb-434b-9dc7-e478cb34cb21) 查看Browser Trace 发现key被加上Bearer后放到了Authorization Header中,而不是api-key Header,可能是导致401的原因。 ![Image](https://github.com/user-attachments/assets/5c6297ed-afdc-4491-b9b5-ffa931a38399) 不知是否有办法workaround, 谢谢!

> 这个只能在前面套个 new-api 之类的项目代理一下了。 果然没有什么是加一层中间件不能解决的哈哈。 我了解了,非常感谢您的耐心解答! > 新的 Azure AI inference 推理 SDK - 这个可以作为一个新的 azure ai provider 来引入 @arvinxx 请问这个是否可以安排? 其实开这贴的目的可以说就是这个了:)

简单follow up一下,Azure工单那边有回复吗?

感觉本身是支持的,比如两个chat可以同时regenerate 不冲突。但是新发的消息就得等到响应结束才能再发

问题依旧,还没有修复吗?

@SpeedupMaster 这似乎只是增加了模型的选项, 但是仍然不知道如何把azure dalle3 作为插件使用