ripenedcat
ripenedcat
> azure openai proxy的项目可以搜一下,这个满足你的需求 感谢思路,使用的https://github.com/diemus/azure-openai-proxy/blob/main/README.zh-cn.md, 将本项目base url替换成docker server url, https改为http后,成功!
> > > > 怎么搞定的?我用了这个azure-openai-proxy项目搭了个proxy,用代码调用已经成功了,但是用chatgpt next web会出错 error code 1003,感觉好像stream方式 azure API不支持? 看一下chatgpt next web选的model是不是在azure-openai-proxy的环境变量里? 以及common.ts里是否改成了http模式(如果你没有https反代的话)? 具体在看下azure-openai-proxy的log里是否有什么线索呢
@sxjeru 感谢解答。 我目前是使用docker方式部署到azure app service使用, azure那边似乎还没有直接支持pnpm deploy,所以先用docker workaround了。 请问docker方式有办法自定义服务商和模型吗,麻烦告诉我对应的文档吧,万分感谢!
@sxjeru @hcygnaw 感谢两位的分享。现在遇到一个问题,azure 端的deepseek变成了Global Standard deployment, 也就是部署完后会拿到一个这样的endpoint https://lucas-xxxx-francecentral.services.ai.azure.com/models/chat/completions  这和之前..models.ai.azure.com结尾的regional endpoint不同, 猜测是这个原因导致了所有以services.ai.azure.com/models结尾的请求都会遇到401报错  查看Browser Trace 发现key被加上Bearer后放到了Authorization Header中,而不是api-key Header,可能是导致401的原因。  不知是否有办法workaround, 谢谢!
> 这个只能在前面套个 new-api 之类的项目代理一下了。 果然没有什么是加一层中间件不能解决的哈哈。 我了解了,非常感谢您的耐心解答! > 新的 Azure AI inference 推理 SDK - 这个可以作为一个新的 azure ai provider 来引入 @arvinxx 请问这个是否可以安排? 其实开这贴的目的可以说就是这个了:)
简单follow up一下,Azure工单那边有回复吗?
感觉本身是支持的,比如两个chat可以同时regenerate 不冲突。但是新发的消息就得等到响应结束才能再发
问题依旧,还没有修复吗?
@SpeedupMaster 这似乎只是增加了模型的选项, 但是仍然不知道如何把azure dalle3 作为插件使用