Yuki
Yuki
> 通过 OpenAI 兼容 API 同时接入多家不同的模型,此时原 URL 一致,目标 URL 不一致。redirect url应该无法实现吧 啊 我大概能明白您的意思 我原本想的是通过 https://github.com/Menghuan1918/gpt_academic/blob/37116577f865ae67594a434f86734d8277af4018/request_llms/bridge_all.py#L64-L71 但是这样子的话似乎跟 one-api 重复了 或者您觉得通过修改 bridge_all.py里面对模型的识别和对 bridge 的调用来实现如何?
> 通过您提出的方法确实可以解决 URL 重定向的问题,但是不能解决 API KEY 重定向。并且通过此方法解决 URL 重定向不是很灵活,除非我给每个模型都配置一个独立的`endpoint`。 > > 目前本程序的 API KEY 是在[shared_utils/key_pattern_manager.py](https://github.com/Menghuan1918/gpt_academic/blob/37116577f865ae67594a434f86734d8277af4018/shared_utils/key_pattern_manager.py#L65)中根据 KEY 字符串内编码的信息和模型名称来自动选取的,但是很多时候 KEY 字符串内编码的信息不够区分这个 KEY 对应哪几个模型。同时代码中是在 [bridge_chatgpt.py](https://github.com/Menghuan1918/gpt_academic/blob/37116577f865ae67594a434f86734d8277af4018/request_llms/bridge_chatgpt.py#L329C19-L329C33) 这里选取的 API KEY,所以在 `bridge_all.py` 中修改也无法解决这个问题。 > > 所以我希望能适当重构这块的架构,在`config`中给一个统一的地方来配置模型...
这个报错看起来是 你使用的代理是 `https://www.gptapi.us/` 然后你使用的网络连接这个网站出现了超时(>30s) 和代理无关 可以检查一下是不是这个代理商被墙了
Hi, 是否考虑参考#1763 在参数中添加 API_KEY 呢 我的想法是在传参的时候直接带上该模型的: - API_KEY - 请求地址 - 每次请求的最大token数(⚠️不是最大上下文数) - 最大上下文token 可以最大化的优化现在在添加新模型时的步骤并且尽可能解耦? 当然同时可能会有在使用第三方包的时候需要单独设计部分
能否麻烦您解释一下您描述的“热重载”的场景? 我目前的想法是 - 引入 sqlite3 既可以解决实时的修改环境 还可以实现对API_KEY的鉴权 - 或者直接运行的时候把 PID 保存成一个文件 然后通过 webhook 实现重启 不知道您有没有更好的想法
Hi, 请修改 `CUSTOM_API_KEY_PATTERN = r"^[A-Za-z0-9-_=]+\.[A-Za-z0-9-_=]+\.[A-Za-z0-9-_.+/=]*$"` 以适配 JWT 类型的 API_KEY
Hi, 能否打开浏览器的开发者工具 在控制台一栏查看是否 websocket 连接出错? 大概率是nginx manager proxy没有配置 websocket 反代 您也可以参考 #155
Hi, 如果您的 config.py中没有开启代理 则不会使用代理 https://github.com/binary-husky/gpt_academic/blob/43ed8cb8a8d582b2a278e70e527bac5324d64b8f/config.py#L14-L29