Yisio
Yisio
代码长度问题。
目前普通来说的话,最大就是用3.5-16k的模型去写,但是很容易崩,因为16k还是不够执行下一轮,有没有可能之后改进到能吧前一轮的代码用embedded去压缩?不然gpt目前支持的长度太限制写出来的东西了。
### 前置确认 - [X] 我确认我运行的是最新版本的代码,并且安装了所需的依赖,在[FAQS](https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs)中也未找到类似问题。 ### ⚠️ 搜索issues中是否已存在类似问题 - [X] 我已经搜索过issues和disscussions,没有跟我遇到的问题相关的issue ### 操作系统类型? Railway ### 运行的python版本是? python 3.7 ### 使用的chatgpt-on-wechat版本是? Latest Release ### 运行的`channel`类型是? wx(个人微信, itchat) ### 复现步骤 🕹 部署后1-2天自动登出。...
不太清楚是什么原因。本来用nohup跑的。但是似乎几个小时内就消失了。多次测试都这样。现在改成了pm2。一天下来发现pm2统计他重启了16次。服务器性能应该是满足的。也没有高负载的状态。不清楚具体原因。pm2的log记录内容不多。看了下nohup的日志。具体如下 > ▲ Next.js 14.0.4 > - Local: http://localhost:3008 > - Environments: .env > > warning package.json: "dependencies" has dependency "postcss" with range "8.4.28" that collides with a dependency in...
本地部署的话,api应该填在哪里呢?env文件似乎没有模板。麻烦指教下。谢谢!
### ⚠️ 搜索是否存在类似issue - [X] 我已经搜索过issues和disscussions,没有发现相似issue ### 总结 建议新增gpt-4-turbo-2024-04-09 ### 举例 _No response_ ### 动机 _No response_