ctx
ctx
### Problem Description 无法设置用户聊天默认使用的模型 ### Solution Description 通过环境变量来指定用户默认使用的模型 ### Alternatives Considered _No response_ ### Additional Context _No response_
### Bug Description 我使用了[https://github.com/Harry-zklcdc/go-proxy-bingai](url)项目部署了newbing的代理api, 使用的模型列表如下: -all,+gpt-4-turbo-preview,+gpt-4-vision-preview,+Precise-g4t,+Balanced-g4t,+Creative-g4t,+Precise-g4t-offline,+Balanced-g4t-offline,+Creative-g4t-offline,+Precise-g4t-18k,+Balanced-g4t-18k,+Creative-g4t-18k 但是无法总结聊天内容并自动写标题 ### Steps to Reproduce 直接聊天,使用gpt-4-turbo-preview模型 ### Expected Behavior 无法总结聊天内容并总结标题 ### Screenshots _No response_ ### Deployment Method - [ ] Docker - [X] Vercel...
Fix bug: #4587 The bug comes from: app/constant.ts ``` export const SUMMARIZE_MODEL = "gpt-3.5-turbo"; export const GEMINI_SUMMARIZE_MODEL = "gemini-pro"; ``` The problem of writing the summary model to death will...
## 本文是在基于 #43 的基础上更改而来,原作者没有提供对于CPU的训练教程,我创建了使用CPU的训练程序,特此补充(如果你使用英伟达显卡训练,请移步作者的教程,本文只是给没有显卡而想要使用CPU训练的人群阅读:) 本教程偏小白向,可能会过于啰嗦,还望见谅 ## 0.下载代码:  ## 1.安装python3.8(其他版本可能会报错!) 官网链接:https://www.python.org/downloads/release/python-380/ 官网下载慢的话,我自己下载了一份拷到蓝奏云,各位可以直接下: https://chengtx.lanpw.com/iJ6W21m7s13i 密码:fid4 ## 2.安装库: 我试跑一轮下来,安装了这些库: 以下是Python 3.8没有自带的库及其安装命令: 1. certifi - 安装命令:pip install certifi 2. charset-normalizer - 安装命令:pip install...
我更改了原本user_generate.py的代码,创建出适用于CPU的user_generate_cpu.py,可以在没有英伟达显卡的情况下愉快地生成自己的字体:) Tips:还需要把models\gmm.py文件内的所有"cuda"改为"cpu"并使用本文件训练,才能成功使用CPU
  我都是用微软雅黑进行训练,还是生成了奇奇怪怪的字体
请问我能不能在自己的个人prompts收集站使用本仓库内的prompts(非商用) 我会标注出prompts的来源,并添加上本仓库的链接 我的prompts收集站也开源了[Github-Easy-Prompts](https://github.com/chengtx809/Easy-Prompts),收集站链接:[Easy-Prompts](https://chengtx.xyz/)  效果如上