darkelfzdy

Results 14 comments of darkelfzdy

@realDuang 问个小白问题,一直没找到方法。我已经fork了Yidadaa/ChatGPT-Next-Web,但是我再fork realDuang/ChatGPT-Next-Web这个项目的时候提示项目已存在不能在fork了(No more forks can be created. These forks already exist),我不能同时fork这两个项目吗?而且我也改了项目的名称,还是这个提示

> > @realDuang 问个小白问题,一直没找到方法。我已经fork了Yidadaa/ChatGPT-Next-Web,但是我再fork realDuang/ChatGPT-Next-Web这个项目的时候提示项目已存在不能在fork了(No more forks can be created. These forks already exist),我不能同时fork这两个项目吗?而且我也改了项目的名称,还是这个提示 > > You cannot fork an original project twice. But you can still do the following...

没法使用--model gpt-3.5-turbo-16k,提示make_book.py: error: argument -m/--model: invalid choice: 'gpt-3.5-turbo-16k' (choose from 'chatgptapi', 'gpt3', 'google', 'caiyun', 'deepl', 'deeplfree', 'gpt4', 'claude')

也希望增加,特别是网页版支持导入服务器端的图书,感觉这个功能太有用了。倒是云端图书可以通过alist挂载网盘再通过rclone挂载到本地曲线实现,但前提都是要能够导入服务器端的图书

好吧,我也预感到多段同时翻译,可能会对epub这种结构不太友好。感谢答复

我也有类似需求,但最好是直接在GitHub上提供crx的下载格式。我在公司上是从沙盒系统连接外网,根本没法使用vpn,要更新扩展只有直接安装crx,压缩文件解压安装都不行。

就是不一样,azure openai api有三个要填:一是终结点、二是密钥,三是模型部署名称。和openai api有点不一样

> ### 使用 Authing 身份认证提供者的配置方法 > `Authing` 可以兼容 `Auth0`,但是是国内的服务,所以可以用微博、微信、QQ登录。 > > 1. 注册 `Authing` ,新建一个 ToE 或者 ToC 用户池。 > 2. 在**身份源管理**页面增加**社会化身份源**。 > 3. 在**应用-自建应用**中,新建一个应用,此时可以看到如下图所示内容,你需要设置和保存**认证配置**,并根据生成的**端点信息**来配置 `lobehub` 的环境变量。 > > >...

我看到文档已经更新[使用服务端数据库部署](https://lobehub.com/zh/docs/self-hosting/server-database),里面提到NEXT_PUBLIC_SERVICE_MODE和DATABASE_DRIVER这两个变量。 如果我采用vercel+本地Postgres的模式,上述两个变量是否是要如下设置: NEXT_PUBLIC_SERVICE_MODE=client DATABASE_DRIVER=node

> @darkelfzdy 需要,你得设置为: > > ``` > NEXT_PUBLIC_SERVICE_MODE=server > DATABASE_DRIVER=node > ``` > > 但我不太建议使用 vercel + node PG 的模式,大概率会存在通信延迟的问题,导致响应比较慢。如果在同一处的话,可以做到百毫秒的响应,但如果分开来的话,估计得到秒级了 确实,我也有点担心,如果是Vercel + Serverless Postgres模式,vercel的Postgres一个月免费时长好像只有60小时,明显不够。最好的方式看来还是Docker 镜像 + Node Postgres,全部都在本地