ctx
ctx
> SokWith 大佬能不能讲讲是怎么实现huggingface部署的,今年年初已经被禁了:(
 我也一样
初步看了看好像是app/constant.ts把总结模型写死了的问题 ``` export const SUMMARIZE_MODEL = "gpt-3.5-turbo"; export const GEMINI_SUMMARIZE_MODEL = "gemini-pro"; ```
我提交了pr来修复这个bug: #4593
> 这个issue我记得当初考虑的是gpt4系列模型价格非常贵,回退到3.5,在加入gemini的时候讨论过,具体的issue一时没找到 但是如果写死,我又不使用gpt-3.5的模型进行聊天,会导致无法总结:( 可能个人观点问题吧,我认为与其看着一堆“新的聊天”还不如花多点token,哭笑不得了属于是
> 目前,无法生成总结题目的情况会出现在使用 gpt-* 这类模型上, gpt-3.5-turbo 是 gpt-* 这类模型的总结模型,但是,通过环境变量禁用 gpt-3.5-turbo 之后,nextchat proxy会拒绝一切调用 gpt-3.5-turbo 的请求,因此导致无法总结。 gpt-3.5-turbo禁用的情况下,希望仍然使用 gpt-3.5-turbo 生成总结,还是使用 『当前模型』进行总结? > > > ### Bug Description > > 我使用了[https://github.com/Harry-zklcdc/go-proxy-bingai](url)项目部署了newbing的代理api, 使用的模型列表如下: -all,+gpt-4-turbo-preview,+gpt-4-vision-preview,+Precise-g4t,+Balanced-g4t,+Creative-g4t,+Precise-g4t-offline,+Balanced-g4t-offline,+Creative-g4t-offline,+Precise-g4t-18k,+Balanced-g4t-18k,+Creative-g4t-18k 但是无法总结聊天内容并自动写标题 >...
> > ~其实被禁的是浏览器~,现在 HuggingFace 是行为检测了 > > 名字什么的倒无所谓,这个我自己实验过了,还有一点就是得让容器外部无法访问端口(即通过CFZT的方式反代出来) > > 具体可以看我的那个Space > > 可能确实是集成浏览器的原因。包括后来VNC部署都被禁用了。 主要是从1.8版本后的一段时间,在集成认证服务器的缘故。1.6版本的部署一直都是可以的。 我目前的部署都是采用套娃过认证的方式,没有采用部署认证服务器的方式,所以目前都可以直接部署的。 目前套娃过认证的速度还可以,只需要改动一点点代码,就是截流认证路由到套娃服务器。 > > @chengtx809 我改后的docker名字见我在HF上的部署引用。 好的,等我周末看看,现在在学校里不能上hf,挂梯子会被校园网检测(哭
大佬强啊,学习下,回去改改我的教程(这段时间忙着做大模型没时间看这个仓库
 生成出来的,效果还可以欸
我直接用了Windows自带的画图,画布调成300*300,触屏写的(我华为电脑有触屏) 然后用了这段二值化py代码 ``` from PIL import Image import os # 设置二值化阈值 threshold = 128 current_dir = os.getcwd() for filename in os.listdir(current_dir): if filename.endswith(('.jpg', '.png')): img = Image.open(filename) gray_img = img.convert('L')...