hlc1209

Results 38 comments of hlc1209

> 在弹出的UAC弹窗中选择 "显示更多信息" 你可以看到 “选择何时通知” 将通知模式直接拉到最底下(不显示) 彻底关闭UAC,可以说是下下之策了

虽然我也不算github新用户了,但是从报错页面一路找过来也颇费了一番时间,这对于不太懂编程知识的99%付费用户简直是地狱难度,本来花钱的人就少,刚花完钱还找罪受,心态不爆炸才怪。直接在报错提示找github置顶的那个地方,加一个解决问题的页面不是最好的吗?既然面向大众开始收钱,尽量避免用程序员思维处理问题。

> #945 | #1197 > > 考虑大模型的实时流式输出可能有很强的割裂感,所以做了缓存平滑输出。 感谢回复。 我认为今后大模型的输出速度只会越来越快。希望能对此加以改良,或者设置单独选项 毕竟等待实在是难受啊,明知道所有输出都已完成,还要看他慢慢往外蹦字。 对于长输出,往往需要额外等待15s甚至更多

> @hlc1209 输出速率过大也不一定是好事… 还有用户提输出太快导致画面抖动的问题: #2534 你提的这个案例其实就是很好的说明了我的问题。 一开始慢就是因为设置了缓存+过小的显示速度。最后突然一大波输出是API已经输出完成,然后UI开始加速输出。 最好的方案当然是类似于openai app那样的~~实时流式~~。Edit: 不一定是实时流式,更可能是精确估计 次之是为gpt-4o设置一个更高的缓存输出速度 一个最简单的方案就是避免自动下滚。

> 不知是否尝试过当 api 生成完毕后一次性输出剩余内容,并且不自动下滚,体验如何。 ~~这对https://github.com/lobehub/lobe-chat/issues/2534 来说是一个非常好的解决方案。~~ ~~但是并没有解决GPT-4o长输出的漫长等待时间的问题~~ Edited 这个办法是一个比较好的解决措施。

> @hlc1209 能不能录个屏看下 ChatGPT 官方 app 的 gpt-4o 的输出效果?这块我之前是有在想有没有可能实现自动的动态速率调节。之前的这个 PR #1197 其实提到的问题是针对速度很慢的 provider最好也能做到 smooth 。 > > 等 1.0 发布后我是想研究下有没有可能优化下这块的实现来着 我比较懒hahaha,但我可以描述一下。 其实官方app也并非完美,我个人猜测,官方能掌握到当前输出的速度(精确到每个用户连接到的特定的server的负载),所以往往能做到比较好的速度的估计。**但是,我也能经常遇到最后突然以极快速度蹦出一大段话的情况。** 综上,我认为官方app也是有显示缓存的,只是其有内部数据,在多数情况下能有一个比较精确的估计。 所以我觉得最后突然蹦出来一大段也是可以接受的,即设置一个极快的显示速度。 再加上不自动滚动。

不过说实话https://github.com/lobehub/lobe-chat/pull/1197 提到的问题我以前GPT-4初代(仍是目前规模最大的模型,且速度很慢)刚发布的时候经常在官方app上遇到。 个人认为不需要处理😂 综上,其实在1.0版本前,最美观优雅的修复方法就是 1. 给用户选项,是否实时流式传输。并且对openai,anthropic等公司的成熟商业产品默认启用实时流式传输。选项就加在"设置-语言模型-不同providers"中就行 2. API传输完毕后,设置一个极大的输出速度,一次性输出剩下字符 3. 检测到用户滚动后,关闭自动滚动 1.0之后,最好的方法正如你所说,动态速率调节。

> > 检测到用户滚动后,关闭自动滚动 > > 这个我感觉可以加,是目前成本比较低,体验估计也还行的方案 别忘了增大API传输完成后的最大输出速度啊😂修改成本也很低 我此时此刻正在被无数个15s的额外输出等待时间折磨。

不过我这个有26k tokens了 以往的短会话下我确实没观察到此类现象。也许只出现在长会话