nextdoorUncleLiu
nextdoorUncleLiu
> 有实际demo么 已添加
> 求react demo~特别长的页面 哈哈,我比较懒,就直接弄了个vue项目,你可以看一下,vue和react就是赋值方式不一样,看看对你有没有帮助
不是的,首先,执行的是sliceQueue,先去把任务切片,是按照任务的时长去切的,简单点说可以说是有短任务需要到next在执行,如果没有短任务,就可以直接执行,这是一点,到了next,他会通过do while去执行你的next任务,你要是长任务,就不执行do while了,下一次执行绘制的时候,去执行该常任务,好多人说有的任务超过16.7ms,为什么没有切开呢,这是generator特性的问题,我可以按多个任务分开切,但是我不能把一个任务分开切
不,短任务如果小于16.7,就直接执行了,大于16.7的在下一次绘制的时候执行
不是的啊,你看do while那里,小于16.7毫秒我会继续执行的
mergeRequest一下把
已做版本更新,目前直接支持number
Is there any plan to solve the problem of arm64? Currently, the company wants to access getsentry/self-hosted
hi, I also have the same demand. Do you have a corresponding solution
> 查看 README 的此部分:[https://github.com/huggingface/chat-ui/ ?tab=readme-ov-file#running-your-own-models-using-a-custom-endpoint](https://github.com/huggingface/chat-ui/?tab=readme-ov-file#running-your-own-models-using-a-custom-endpoint) > > chat-ui 支持很多后端:tgi、ollama、llamacpp、aws、anthropic、openai、cohere、langserve、google 和 cloudflare:https://huggingface.co/docs/chat-ui/configuration/models/providers/tgi > > 您需要有一个仅与以下选项之一兼容的后端。例如,如果您的后端与兼容`llamacpp`,您可以在模型配置中设置它: > > ``` > "endpoints": [{ > "type" : "llamacpp", > "baseURL": "http://localhost:8080" > }], >...