ggyy
ggyy
@yanhaijing 修改146行 line 146 ` holdTouch: function() { // $(document).on('touchmove', touchmove); window.document.addEventListener('touchmove', touchmove, { passive: false }) } ` ` unholdTouch: function() { // $(document).off('touchmove', touchmove); window.document.removeEventListener('touchmove', touchmove) } `
我不会go,胆子比较大,直接用go1.21.5跑起来了
使用的模型返回的数据是 stream 流。调试器查看到接口返回总共40k的数据,当前数据都返回15k了界面上还是“回答中...” , 前端差不多得等到数据返回完从一次抛出来。 
希望能够重视一下,模型是一个字两个字返回的,前端却是一大段一大段的输出的
@baixin513 是使用的是智谱AI glm-3-turbo。不好意思是我描述的有问题,不是模型接口返回数据的时间慢,而是模型接口返回数据了但是ui界面没有及时展示出来。
@shaohuzhang1 11分20秒还是“回答中”  11分7秒开始的第一个包  11分23秒结束 
期望能像这样收到数据就展示 
Convert the ChatGLM3 model Error: (.venv) (base) [root@10-9-159-200 ollama]# python llm/llama.cpp/convert-hf-to-gguf.py /data/chatglm3 --outtype f16 --outfile chatglm3.bin Loading model: chatglm3 Traceback (most recent call last): File "/data/ollama/llm/llama.cpp/convert-hf-to-gguf.py", line 1938, in main()...
No models have been pushed.
> 这个在app端是无法使用吗?我看例子里面只有h5和小程序的使用方法 app无法使用,只能使用uni的renderjs模式,希望例子里面能说明一下