ggyy

Results 12 comments of ggyy

@yanhaijing 修改146行 line 146 ` holdTouch: function() { // $(document).on('touchmove', touchmove); window.document.addEventListener('touchmove', touchmove, { passive: false }) } ` ` unholdTouch: function() { // $(document).off('touchmove', touchmove); window.document.removeEventListener('touchmove', touchmove) } `

我不会go,胆子比较大,直接用go1.21.5跑起来了

使用的模型返回的数据是 stream 流。调试器查看到接口返回总共40k的数据,当前数据都返回15k了界面上还是“回答中...” , 前端差不多得等到数据返回完从一次抛出来。 ![Snipaste_2024-04-23_11-47-19](https://github.com/1Panel-dev/MaxKB/assets/26450489/20ca7759-dce0-4670-b6ba-c5fac46189e6)

希望能够重视一下,模型是一个字两个字返回的,前端却是一大段一大段的输出的

@baixin513 是使用的是智谱AI glm-3-turbo。不好意思是我描述的有问题,不是模型接口返回数据的时间慢,而是模型接口返回数据了但是ui界面没有及时展示出来。

@shaohuzhang1 11分20秒还是“回答中” ![1](https://github.com/1Panel-dev/MaxKB/assets/26450489/0df8acc9-1ec1-4faf-907b-f60e34bd675d) 11分7秒开始的第一个包 ![2](https://github.com/1Panel-dev/MaxKB/assets/26450489/59e40c21-ee21-40d9-89b5-6ac302feca65) 11分23秒结束 ![3](https://github.com/1Panel-dev/MaxKB/assets/26450489/e1b54753-c96d-4f78-89a6-b99446ceb2d8)

期望能像这样收到数据就展示 ![4](https://github.com/1Panel-dev/MaxKB/assets/26450489/c2dea350-e552-4d7d-8195-8ec7cd6381d7)

Convert the ChatGLM3 model Error: (.venv) (base) [root@10-9-159-200 ollama]# python llm/llama.cpp/convert-hf-to-gguf.py /data/chatglm3 --outtype f16 --outfile chatglm3.bin Loading model: chatglm3 Traceback (most recent call last): File "/data/ollama/llm/llama.cpp/convert-hf-to-gguf.py", line 1938, in main()...

> 这个在app端是无法使用吗?我看例子里面只有h5和小程序的使用方法 app无法使用,只能使用uni的renderjs模式,希望例子里面能说明一下