bingshan2024

Results 3 issues of bingshan2024

### MaxKB 版本 1.41 ### 请描述您的需求或者改进建议 建议后台上传文档-分段预览-段落右上角的“编辑、删除”按钮始终显示 ![1](https://github.com/user-attachments/assets/9559ee4c-c0e7-441d-87de-2be0b536eca7) ![3](https://github.com/user-attachments/assets/64c0e55a-1fea-42aa-851c-bc7b82111b0b) ![2](https://github.com/user-attachments/assets/001ba995-a8b8-40dc-a589-269e9b26e6f7) ![4](https://github.com/user-attachments/assets/d32cd909-bf0a-49e7-b361-d0e6e5701bc0) 理由:假如拖动鼠标往下查看某个段落内容时,发现有乱码,需要再往上再回去找到“编辑、删除”,点击编辑,再打开编辑器,再往下找到乱码,再次删除。如果“编辑、删除”按钮始终显示,用户在段落中看到乱码时,能否直接点击“编辑、删除”按钮,即可在当前页面进行直接编辑、保存?如果必须点开二次打开编辑器,那请始终显示“编辑、删除”按钮。 另外,上传文档-分段预览这个页面,建议调整下左右两个部门所占的页面比例,左侧设置建议缩小一点,让右侧段落内容可以每行显示的更多,人的目光可以横向扫描更多内容,减少鼠标下行,提高人工审阅修改文档效率。 ### 请描述你建议的实现方案 _No response_ ### 附加信息 _No response_

Type: Optimization

### 联系方式 _No response_ ### MaxKB 版本 v1.5.1 ### 问题描述 建议优化对话时回答内容下侧的四个按钮: ![11](https://github.com/user-attachments/assets/1f505398-6e28-4544-a106-f145003fcb36) 换个答案、复制、赞同、反对 建议:将第一个“换个答案”按钮更换图标 ,理由是现在的这个图标与日常生活中大家普遍认为理解的“播放”按钮相同! 建议:可以更换为的样式 参考 ![southeast (3)](https://github.com/user-attachments/assets/07473da6-0ce3-46c1-a870-fc842b25ea13) ![southeast](https://github.com/user-attachments/assets/bda44dc0-a161-4f85-a6c8-687115259e86) ![300 (1)](https://github.com/user-attachments/assets/81d3ee61-cb6e-4c91-b6c0-d1bc37cb6aed) ![300](https://github.com/user-attachments/assets/399ab5ad-d2e7-474f-a7cf-5a280019b6e5) ![southeast (1)](https://github.com/user-attachments/assets/5e80ff21-a437-4b82-9399-18f0d617618d) ![southeast (2)](https://github.com/user-attachments/assets/d3e11b5e-2516-4541-8ce2-8506fd9a4d5c) 建议:保留目前的“换个答案”按钮,当悬浮时提示文字修改为“语音播报”,即为之后的maxkb版本功能新增语音播报回答内容做好准备。 ### 重现步骤...

类型:bug

### 🥰 需求描述 希望【设置】模型服务商选项,增加 ollama本地大模型 选项 这个需求是在不与互联网连接的局域网内,假设A电脑部署了ollama,下载了一些本地大模型 本机用户可以在A电脑上直接选中ollama本地大模型,设置接口地址为http://localhost:11434,直接对话 其他用户或者更多的用户都可以在本机安装nextchat客户端,然后设置接口地址为http://A电脑的IP:11434,进行对话 用户选择A电脑的ollama本地大模型、接口后 模型(model)选项中出现的是 A电脑上ollama本地大模型的名字(当然如果A电脑的nextchat管理端 管理员可以有权直接设置统一使用某个模型也行) ### 🧐 解决方案 希望【设置】模型服务商选项,增加 ollama本地大模型 选项 这个需求是在不与互联网连接的局域网内,假设A电脑部署了ollama,下载了一些本地大模型 本机用户可以在A电脑上直接选中ollama本地大模型,设置接口地址为http://localhost:11434,直接对话 其他用户或者更多的用户都可以在本机安装nextchat客户端,然后设置接口地址为http://A电脑的IP:11434,进行对话 用户选择A电脑的ollama本地大模型、接口后 模型(model)选项中出现的是 A电脑上ollama本地大模型的名字(当然如果A电脑的nextchat管理端 管理员可以有权直接设置统一使用某个模型也行) ### 📝 补充信息 _No...

enhancement