lishiying
lishiying
# 基于向量化和大型语言模型的知识库与交互系统 各位见笑。我就是一菜鸡,下文如果说得不对的地方请指正,莫要见怪。 就目前而言,各类开源大语言模型最大的使用方向就是知识库、问答系统等垂直领域。 目前的解决方案有二: ## 1、模型外挂知识库,比如【闻达】。 优点:技术比较简单,实用性比较强。 缺点:受模型token限制,自然语言文本信息承载量也比较低,能处理的信息有限,难以整合大量信息。 ## 2、模型微调 优点:专业,准确,受限制小。 缺点:我看了charglm的lssues,貌似成功的是凤翎毛角。绝大部分都把模型搞爆了。要求太专业。 我有一个不成熟的想法,供大家探讨! 自然语言直接与模型对话,只适合人机交互。其实并不适合信息存储和大语言模型运算。 效率相对比较高的方案是知识图谱、或直接向量交互。但这种方案对于人类极不友好。 现在的可行的解决方案是使用Milvus作为知识库的检索引擎。 ### 1、预处理阶段: #### 1.1 首先用text2vec或其他技术转换为向量,存入Milvus,作为知识库。 ### 2、询问阶段: #### 2.1 预处理 用户交互时,先用text2vec转换问题为向量,在 Milvus中查询,并将结果的文本内容转换为自然语言。 ####...
电路图:https://mega.nz/file/kjN11LYT#6cBTBc2qtN3b1zZoZwOlvEIwgFWEGEINRQoPTtnvLSE A very good library, the code is written beautifully. However, when I tested it, there was a problem. Since my library is for common anode seven-segment displays, it does...

提一个需求,可以下载完成了之后,调用一个http请求吗,这样便于通知第三方工具。 直接调用curl命令行都行,这样简单。你只需要定义好变量名就行。 比如,文件名,路径等变量就可以了。 最好,直接调用就行,然后参数传送给命令行就行。这样,我可以自己写脚本实现功能
这个模型的优势是体积小,速度快、可以本地执行,也适合快速调教便于适合用户的个性化任务。简直就是为轻量级本地化AI打造的前哨。特别适合做其他大模型的助理。前置处理消息,对消息预处理,负责任务分类,路由到其他大模型。最好支持Function Call的调用,这样可以在给其他大模型之前,将数据准备好! 但是,我对这些不是太了解。求大神指点,或者直接做一个工具及教程给大家用! 谢谢!
1、这是 默认数据集,开启了moe之后,其他默认的结果。train_pretrain.py Epoch:[2/2](44100/44160) loss:15.938 lr:0.000050000569 epoch_Time:0.0min: 2、另外也测试了全部直接默认,train_pretrain.py 这个没记录loss,效果也不佳 3、train_full_sft.py 全部默认。 loss大约在0.2 epoch=3 一轮和三轮的值都是一样的,没有任何改善。
### 🚀 The feature I hope that openmemory can support non-OpenAI AI models. The specific reasons are as follows: 1、Requirement for Private Deployment: Many enterprises and institutions need to conduct...
### 解决方案检查 - [x] 我已阅读 [常见问题](https://lyswhut.github.io/lx-music-doc/desktop/faq),但没有找到解决方案。 - [x] 我已搜索 [Issue 列表](https://github.com/lyswhut/lx-music-desktop/issues?q=is%3Aissue+),但没有发现类似的问题。 ### 问题描述 现在大模型MCP流行,我想用mcp控制,搜索播放,但是,目前的api支持播放,暂停,我想使用mcp搜索歌曲,并播放,热榜等常用功能。 如果你能提供直接mcp接口更好,如果没有,就提供api也行,我自己写mcp! ### 描述你想要的解决方案 谢谢! ### 描述你考虑过的替代方案 _No response_ ### 附加信息 _No response_