Question: GRAPH_EMBED_MODEL_NAME 图数据库使用的embeding模型是否可以与普通文本embeding模型公用一个
问题描述 导入图谱文件时,默认使用的siliconflow/BAAI/bge-m3模型,GRAPH_EMBED_MODEL_NAME 配置并未在.env中体现; 是否可以与普通文本embeding模型公用一个,如果可以是否可以调整模型名称获取方式
添加实体失败: embed_model_name=siliconflow/BAAI/bge-m3, config.embed_model='dashscope/text-embedding-v4'
图谱的 embedding 模型在上传文件的那一刻就确定了,使用的是在设置页面可以配置的 embedding 模型。
不过目前在 UI 上还缺少提示,对于你当前的情况,需要删除现有的向量图谱并重新上传才行完成切换 embedding 模型
图谱的 embedding 模型在上传文件的那一刻就确定了,使用的是在设置页面可以配置的 embedding 模型。
不过目前在 UI 上还缺少提示,对于你当前的情况,需要删除现有的向量图谱并重新上传才行完成切换 embedding 模型
是在图谱的标签页上传的,本身图谱是空的并且全局配置的embedding 是dashscope/text-embedding-v4,我看到代码中对于图谱优先获取的GRAPH_EMBED_MODEL_NAME 环境变量,没有则用siliconflow/BAAI/bge-m3默认值,我通过增加环境变量解决了这个问题
不同embedding 模型batch size可能不同,期望能通过页面进行配置,目前主要是通过调整代码的batch size来避免的这个问题
是在图谱的标签页上传的,本身图谱是空的并且全局配置的embedding 是dashscope/text-embedding-v4,我看到代码中对于图谱优先获取的GRAPH_EMBED_MODEL_NAME 环境变量,没有则用siliconflow/BAAI/bge-m3默认值,我通过增加环境变量解决了这个问题
这个我检查一下
src/models/embed.py 中 49行与70行中的batch_size值是否也需要同步调整,使用最新的获取batch_size方式
不需要,这个只是默认参数,你尝试一下,理论上是会被前端传递的参数覆盖的