linshuai

Results 43 comments of linshuai

You can check out other Chinese projects

> 那不好控制A这个附加字段的质量啊,比如做问答不把A传给LLM,就不能做到组织语言或总结

明白了,谢谢。 QA的文本我看过有方案是拆分chunk做A,用LLM生成Q。 感觉会提升一些召回准确率,但是embedding的成本似乎还是差不多 > > > > > > > > > 那不好控制A这个附加字段的质量啊,比如做问答不把A传给LLM,就不能做到组织语言或总结 > > A是需要作为上下文传给LLM的,A只是不参与嵌入和向量检索而已。

> 如果不是QA的,附加字段该如何生成? 也许可以用gpt3.5对你的chunk形成几个最佳提问

> > > 如果不是QA的,附加字段该如何生成? > > > > > > 也许可以用gpt3.5对你的chunk形成几个最佳提问 > > 1、费钱,违背了省钱的初衷;2、生成的提问作为上下文似乎对于回答真实问题没有帮助(我猜的) > > 所以是不是非qa场景,不应该用附加字段这种方案 有个叫fastGPT的可以看看,他好像就是做的生成QA,其实按道理是有帮助的,在ChatGPT火之前有人就有T5类的模型来做好像

> 所以针对QA类型提供专门的增删改查功能,向量仅索引Q这样的功能,是否在路上呢?对面FastGPT对QA类型确实是有专门优化的,但是我先上手的Dify,感觉更方便,更易上手,文档也很好,就是QA方面专门性的支持尚欠缺,对于QA需要经常增删改的情况,目前能够提供的支持,似乎比较弱。 哈哈我最近也在看FastGPT,确实支持好一点

> 谢谢各位大佬的回复,尝试下成功了。 请教下如何调整成功的

> gpt-3.5-turbo when run this example code: https://python.langchain.com/en/latest/modules/models/text_embedding/examples/azureopenai.html I still got the following error.. and have no idea what to do.. InvalidRequestError: The API deployment for this resource does not...