nicole828
nicole828
72b也会报错,什么原因呢?
>  请问一下,您是用原版模型进行合并的吗?
> 谢谢。请问像主流的向量库 elastic search, milvus, faiss之类支持吗? 天天高兴! ***@***.*** > […](#) > ------------------ 原始邮件 ------------------ 发件人: "FlagOpen/FlagEmbedding" ***@***.***>; 发送时间: 2024年3月15日(星期五) 中午11:04 ***@***.***>; ***@***.******@***.***>; 主题: Re: [FlagOpen/FlagEmbedding] bge-m3中3种混合检索的方法用什么向量数据库可以支持呢? (Issue #544) 目前vespa支持比较好:https://github.com/vespa-engine/pyvespa/blob/master/docs/sphinx/source/examples/mother-of-all-embedding-models-cloud.ipynb — Reply to this...
> 有的,3月中-底会计划更新reranker模型 感谢回复,期待。
我也报同样的错误,求指导。
> accelerate 请问下这个怎么用啊
请问你们模型合并是必备的环节么?只能用llama-7b的原版模型吗?
> > 第一次模型合并我也有这个问题, 然后发现模型合并错了 > > 我这边是合并后的模型直接做测试不会有这个问题,是用自己的新的指令数据集微调后的模型,开始复读 怎么用的合并后的模型
> > 第一次模型合并我也有这个问题, 然后发现模型合并错了 > > 我这边是合并后的模型直接做测试不会有这个问题,是用自己的新的指令数据集微调后的模型,开始复读 请问一下,您是用什么合并的?原版的llama-7B模型吗?
在使用gradio_demo.py图形化界面时候,当调整了maximum_length后,就开始有很多重复的回答,这个值只能是128吗?gradio_demo中,predict函数中,超过128,也是同样的问题。