hanwsf
hanwsf
提示:出现意外错误,文件:[2020年联想集团智能制造白皮书.pdf]上传失败,上传被中断。
from .neck import AdjustLayer, AdjustAllLayer put a '.' before neck
for your "ImportError: cannot import name 'get_subwindow_tracking'", rename the utils.py in the current folder to other names, not used. the utils.py is in the demo_rpm_utils.
你localhost:7861这个没有启动,或模型设置没有完整(model_config.py)导致启动后加载的模型列表为空
将本地或在线模型配置上 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月30日 08:01 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [chatchat-space/Langchain-Chatchat]...
使用量化模型时,常会出现这个幻象,可能跟量化时设置有关。如果使用ollama上的模型,同样是4-bit的,不会出现乱七八糟的内容。
ollama本地或docker启动,ollama pull llama3 或deepseek-llm,在model_config.py中选择列表中加上,同时online llm中加上ollama的OLLAMA_BASE_URL (http://127.0.0.1:11434) llama3 要每次提醒他用简体中文回答,或设置在prompt中 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月30日 09:12 | | 收件人 | ***@***.***> | | 抄送至 |...
我也在探索。CHUNK_SIZE增大到1000,对于答案太长而被分成2段的,可以减少答案不完整。我之前的试验是可以将原文进行略精简进行重述,用deepseek llm;qwen最近都没有反应。
milvus建议使用2.4版本, 用sh启动。 用miluvs对ids支持不够好,删除向量等目前还有问题。
localhost:7861