haorunze
haorunze
log: (llava) D:\LLaVA>python -m llava.serve.model_worker --controller http://localhost:10000 --port 40000 --worker http://loc alhost:40000 --model-path ./checkpoints/LLaVA-13B-v0 --multi-modal 2023-04-22 11:15:42 | INFO | model_worker | args: Namespace(host='localhost', port=40000, worker_address='http://localho st:40000', controller_address='http://localhost:10000', model_path='./checkpoints/LLaVA-13B-v0', model_name=None,...
**功能描述 / Feature Description** 能不能直接加载这个模型? https://github.com/THUDM/VisualGLM-6B **解决的问题 / Problem Solved** 解释此功能如何解决现有问题或改进项目 / Explain how this feature solves existing problems or improves the project. **实现建议 / Implementation Suggestions** 如果可能,请提供关于如何实现此功能的建议 / If...
**问题描述 / Problem Description** 知识库读取文字pdf失败 **复现问题的步骤 / Steps to Reproduce**  **环境信息 / Environment Information** - langchain-ChatGLM 版本/commit 号:(例如:v1.0.0 或 commit 123456) / langchain-ChatGLM version/commit number: (e.g., v1.0.0 or commit...
运行时出错

### verify - [X] 我已经仔细阅读[项目文档](https://github.com/tindy2013/subconverter/blob/master/README-cn.md),确认现有功能无法解决我的需求 - [X] 我已经检索过现有[issue](https://github.com/tindy2013/subconverter/issues),确认与现有issue的内容并不重复 - [X] 我已经尝试自行解决,确认自己没有能力解决 ### 功能描述 http://127.0.0.1:25500/sub?target=%TARGET%&url=%URL%&config=%CONFIG% 访问这个链接之前要干什么? ### 可能的解决方案 _No response_