elesun2018
elesun2018
数据集下载
能否提供下数据集下载链接,谢谢
@ubuntu:~/fpn/FPN-caffe/caffe-FP_Net$ make -j8 /usr/bin/ld: cannot find -lhdf5_serial_hl /usr/bin/ld: cannot find -lhdf5_serial /usr/bin/ld: cannot find -lopencv_imgcodecs /usr/bin/ld: cannot find -lopencv_videoio collect2: error: ld returned 1 exit status make: *** [.build_release/lib/libcaffe.so.1.0.0-rc3] Error...
deepspeed hostfile多机多卡分布式训练时出现以下问题: Traceback (most recent call last): worker0: File "finetune_XrayGLM.py", line 173, in worker0: args = get_args(args_list) worker0: File "/home/sfz/soft/miniconda3/envs/test/lib/python3.8/site-packages/sat/arguments.py", line 360, in get_args worker0: raise ValueError( worker0: ValueError: LOCAL_RANK...
请问是如何保证训练的垂直行业大模型仍然具有较强的广泛知识问答能力(多轮对话)的 如下图所示的效果:  数据格式如下图:   prompt问题如何设计? label答案描述内容也要具备丰富性吗? 如何设计多轮对话? 谢谢
deepspeed hostfile多机多卡分布式训练时出现以下问题: Traceback (most recent call last): worker0: File "finetune_XrayGLM.py", line 173, in worker0: args = get_args(args_list) worker0: File "/home/sfz/soft/miniconda3/envs/test/lib/python3.8/site-packages/sat/arguments.py", line 360, in get_args worker0: raise ValueError( worker0: ValueError: LOCAL_RANK...
 的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走 的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路 走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的 路走的路走的路走的路走的路走的路走的路走的路走的路走的路')] api.py ```shell echo "{\"image\":\"$(base64 path/to/example.jpg)\",\"text\":\"描述这张图片\",\"history\":[]}" > temp.json curl -X POST -H "Content-Type: application/json" -d @temp.json http://127.0.0.1:8080 问题一样,服务响应 的路走的路走的路走的路走的路走的路走的路走的路走的路走的路走的路')] error: index 2055 is out of bounds...
基于VisualGLM6B多模态大模型,进行finetune 按照readme已训练完成fewshot-data,观察到背景能力理解增强了。 但是在finetune自己数据集的时候,出现了严重的过拟合,请问如何进行调教大模型 训练参数需要特别注意什么,谢谢
多轮对话是采用这个吗 chat_old_history_to_prompt 如果数据标签为图文对:问1,答1,问2,答2 chat_old_history_to_prompt生成prompt=问1,答1,问2,预测结果与答2计算loss ? 这样的一条数据:问1,答1,问2,答2。要在网络里面训练几次? 第一次:训练 prompt=问1,第二次训练prompt=问1,答1,问2 ? 对于dataset.py有应该如何读取多轮对话数据标签:  使用sat格式微调,如何进行多轮对话训练。 主要修改哪部分代码可以实现多轮对话训练。 是要调用chat_old_history_to_prompt吗  应该基于哪个模型训练自有多轮对话数据集 多论对话和单轮对话数据集读取方面有差异吗 
断点继续训练如何设置
请问CogVLM大模型断点继续训练如何设置配置   args.load  谢谢
运行web demo时出现error message list index out of range   是使用模型哪里不对吗? 还有个问题:finetune训练时 finetune-cogvlm-01-17-10-02 merged_lora_cogvlm490 有什么区别,推理时应该用哪个? merge layer 61 lora attention back to linear为什么要做这个操作 还有个问题:web demo加载finetune模型时出现killed,对资源内存要求会更高吗? 