archwolf118
archwolf118
Dear sirs. I use v100 32G (440.33.01) GPU-server to provide web server and training my deep learning model. I use docker container to deploy multi-process web-server under the nvidia-cuda-mps. Everything...
Thank you for this wonderful project. But I met a problem in python api of tensorrt to inference the model which is trained on pytorch. I found the speed is...
您好!感谢rocketQA的工作,我已经成功将rocketQA应用到我们的系统中。 为了能提高rocketQA的召回率,我尝试对zh_dureader_de_v2进行finetune,使用的是repo中自带的训练集,下面是训练代码: ``` import rocketqa dual_encoder = rocketqa.load_model(model="zh_dureader_de_v2", use_cuda=True, device_id=0, batch_size=4) dual_encoder.train('./examples/data/dual.train.tsv', 20, 'de_models', save_steps=500, learning_rate=1e-5, log_folder='log_de') ``` 我发现loss是越来越大的,如下图所示,不知道为什么?  谢谢!
@mymusise 首先非常感谢您的代码,我已经基本跑通。V100由于开不了int8推理,所以只设置batch_size=2。 我采用的数据的json格式如下: {"context": "[Round 0]\n问:你的名字\n答:", "target": "我叫大山,是一个代表我的虚拟身份的名称。\n"} 即照搬chatglm的输入格式。 我采用了一个只有16个对话的极小数据集,经过我的测试,有一个小问题,就是虽然在finetune.py中您在label中多加入了一个eos_token_id,但针对训练集上的问题进行推理,不但有正确答案,还和其他问题和回答一起输出。 所以我又在tokenize_datasets_row.py第16行又加入一个eos_token_id,即: ``` input_ids = promopt_ids + target_ids + [tokenizer.eos_token_id]*2 ``` 输出结果就正常了,我也不知道为什么。可能原程序并没有预测出eos。
您好!感谢paddle团队做的这么好的多模态大模型。 目前我有个疑问就是坐标框的还原问题,比如我想让大模型检测图片所有文字,并定位出来,我的prompt是: '''把图中的文字抽取出来,并给出每个文字块的坐标,格式为一个json:{"res":[{'text':'***文字内容1***', 'pos':[x1,y1,x2,y2]]},{'text':'***文字内容2***', 'pos':[x1,y1,x2,y2]]}, ...]}\n\n其中x1,y1是文字框左上角点坐标,x2,y2是文字框右下角点坐标"}}''' 我是按qwen3vl的方法,qwen3vl还原是用"输出的相对位置/1000*原始宽高计算"的 x1 = int(x1 / 1000 * width_original) y1 = int(y1 / 1000 * height_original) x2 = int(x2 / 1000 * width_original) y2 =...