SevenMpp

Results 22 comments of SevenMpp

请问你这个问题 解决啦嘛 我总是遇到 Traceback (most recent call last): File "run_cnn.py", line 16, in from data_process import read_vocab, read_category, batch_iter, process_file, build_vocab File "F:\Tools\test\cnn_class\data_process.py", line 145, in process_file(train_dir,word,cut,max_length=600) File "F:\Tools\test\cnn_class\data_process.py", line...

> > > 好像已经解决了,需要-model_pb_dir这个路径 您好,您是如何解决这个问题的呀,生成的save_model.pb文件和label2id 文件。还需要有什么特殊的指定吗?仍然会报您这个错误。您是如何解决的可以告知下吗

> > > Traceback (most recent call last): > File "bert_service.py", line 39, in > rst = bc.encode([str, str]) #测试同时输入两个句子,多个输入同理 > File "/home/junruit/.local/lib/python3.6/site-packages/bert_base/client/**init**.py", line 197, in arg_wrapper > return func(self,...

> 算解决啦,gpu保存的模型结果,即模型参数,变量以及图结构是和cpu一样的,问题就是出在转.pb文件这块,应该在cpu服务器转。 您好,您说如何解决的,并且您做的是NER吗? 您说如何ckpt转到pb的呀

@danny-zhu 大佬,请问您说如何外挂知识库的呀,您的prompt template是调整,还是设计一些模板,然后去训练 比如 Ptuing

> 百川大模型2 13B int8量化版本,在**流模式并发**出现以下报错: ![企业微信截图_16990041563634](https://private-user-images.githubusercontent.com/49902818/283035274-519e439a-848e-4968-90be-ce1cfbfa1f45.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTEiLCJleHAiOjE3MDIwMjI1MDgsIm5iZiI6MTcwMjAyMjIwOCwicGF0aCI6Ii80OTkwMjgxOC8yODMwMzUyNzQtNTE5ZTQzOWEtODQ4ZS00OTY4LTkwYmUtY2UxY2ZiZmExZjQ1LnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFJV05KWUFYNENTVkVINTNBJTJGMjAyMzEyMDglMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjMxMjA4VDA3NTY0OFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTc4NTdkYWFhZmQ3ODc2ZjU2MzdlMzhkNjYzN2RhMzEwMDFhY2E0MmRjOGU1OTAzMWJiNzc5YzZkOTM0MTMxZGImWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.0wLotb9FvB-cMXHOeZfLRrXCPGryfsj3ld9jb3I1WoM) > > 有没大佬遇到相关问题并解决的~~ 大佬,请问这个问题您解决了吗???

好的,那我清洗尝试 下,非常感谢您的回复。

您好,非常抱歉,再次请教: 我清洗了数据 或使用您工程里面带的数据,发现在跑的时候都会出现,loss先降在升的情况,其中的修改是将 --per_device_train_batch_size 4 --per_device_eval_batch_size 4 两个参数由8变4这个应该没有影响,也将--block_size 1024 又512改成1024,使用的是chatglm2-6b-32k 请问是模型的原因??? ![企业微信截图_1701831151444](https://github.com/shibing624/MedicalGPT/assets/34155680/065c1886-1d70-49e9-b512-7e241e668d41) 并且使用 python gradio_demo.py --model_type chatglm --base_model ../chatglm2-6b-32k/ --lora_model outputs-pt-cahtglm-v1 --template_name chatglm2 其中 outputs-pt-cahtglm-v1 的内容为: ![图片](https://github.com/shibing624/MedicalGPT/assets/34155680/91d2ef9d-cbca-46a7-b6f5-97377df8fb43) 使用web-ui进行预测,返回的内容都存在问题, ![企业微信截图_17018324434210](https://github.com/shibing624/MedicalGPT/assets/34155680/fd406157-fa25-400a-a480-7c45ac9f48b3)

> @SevenMpp loss先降后升的问题解决了吗?我也碰到了一样的问题 暂时还没有解决该问题?正在解决中