SevenMpp
SevenMpp
请问你这个问题 解决啦嘛 我总是遇到 Traceback (most recent call last): File "run_cnn.py", line 16, in from data_process import read_vocab, read_category, batch_iter, process_file, build_vocab File "F:\Tools\test\cnn_class\data_process.py", line 145, in process_file(train_dir,word,cut,max_length=600) File "F:\Tools\test\cnn_class\data_process.py", line...
> > > 好像已经解决了,需要-model_pb_dir这个路径 您好,您是如何解决这个问题的呀,生成的save_model.pb文件和label2id 文件。还需要有什么特殊的指定吗?仍然会报您这个错误。您是如何解决的可以告知下吗
> > > Traceback (most recent call last): > File "bert_service.py", line 39, in > rst = bc.encode([str, str]) #测试同时输入两个句子,多个输入同理 > File "/home/junruit/.local/lib/python3.6/site-packages/bert_base/client/**init**.py", line 197, in arg_wrapper > return func(self,...
> 算解决啦,gpu保存的模型结果,即模型参数,变量以及图结构是和cpu一样的,问题就是出在转.pb文件这块,应该在cpu服务器转。 您好,您说如何解决的,并且您做的是NER吗? 您说如何ckpt转到pb的呀
@danny-zhu 大佬,请问您说如何外挂知识库的呀,您的prompt template是调整,还是设计一些模板,然后去训练 比如 Ptuing
> 百川大模型2 13B int8量化版本,在**流模式并发**出现以下报错:  > > 有没大佬遇到相关问题并解决的~~ 大佬,请问这个问题您解决了吗???
好的,那我清洗尝试 下,非常感谢您的回复。
您好,非常抱歉,再次请教: 我清洗了数据 或使用您工程里面带的数据,发现在跑的时候都会出现,loss先降在升的情况,其中的修改是将 --per_device_train_batch_size 4 --per_device_eval_batch_size 4 两个参数由8变4这个应该没有影响,也将--block_size 1024 又512改成1024,使用的是chatglm2-6b-32k 请问是模型的原因???  并且使用 python gradio_demo.py --model_type chatglm --base_model ../chatglm2-6b-32k/ --lora_model outputs-pt-cahtglm-v1 --template_name chatglm2 其中 outputs-pt-cahtglm-v1 的内容为:  使用web-ui进行预测,返回的内容都存在问题, 
> @SevenMpp loss先降后升的问题解决了吗?我也碰到了一样的问题 暂时还没有解决该问题?正在解决中