gavinL
gavinL
您好,请问你的max_len_size是多大呢,数据分句后有截断吗
> 实验中我们一般会降到4-5左右,可以再多训练一下 好的,我再加一个epoch试试,感谢答复
> 我想请教下大佬,在trian.py中只输入了tokenizer_path,没有给input_model_path,如何做到增量预训练的呀 模型和分词器不都在同一个路径下吗
请问您现在对这个问题有答案了吗
请问如何加载自己微调的baichuan13B呢?我这边报错:ValueError: Tokenizer class BaichuanTokenizer does not exist or is not currently imported.
请问您对这个问题有答案了吗?loss一般到什么水平算作合格呢