chatglm_tuning icon indicating copy to clipboard operation
chatglm_tuning copied to clipboard

基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调

Results 4 chatglm_tuning issues
Sort by recently updated
recently updated
newest added

我有个问题,为什么要必须model.half(),要不然就会报错expected scalar type Half but found Float

我在精度为fp16的情况下,单卡微调训练占用16G显存,使用多卡训练,则需要两个16G显存,但我的理解中,多卡训练时,所需的16G显存平均分到每张卡上,每张卡只占用8G显存。请问问题出在哪里了呢 单卡:![image](https://github.com/zejunwang1/chatglm_tuning/assets/55744076/9fcaa74e-d3cd-4943-8524-505aa2799ed8) 多卡:![image](https://github.com/zejunwang1/chatglm_tuning/assets/55744076/4da363d5-7e70-405d-8606-02af525bc244)

加载项目中的output/adgen-chatglm-6b-lora模型,运行cli_demo.py,结果中出现了大量重复语句,如图: ![image](https://github.com/zejunwang1/chatglm_tuning/assets/55744076/8e1175b6-74b4-404c-b7df-85744ad6fb5e)

问下,有没有更详细一点的结果对比实验?