CogVLM2
CogVLM2 copied to clipboard
是否支持全参微调?
现在放出的微调接口是Lora微调的,是否可以在训练资源充足的情况下进行全参微调呢?是不是注释掉
peft_lora.py中的model = get_peft_model(model, peft_config),就可以了?
全参微调现在的环境带不动,这个方案带不动全参,显存不够
我这边资源应该是够的,所以是不是注释掉peft_lora.py中的model = get_peft_model(model, peft_config),就可以了?