bjr
bjr
kolors也使用了chatglm存在这个问题,把transformers库的版本下降到Version: 4.34.0可以解决这个问题 我没有使用comfyui,使用diffusers加载通过这种方法解决了这个问题
kolors也使用了chatglm也存在这个问题,把transformers库的版本下降到Version: 4.34.0可以解决这个问题
可以通过下面代码将训练得到的kolors的lora权重转换为diffusers可以加载的ckpt格式。测试没有问题 `## 加载safetensors和state_dict import torch torch.cuda.set_device(0) ## 加载lora checkpoint查看config lora_ckpt_path = "训练得到的lora权重" state_dict = torch.load(lora_ckpt_path, map_location=lambda storage, loc:storage.cuda(0)) ## safetensors 类型lora加载 from safetensors import safe_open #safetensor_lora = safe_open("/data1/bianjr/projects/hf-models/kolors_lora/pytorch_lora_weights.safetensors", framework="pt", device=1)...
> > 可以通过下面代码将训练得到的kolors的lora权重转换为diffusers可以加载的ckpt格式。测试没有问题 > > `## 加载safetensors和state_dict import torch torch.cuda.set_device(0) > > ## 加载lora checkpoint查看config > > lora_ckpt_path = "训练得到的lora权重" state_dict = torch.load(lora_ckpt_path, map_location=lambda storage, loc:storage.cuda(0)) > > ## safetensors...