gq2010
gq2010
Have you solved the problem yet?
我用LLaMA-Factory微调ChatGLM3-6B的模型,总是报内存溢出的问题,使用16G显存的微调提示差几十兆,换成24G显存还是提示差几十兆,使用chatglm官方提供的方法微调在24g是完全够用的 微调用的文件总共500多K: [law0.json](https://github.com/hiyouga/LLaMA-Factory/files/14622707/law0.json) 使用LLaMA-Factory进行微调  chatglm官方推荐的微调方法(lora) 
本地部署的glm4模型,官网提供的代码里没有/v1/embeddings这个API怎么解决呢?