HildaM

Results 12 comments of HildaM

非常感谢,另外我的数据集是从这个项目中获取的,希望能够给你参考一下,谢谢。 https://pan.ai-hobbyist.org/Genshin%20Datasets/%E4%B8%AD%E6%96%87%20-%20Chinese/%E5%88%86%E8%A7%92%E8%89%B2%20-%20Single/%E6%95%B0%E6%8D%AE%E9%9B%86%20-%20Datasets

将cuda改为mps应该也可以吧?

支持claude、poe.com等免费GPT接口吗?或者说支持国内星火大模型、阿里、百度等这些吗?还有能支持本地模型吗?

这个真的无解吗?降低爬取的速度可以突破220条限制吗?

这个问题昨天在群里我问的 😄

I noticed that when the steps reach 50, memory consume nearly 32gb. But my PC only have 32GB memory. Does it mean training the lora require more than 32GB memory?

我认为 “device_mem_limit” 这个参数就应该改为限制显存占用,“mem”还可以指代内存。这里含义不清