Lin Qi

Results 9 comments of Lin Qi

> 不需要的,`./main -ins`命令就是开启交互模式,可以直接像ChatGPT一样聊天,不用手动复制。 您好,我的意思是,如果基于一个自己微调的llama模型,怎么做成chat的形式呢,我现在每次都是用generate去生成,没办法联系上一次的回答,大概是这个意思。 谢谢

> 你可以参考我们在医学问答的案例[medical](https://github.com/Facico/Chinese-Vicuna/blob/master/docs/performance-medical.md) 感谢回复,根据这个新的doc,还有几个问题想请教一下: 1.beam和penalty是在哪里设置进去的呢? 2.在无指令微调中,为什么设置了from_data_beginning=True # False 3.数据大小是20w左右,在我们之前70w的数据上训练第3个epoch,大概会训练3.5个epoch左右。这句话我不是很理解,训练第三个epoch用的70w的数据,也就是这个部分用70w数据做3个epoch的微调,然后保存checkpoint,然后继续用20w数据训练0.5个epoch么? 谢谢。

> 1、这个是用于生成的参数,在generate那些推理脚本那种有 2、因为你要用新的数据,不能跳过他们 3、这里的逻辑是拼接,就是把20w的数据重复拼接3.5次 好的谢谢,前面我都理解了,第三个的意思是先复制20w成为70w然后再继续训练么?那为什么不能在20w上只训练一个epoch呢?

> 您好,我理解了,那如果我按照您的方式继续训练,也需要变成70w的数据,是这个意思吧? 2中这个参数是在哪里定义的呢?Finetuning中的trainerArguments么? thx

> 是的,如果不到70w会自动重复拼接到70w(并没有显式的拼接,而是重复了70w训练的step) 优化器参数和训练策略参数就是那几个optimizer.pt、scheduler.pt、scaler.pt等 这个**自动重复拼接到70w**的原理是什么呢,我对这部分不是很熟悉?烦请您解答一下,谢谢。

> 就是重复训练这段数据,相当于在时间上拼接 那就是说如果直接用这20w数据继续训练,不去复制,应该也不会报错吧

> Hey, if the weight is just for some type of coefficient but not really something 'causal', perhaps regression-based methods can do it (e.g., DirectLiNGAM). I'm not sure what methods...

> Yea, these (DAG structure learning methods) could produce a weighted DAG, but the weight does not necessarily correspond to the 'causal strength'. I'm not aware of any formal definition...

> Hi @creamiracle, thank you for reporting the issue. Can you please check if the issue is still present in the latest AutoGluon version (v1.1.1)? Based on the logs it...