xi liu
xi liu
> titan xp, 一个晚上就可以了 你好,我用的是densenet官方预训练模型,训练数据是自己生成的,当字符集为100或1000时(class_num=100,或1000)时,收敛都都很好。当字符集扩大到6863时,训练7小时(2块1080ti)也未见收敛,batch_size =32 ,lr=0.001,loss一直在0.1-0.2之间。 请问可能会是什么原因? 期待你的回复,非常感谢
Thanks for your reply,
> > 没很看懂你需求,可以建议用dify看看能不能满足需求 > > @948024326 你好,是这样的,我之前是通过/chat/kb_chat接口的prompt_name来选择配置文件中的提示词的,所以我理解prompt_name是一个key,来找到prompt_settings.yaml中配置的提示词模版。现在我切到/chat/chat/completions接口了,如果还是使用prompt_name这种功能(根据prompt_name自动匹配prompt_settings.yaml中配置的提示词模版)该怎么做?completions接口好像不支持prompt_name了 我也遇到同样的问题,求解答