Kexin Han

Results 8 comments of Kexin Han

> 这种是再提示词上面弄的吗 如果看demo的模式,貌似是提示词,但是不知道代码里加在哪里

![Snipaste_2024-04-21_18-46-40](https://github.com/OFA-Sys/Chinese-CLIP/assets/77883069/eebbdfed-c0bc-4bb7-ad4c-acff6fbf6e75) dan'qi'shi但其实我输出后也就是这样,应该没问题吧,因为他标签都是一对一的

嗯,应该是模型训练的问题,查140010041888上面是有的,不然他就会报错了

是一样的,我一起处理的

所以他这个Acc到底是怎么计算的?是什么的准确率?Acc和R@N之间有必然的联系吗

I've encountered the same issue where the consistency loss increases while other losses decrease during training. Could anyone provide some insights or suggestions on this?

+1同样的错误,GLM-4-9B-Chat Fastapi: ![image](https://github.com/datawhalechina/self-llm/assets/77883069/680fe23a-cdec-4e18-abac-5b355982a0e3)

> > > 可能是由于 transformers 版本低的问题,升级一下 transformers 可以解决。 > > > ```python > > > pip install transformers-4.41.2 > > > ``` > > > > > > 在我的环境中transformers就是4.41.2这个版本,直接使用的autodl上的社区镜像,但是依然报错 Message:...