jiennyteng

Results 13 comments of jiennyteng

We also meet similar problem ,when we change another dataset ,and the loss didn't drop.

I have met same problem , have you solve it yet ?

thanks for your reply , I just add the model file in the path . but there still have some problem with the body_model.py code here is the new code...

Thanks for your reply , I try the fit-mono-to-fixed-hand-pose , I met the python version 3.7 is not suitable to the newest EasyMocap and i need to rebuild the environment...

thanks for your guidance , i think there still need some code changes in the EasyMocab, And also the results after the 2_run_easymocab is different with the DEMO data. And...

I‘m not sure is it ok for all processed data ,but I change the code in the File "/nas/#####/codes/HHOR-dev/EasyMocap/easymocap/smplmodel/body_model.py", like this and fix the self.num_pca_comps = 45 hope it will...

![image](https://github.com/user-attachments/assets/4b5c7432-3772-43ba-b186-75abea0f7be8) 好的,感谢您的回复,还想再明确一下,您的意思是这个表格中的QwenVL的测试结果,是单独经过AITW数据SFT后的模型推测精度,而SeeClick模型是经过Grounding还有reffering任务增强后再增加AITW数据集进行SFT后的模型测试结果吗? 那么你们这里GPT-4V和ChatGPT-CoT的测试精度又是怎么评估的呢,有相关的文章或者CoT构造的介绍吗?😂

你好,我按照readme教程中的步䠫,以qwenVL-chat为基础模型,加载预训练的pretrain-model seeclick 后,使用aitw 数据 进行了sft训练。获得了seeclick-aitw的lora模型权重。 想咨询一下,我们在运行aitw_test.py的过程中,是否将modelpath设置为seeclick-aitw的lora模型地址,qwenpath设置为qwenvL的模型地址,进行推理呢? 如果是的话,我在运行上述脚本的时候好像出现了一些模型的加载错误。

好的,我再排查一下相关问题。 看了一下transformer的版本是4.32.0,peft的版本是0.11.1, 不知道是不是这个问题的影响🤔️ 还有就是我推理测试还需要配置一个agentstask的独立环境?好像我在采用你们开源的seeclick-aitw模型进行测试时,并没有出现这个报错,不过测试代码上主要是采用AutoModelForCausalLM.from_pretrain进行模型加载的 在进行自己训练的模型推理的时候采用的是AutoPeftModelForCausalLM.from_pretrain进行模型加载的

嗯嗯,感谢您的帮助。 应该是transformer和peft版本的问题,建议推理的时候安装transformers=4.36.2 以及peft==0.7.2