KDD2018

Results 14 comments of KDD2018

Hello,I got same problem,when I installed xformers via 'pip install -v -U git+https://github.com/facebookresearch/[email protected]'. Did you solve it?

我在2400+对图文定位数据集上做基于Lora的微调,效果很差,完全找不到图片目标和文本得对应关系,我也试着调整--fix-vit参数,但也没用,效果依旧很差。有大佬知道如何应对吗?

我也降低了model_max_length,不过是基于chat模型在2张3090上做lora微调,但是效果很差,我理解应该是没微调visual模块的参数导致的,请问大佬们有微调过visual模块吗?只微调visual模块,需要多少算力?

> > 请问您的summarized_description.txt中是否有相关实例,生成的create_summarized_entities.parquet中是否有内容 > > 我不太理解你的意思。在summarized_description.txt 是我手动修改的,补充了少量示例(3个),create_summarized_entities.parquet中存在内容 请问大佬,prompt_tune后生成的四个模板,是否都手动修改过?能否提供一下修改后的模板以供参考?

@shaoqing404 感谢大佬的指点,claim和community这两个模板您修改了么?

我在2400+对图文定位数据集上做微调,效果很差,完全找不到图片目标和文本得对应关系,我也试着调整--fix-vit参数,但也没用,效果依旧很差。 @elesun2018 楼上微调效果怎么样?

有大佬只微调过视觉模块吗,最低需要多少算力?

> 你是说model.transformer.visual.requires_grad_(True)来实现微调过视觉模块? ![image](https://private-user-images.githubusercontent.com/37207093/335519045-b2b746c7-624d-4d5d-bac1-be00c8a39ed3.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTcyMjM4ODQsIm5iZiI6MTcxNzIyMzU4NCwicGF0aCI6Ii8zNzIwNzA5My8zMzU1MTkwNDUtYjJiNzQ2YzctNjI0ZC00ZDVkLWJhYzEtYmUwMGM4YTM5ZWQzLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA2MDElMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNjAxVDA2MzMwNFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWVjNGMxMTU2ZjkyNjY5NjAxNzZjNTYxZjc0NmRiNWI5ZWRmYWNlOTM2YjhjNjhjYmIzZTc0OTJhY2RjZGQyYjcmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.nnaxNg-aWC-AGV1-fEUzl2fptC1LarLseLy_R6nDbJo) 这段代码没搞懂,不使用lora,fixvit为true,冻结vit? 使用lora占用资源较多,冻结vit,占用的资源不再那麽多? 这个似乎是全量微调的时候通过设置--fix_vit参数确定visual是否微调。通过lora微调,不是通过target_modules参数吗,就是对应finetune.py中的类LoraArguments的lora_target_modules。

> @KDD2018 我在2400+对图文定位数据集上做微调,效果很差,完全找不到图片目标和文本得对应关系,我也试着调整--fix-vit参数,但也没用,效果依旧很差。 后来找到问题了吗? 没有,微调之后,整体的聊天套路是学到了,但是目标和标签的关系完全没学到。我猜测是因为没有微调视觉模块,因为我看源码中LoraArguments的lora_target_modules参数指定的都是LM中的模块。仅仅是猜测,也请大佬们指点迷津。

> 请问如何根据peft保存的模型文件转换成推理用的qwen模型 ![image](https://private-user-images.githubusercontent.com/37207093/336372551-930d7e0b-b580-4154-a7f3-377689aa0d97.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTc1NzE4MDQsIm5iZiI6MTcxNzU3MTUwNCwicGF0aCI6Ii8zNzIwNzA5My8zMzYzNzI1NTEtOTMwZDdlMGItYjU4MC00MTU0LWE3ZjMtMzc3Njg5YWEwZDk3LnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA2MDUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNjA1VDA3MTE0NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTc0YzExNzFhNGNkYjJjZjViNzhmNmM1YTliNDlhMjMyNmE0MzhlM2JmN2U0NTkxN2Y1MWMzZjYwNjBhY2NlN2QmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.douMztXPKt_FQSFHtxdAPBHqvolm8cvOr-0RNkeMX-o) 有没有相应的代码 可以参考README中的微调部分,有相关代码