MixMIM icon indicating copy to clipboard operation
MixMIM copied to clipboard

MixMIM: Mixed and Masked Image Modeling for Efficient Visual Representation Learning

Results 22 MixMIM issues
Sort by recently updated
recently updated
newest added

非常感谢您的研究,正在深入您的研究内容,请问是否能提供预训练权重,感谢!

你好,请问可以分享一下MixMIM以Swin-B作为backbone在预训练过程中得到的权重吗?包括Swin-B编码器的权重和Transformer解码器的权重,非常感谢!

在运行代码的过程中发现了两个小错误 add_weight_decay ——> param_groups_weight_decay ![RHLE4F(X{6V{_0BI%3`8S09](https://user-images.githubusercontent.com/41691030/179199676-e611dc04-71d0-4401-89f5-4d0e57b79f2f.png) module ——> _modules ![VBS(UTF )0~TQXQ{NJ11GKA](https://user-images.githubusercontent.com/41691030/179199805-6993854a-05e2-4bc5-a0e8-a295150115bb.png)

请问在下游任务上收敛速度比imagenet权重要慢很多是正常的吗,, ? 还有复现来看,感觉和simmim并没有明显的差距呢

请问,我在win系统下,from petrel_client.client import Client提示无法解析导入“petrel_client.client”,这个问题怎么解决? 安装也找不到这个库

Training with the default Settings, gradients always appear inf, is it normal?

hi,我注意到模型的attention部分存在 masked self-attention计算,如果用到原始swin中,它里面shifted window也会存在一个mask计算, 是不是会重叠不好部署呢?

请问替换为其它backbone还需要加上absolute_pos_embed位置编码吗,因为我看SimMIM也采用swin,但是没有加absolute_pos_embed, 而且最新的一些transformer设计都已经用conv卷积来替换绝对位置编码了