yujialele
yujialele
感谢您的及时回复,我在vis.py文件里面看到了。我其实好奇AOLM模块掩码注意力图是如何实现的。 ------------------ 原始邮件 ------------------ 发件人: "DM"
您好,我看了一下论文介绍和APPM模块的代码,产生了一些疑问,想向您请教一下,你方便给我讲一下原理吗? ------------------ 原始邮件 ------------------ 发件人: "ZF1044404254/MMAL-Net"
论文里面的公式三我不太明白,里面的大写W和H指代是生成的part region区域还是滑动窗口 ------------------ 原始邮件 ------------------ 发件人: "ZF4444/MMAL-Net"
Aw(x,y)里面的x和y指代的是啥 ---原始邮件--- 发件人: "ZF"
感谢您的回复,我看到'hico_text_label'文件里面提供了unseen verb hoi的list,但是我发现比说4:airplane fly ,其中fly并不在unseen verb list中,这个是什么原因。
谢谢,我懂了。这里有几个问题我很疑惑 (1)还有我一直不理解这几行代码,为啥val阶段加载的路径不是val set里面的test.json,而是tranval.json. Correct_mat文件的作用是什么? if image_set == 'val': dataset.set_rare_hois(PATHS['train'][1]) dataset.load_correct_mat(CORRECT_MAT_PATH) (2)对于unseen settings下,dataset.set_rare_hois(PATHS['train'][1])输出了trian set中,unseen instance和seen instance总数,为啥在Rare_first_UC在你的实验中显示seen instance数量为117526;在hou et al.的vcl论文里面示例数目为92,705 training instances,这二者为什么相差这么大?
Thanks! I want to know how the unseen hoi category is defined in your work. I read this paper named Detecting Human-Object Interactions via Functional Generalization(https://arxiv.org/abs/1904.03181), but I find that...
您好,我想问一下 0 2 2 1024 768 0 194 76 336 258 0 218 2 638 458 0 2 16 1024 454 0 638 466 792 580 0 2 318 1024...
您好,我说的详细一点,还是上面目标框文件中每一行前面都有一个零,我看了代码rois = [zeros(size(rois_,1),1) rois_(:,2) rois_(:,1) rois_(:,4) rois_(:,3)] ;% input (x1,y1,x2,y2),为啥这多加了一个zeros(size(rois_,1),1)也就是每行多一个零。
I guess that you directly run this codes with I3D features, In the splot_dataloader.py file, the author utilize the TSN features. You use the TSN features and the codes can...