卡布叻_小安
卡布叻_小安
The LAM results for different networks are visualized in the paper "Interpreting super-resolution net- works with local attribution maps", but I can't find the code for it? I would like...
I am in the process of training my own dataset and found that after 200000 iterations, the loss does not show a decreasing trend. May I ask if this is...
TypeError: expected string or bytes-like object
作者,你好! 我想问一下您论文中提到的补充材料,在哪里可以检索到呢? 谢谢!!!
关于优化器的问题
作者,你好! 我自己在使用RWKV模块的时候,使用torch.optim.lr_scheduler.StepLR(optimizer, step_size=args.n_steps, gamma=args.gamma),在学习率更新后提升很小。我看您论文中是使用CosineAnnealingLR(optimizer_G, total_iteration, eta_min=1.0e-6),我想问一下total_iteration和总样本数有关吗?在你的任务中总样本数是多少呢? 谢谢!!!
关于代码有些疑问
 其中这两个变量似乎在后面没有用到。请问作者是这样吗
作者,你好! 首先非常感谢作者的分享。在我看来是一个非常优秀的工作。并且对我也有了很大的启发。但是,我在阅读论文和代码过程中还有几个问题想请教。 1. 关于第二阶段训练中,似乎把args.is_start_lr设置为True,在训练第二阶段的时候是对LR的特征加入噪声。而在训练第一阶段的时候则是对GT的特征加噪声。这个做法在我看来是因为在超分辨率任务中,已提供了一个低分辨率图像,它本身就包含了目标图像的粗略结构。但是不理解这么做是否正确?希望作者可以解答这个问题。 2. 关于第二阶段训练中,args.is_module是否作用于多卡并行呢?若只是单卡是否可以设置为False? 期待作者的回复!万分感谢!!!