fenghao195
fenghao195
sos
您好,按照setting1中设置训练50,0000。在每隔2000个迭代会进行一次验证,这些验证保存的结果让我满脸问号???以set5中的‘baby’为例,下面是每次验证保存的结果分别是lr,2000iter,4000iter,6000iter,8000iter,10000iter。10000iter后的图片和10000iter结果差不多,都是黑屏: 原始lr:  2000iter:  4000iter:  6000iter:  8000iter:  10000iter:  后面从第10000iter到20,0000的结果都是全黑图片。这是在第8000iter后过拟合了吗。第4000iter和6000iter结果也很离谱。求救,您认为为什么会这样
合成数据的问题
您好,注意到您合成数据是用的各向同性高斯模糊核,并没有实现各向异性高斯模糊核的代码。你是认为各向同性高斯模糊核更有一般性吗?
网络训练
在打印的网络中并没有看到动态生成的weight和bias,这样是可以训练的嘛?(ps:此前在训练层注意力中,也用到了beta=nn.parameter,但是定义的参数beta值一直都没有改动!!!)。能问下您的pytorch版本嘛?
Hi,I find that self.gamma is not trained,and requires_grad of tensor is True.model do not contain it
 您好,这是condconv中的bias,在训练中,它的值一直没有改变。之前在训练层注意力时候,就有这个问题,您知道这是为什么嘛?
Good evening, boss! I recently discovered your work about MANet.I found that the length of the gaussian kernel your method generated is equal to 18.Does this setting have any specific...
关于模糊核的对比实验
您好,大佬。我们在做对比试验中发现DCLS生成的模糊核偏离真实核,这应该是您重构后的核,应该怎么将其恢复呢?   DCLS生成的核   GT核