yellowYuga
yellowYuga
> `vset /viewmode lit` is broken in the current version and has not been used in our internal pipeline for a while. What do you get if you directly use...
Did u get original paper's result?
I tested it with 2 1080ti.The result is nearly 50ms per frame.I use cudnn and pytorch.It seems a big margin between our model and original paper's model.
https://arxiv.org/abs/1512.02134
您好: 这是我跟据原文写的2d cspn: ``` def eight_way_propagation_v3(self, weight_matrix, blur_matrix, kernel): [batch_size, channels, height, width] = weight_matrix.size() weight_abs = torch.abs(weight_matrix) self.avg_conv = nn.Conv2d(in_channels=1, out_channels=1, kernel_size=kernel, stride=1, padding=(kernel - 1) // 2, bias=False)...
> 赞啊,我也发现原作者写的affinity matrix有问题。实验了一下,确实是你的版本收敛得更好一些 你是做的depth completion 还是 stereo
@guandog 不好意思问一下,有两个问题 第一个问题是这个 torch.div 会出现除数为0的情况,也就是abs_sum可能有0元素。 第二个问题是Stereo中 有用到max_of_8_tensor() operation吗,并不理解这个起什么作用。
还有一个问题,按照文章中所说,我使用我的cspn,迭代了24次,然后很容易直接梯度爆炸。怎么样才能即迭代够24次又不会梯度爆炸
> > 楼上各位大佬 @dontLoveBugs @yellowYuga @guandog @ArcherFMY ,有谁能讲讲这个eight_way_propagation到底是什么原理吗?我看原文中并没有对这部分的描述啊,以下是我疑惑的地方: > > > > 1. 我看他输出的guidance是一个b_8_h*w的tensor这个8维的channel是什么含义啊,每维代表8领域中的一个吗,还是纯粹就是8个filter? > > 2. 这个eight_way_propagation函数看上去是做了原文中Eq.1的计算,但是为什么他后面要加个max_of_8_tensor把8维最大的那个选出来作为result_depth啊? > > 3. 文中提到的iteration我本来的理解是从一个local的位置向8个方向扩撒若干次,例如从(3,3)的位置扩散3次,那么这个信息就扩散到了从左上角(0,0)到右下角(6,6)的矩形区域里,但是看代码的for loop他好像在用同样的guidance在原地连续作用了16次,这个是什么意图啊? > > > > 请诸位在百忙之中能帮忙提点一下,感激不尽! > >...
> > > 楼上各位大佬 @dontLoveBugs @yellowYuga @guandog @ArcherFMY ,有谁能讲讲这个eight_way_propagation到底是什么原理吗?我看原文中并没有对这部分的描述啊,以下是我疑惑的地方: > > > > > > 1. 我看他输出的guidance是一个b_8_h*w的tensor这个8维的channel是什么含义啊,每维代表8领域中的一个吗,还是纯粹就是8个filter? > > > 2. 这个eight_way_propagation函数看上去是做了原文中Eq.1的计算,但是为什么他后面要加个max_of_8_tensor把8维最大的那个选出来作为result_depth啊? > > > 3. 文中提到的iteration我本来的理解是从一个local的位置向8个方向扩撒若干次,例如从(3,3)的位置扩散3次,那么这个信息就扩散到了从左上角(0,0)到右下角(6,6)的矩形区域里,但是看代码的for loop他好像在用同样的guidance在原地连续作用了16次,这个是什么意图啊? > >...