Souray Meng

Results 7 comments of Souray Meng

> > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求

> > > > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > > > > > > > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 > > > > 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求 > > 16g 32g都可以,我也记不清了,我们这儿有时候给32g的有时候给16g的;感觉速度差不多 在Windows下是不是没有办法单卡训练呢?(我把命令行前的export指定显卡指令去掉了,在train.py里的os下设置了可见显卡为‘0’),inplace_abn替换为了普通bn(取消了注释),但运行会报诸如 CUDA error: invalid device...

> > > > 通过查找原因,初步锁定在modules/functions.py中的load函数中的name属性这个位置,接下来便不知如何处理。 > > > > > > > > > 这个你对照下pytorch版本吧,我估计就是你的机器syncbn编译不过去,不行你就换成正常bn, 不过可能有掉点 > > > > > > 我也遇到了这个问题,不过考虑到可能是由于是用的Windows环境(本来打算3080单卡减batchsize跑跑看发现报错)之后打算换成ubuntu试试看,另外作者使用的v100是16g版本还是32g版本?我这边打算上两块3090但可能pytorch1.9,cuda11.x对分布训练又有别的要求 > > 16g 32g都可以,我也记不清了,我们这儿有时候给32g的有时候给16g的;感觉速度差不多 Windows是不是没有办法单卡训练呢?(我只把命令行前的export指定显卡指令去掉了,也在train.py里的os下设置了可见显卡为‘0’),inplace_abn替换为了普通bn(取消了注释),但运行会报诸如 CUDA error:...

> 另外,您论文里提到采用UNet结构,请问您的结构是不是一路下采样,然后最后再直接用插值方法上采样得到和原来输入图大小的输出结果图? 代作者回一下,正好在reproduce,是可以对应上的,一个是整体图就是含Laplace卷积的图,你可以先去看一下bisenet的结构图就更好理解了,还有一个小图有不同channel数concat的那张,作者是改进了里面的stage:stdc还有就是对detail guidance进行了设计,ushape应该是指bisenet最后的几层不同特征层的拼接

> 您好, 您代码里的模型结构是和论文一样的吗?我看了好久对应不起来啊,现在还是理解不了您的网络结构究竟是什么样的。 > 我只想知道网络的主干部分,对着图4来看,但是感觉您代码里对应部分的代码对照不起来啊。 > 麻烦您能再简要介绍下您的模型结构吗? > stdcnet.py中的两个bottleneck类对应stdc-architecture.png(作者最终用的是cat那个好像),两个stdcnet类是对应stdcseg-architecture.png是对应里左边的5个stage,model_stages.py里面的arm和ffm,bisenet等类就是context info的搭建,图中右边detail loss拉普拉斯卷积的guidance那些则是在loss文件夹下,train.py则是组装成完整的stdcseg-architecture.png

> 如果是的话,那下图中三个圈起来的模块的实现分别是对应哪些代码? > ![image](https://user-images.githubusercontent.com/52039865/125407059-1770fd80-e3ec-11eb-94c1-374ced6a74d3.png) > 其中的ffm我知道了是[feat_fuse = self.ffm(feat_res8, feat_cp8)](https://github.com/MichaelFan01/STDC-Seg/blob/master/models/model_stages.py#L282); > 那请问其他两个呢? > 建议先去看一下bisenet解读,这篇是改进工作,灰框是全局池化,ffm是特征融合模块,arm是注意力微调模块,这几个都是之前那篇工作里的设计,作者代码中采用的是boundary8发现效果最好,其他是还未删掉可供对比的参数设计。

> > > 如果是的话,那下图中三个圈起来的模块的实现分别是对应哪些代码? > > > ![image](https://user-images.githubusercontent.com/52039865/125407059-1770fd80-e3ec-11eb-94c1-374ced6a74d3.png) > > > 其中的ffm我知道了是[feat_fuse = self.ffm(feat_res8, feat_cp8)](https://github.com/MichaelFan01/STDC-Seg/blob/master/models/model_stages.py#L282); > > > 那请问其他两个呢? > > > > 建议先去看一下bisenet解读,这篇是改进工作,灰框是全局池化,ffm是特征融合模块,arm是注意力微调模块,这几个都是之前那篇工作里的设计,作者代码中采用的是boundary8发现效果最好,其他是还未删掉可供对比的参数设计。 > > 您好,谢谢您的建议。我看了bisenet的相关内容,大概理解了些。 > 所以,请问本文的改进是去掉了SpatialPath,替换为损失函数的计算;且对ContextPath进行改进,其他的基本不变,对吗? >...