Alex~
Alex~
以下疑问以 Train.py 的最新版本为准。 1. 第 110 行的 (epoch + 1) % 1 == 0 所有整数对 1 取余的结果都是 0。所以如果作者您的用意是每次训练完一个周期都对比一下各周期下不同模型的 mdice 系数的话,那么为什么要用这个取余运算呢?我反复看了这一行代码总觉得似乎没有必要写,也可能是我没有真正理解您的用意,烦请您指教! 2. 第 215 行的 for epoch in range(1, opt.epoch): 您的论文里说的是训练...
前辈您好!最近在研读您的论文(非常精彩的论文o( ̄▽ ̄)d)。然后尝试分析了一下您的代码,但是读到这里遇到了一点问题。 我理解您这里写的这个 crf_refine 方法是用来细化分割结果的对吗? 但是我回看您的论文发现并没有关于这个方法的任何描述,感觉很是奇怪。 请问这个是您用于调试时候留下的还是说您忘记在论文里对这一部分进行描述了? 
前辈,您好!我想请问一下您的 EFANet 目前哪里可以找到?我看您的论文(Edge-aware Feature Aggregation Network for Polyp Segmentation)上标注的地址是这里,但是打开链接之后却是404
Hello! Sir, I've been looking at the code for your paper(UACANet: Uncertainty Augmented Context Attention for Polyp Segmentation), and it's very well written, especially the yaml configuration, which is very...
前辈,你好! 很抱歉浪费了您宝贵的时间!晚辈深感惭愧! 请问你这里的均值和标准差是怎么计算出来的?  是计算每张训练图像的均值和标准差累加,然后除以1450这样算的吗? 还有注意到您后续把训练图像尺寸统一调整为352x352,那么是不是计算的时候也需要进行调整图像尺寸的操作呢?
前辈!您好! 我想请问一下,您这里对图像进行数据增强所使用的均值和标准差是如何计算得到的?  我想了一下,您可能是对训练集的所有图像逐个进行了均值和标准差的计算然后累加这两个值,最后把两个累加和都除以1450,即图像数量,但是因为后续还需要对图像进行调整尺寸,即统一调整为352,所以计算的时候也把这个考虑进去了? 不知道我想的对不对,期待您的回复
前辈,您好! 非常感谢您的贡献,很棒的论文! 请问 BARCrossEntropyLoss 可是您在论文中提及的BAR(Boundary Aware Refinement)策略? 还有这个真的仅仅是一个损失函数吗? 请恕晚辈才疏学浅,仅通过看论文和代码实在搞不明白为什么这个损失函数能够将分割实例的边界处理的那么好? 望请前辈得闲指点一二,晚辈不胜感激!  
前辈您好! 最近参阅了您的论文,在感佩之余,也有一点不解之处,希望得到前辈的指点。 您 EAGRModule 的相关代码我结合论文做了注释,其中图推理这部分,我理解应该是这里  但是这里和您论文讲解的不太一致。 主要是您论文提到 (I - A) A是随机初始化的邻接矩阵。 但是这里代码似乎是将 XG 传入 GCN, 然后使用卷积和维度置换操作生成一个 h,这个 h 如果代表的是 I ,那么 A 岂不是就成了传入的 XG 了吗? 但是您论文里说的是“从 XG 中学习顶点之间的连通性”。 ...