zxcvbnmkj
zxcvbnmkj
+1。 我也遇到一样的情况,即使复制的readme中原封不动的代码。模型无输出,和readme中展示的结果相差很大
> > Since I'm not using my own training set at the moment and only have single-digit images for testing, could you please provide me with your pre-trained weights so...
尊敬的作者您好,非常感谢您出色的工作和耐心解答!我使用了您提供的代码在眼球数据集FIVES上训练,得到的效果非常出色!我从FIVES中随机挑选了34张构建了小样本数据集,训练效果依旧非常出色,可完美分割眼球图像。 然后我又换了一个数据集(并非您论文中提到的,是一个我自己找的野生数据集),换成了眼球数据集DRIVE,在其上进行多次训练,但是每次iou只有零点几且都是下降的趋势。我以为是类别不平衡问题(数据集样本中前景点和背景点比例差不多为1:9),后面在交叉熵损失中加上了类别权重,这样操作后使得训练结果iou值提高到了13%,预测结果为下图这样:  这使我百思不得其解,两个眼球数据集FIVES、DRIVE看起来区别不大,但是训练效果都天差地别。二个数据集的mask图像都是【0、255】两种像素值,我将divide设置为了ture,使得标签转换到了【0、1】两个值,num_class设置为了2。即所有训练设置都是一样的。为了检查在__getitem__函数中是不是破坏了DRIVE数据集的什么信息,我可视化了该函数处理后的图像和标签(x和target),效果如下图,这体现了这一步也没有出错。在FIVES中训练所得模型,甚至也可以很好的分割DRIVE数据集图像。  我研究了一整天实在不知道这是为什么了,才想着来问问您,不知道您是否能看出什么头绪,望您不吝赐教! 以下是DRIVE数据集的说明: 这些图像是在荷兰的一项糖尿病视网膜病变筛查计划中获取的。图像是使用Canon CR5非散瞳3CCD相机拍摄的,视场角(FOV)等于45度。每张图像的分辨率为584*565像素,每个颜色通道有8位。数据集总图片数40张,在这两个集合中,每张图像都有一个直径约为540像素的圆形视场掩码(FOV)。在训练集中,每张图像都有一位眼科专家进行的手动分割。其中图像后缀是.tif,标签后缀是.gif
> > `python train_learnable_sam.py --image C:\Users\Duan\Desktop\LearnablePromptSAM-main\train\image_cut --mask_path C:\Users\Duan\Desktop\LearnablePromptSAM-main\train\gt_cut --model_name vit_b --checkpoint C:\Users\Duan\Desktop\LearnablePromptSAM-main\ckpts\sam_vit_b_01ec64.pth --save_path C:\Users\Duan\Desktop\LearnablePromptSAM-main\ckpts --lr 0.05 --mix_precision --optimizer sgd` > > Sorry, please provide the log of the training. You...