jvbshsai
jvbshsai
> 你收到这个文件了吗?我也需要它。 请问您找到了吗
我在D2Net的github上找到了这个https://cvg-data.inf.ethz.ch/megadepth/,可以试一下 -----原始邮件----- 发件人:the-cat-crying ***@***.***> 发送时间:2025-02-10 10:13:24 (星期一) 收件人: mihaidusmanu/d2-net ***@***.***> 抄送: jvbshsai ***@***.***>, Comment ***@***.***> 主题: Re: [mihaidusmanu/d2-net] Undistorted_SfM (Issue #109) 没有收到呢 | | 伐木累 | | ***@***.*** | ----...
> 在数据生成过程中,但是对于陌生视频,总是会出现两个问题,第一个问题是./process_videos.sh video_list.txt产生的24个文件夹的α标签部分有时为空的问题,是因为某些匹配器效果不好吗?传播过程中又预计会出现24个第二个问题是虽然生成了24个文件夹的α标签,但是在传播过程中出现没有传递下去的情况(或者这里的继续1、继续2、继续3出现全部为假的情况),我想问的是针对这种情况,能不能只采用部分匹配器的结果进行传播呢,您在处理在线视频的时候遇到这种情况如何处理呢?按理说很多在线视频都存在匹配器效果不好的情况,本身匹配到的数量就少,传播下去的很少,如何保证传播过程中至少存在匹配的情况呢 continue1 = np.array([x in ids1[:, 0] for x in (ids1[:, 0] + self.skips[-1] * 1)]) print("Continue1 shape = ",Continue1.shape) ids2 = reduce(intersected,idxs[self.skips[-2]]) print("ids2 shape = ",ids2.shape) continue2...
> 合十礼, > > 首先,非常感谢您创建并分享了这个优秀的特征匹配器! > > 我有一个关于文档中提到的 MegaDepth 数据集准备工作的问题。设置指南引用了[LoFTR 训练说明](https://github.com/zju3dv/LoFTR/blob/master/docs/TRAINING.md#download-datasets),其中提到: > > “_我们使用[原始 MegaDepth 数据](https://www.cs.cornell.edu/projects/megadepth/)集中提供的深度图,以及经[D2-Net](https://github.com/mihaidusmanu/d2-net#downloading-and-preprocessing-the-megadepth-dataset)预处理后的无畸变图像、相应的相机内参和外参……_ ” > > 基于以上分析,我认为正确的步骤是: > > 从 MegaDepth 原项目下载 MegaDepth_v1.tar.gz。 > > 从该文件中,仅使用深度图。 >...