Junhui He
Junhui He
Did it work? > Cool, let me give it a try on my side.
> render 生成的surf_depth是否可以与其他预训练模型生成的深度图一起用于深度监督? I wonder what the rendered surf_depth units are and what they mean specifically?
Thanks for your reply, I would also like to ask you about how to specify the model of the camera in SFM?
感谢您在百忙之中回复我,我今天尝试了一下您的代码进行稀疏重建,在colmap的gui中,您的匹配效果确实完美,之前在colmap中没有匹配上的图像在您的工程中做到了非常完美的效果,但是这里我有一些困惑和问题。第一代码运行时间确实比SIFT长,大概76张图像用了四十分钟,我的配置是RTX4090八张显卡;第二关于您下午说到相机模型用的是针孔模型,但是我尝试找了一下午并没有发现您的代码里是如何设置相加模型的,我想请您能给我指示一下具体需要从哪里入手修改。 最后衷心感谢您和您的团队的工作,我现在正在尝试应用到下游一些任务中去。
感谢您的回复,不过默认相机模型不是SIMPLE_PINHOLE或者PINHOLE而是采用和colmap一样的SIMPLE_RADIAL,我在作者的回答中找到了一些修改相机模型的方法[https://github.com/cvg/Hierarchical-Localization/issues/278](url),但是还没有进行尝试。我希望您能告诉我在哪里可以修改匹配的代码使得能够用上更多的GPU来加速匹配?
感谢您的回复,最近我仔细阅读了hloc的代码,需要在reconstruction代码中设定相机模型,否则就是默认模型,希望您能百忙之中发布速度更快的匹配方法,目前这种匹配方法虽然稳健且有效,但是应用于下游的一些任务耗时太长,另外我也需要仔细看看您提到的多卡进行匹配,希望能够加速匹配的效率
辛苦了,这块我自己先学习一下 @xuelunshen
` try: buf = fig.canvas.tostring_rgb() except AttributeError: fig.canvas.draw() buf = fig.canvas.tostring_rgb() cols, rows = fig.canvas.get_width_height() img_array = np.frombuffer(buf, dtype=np.uint8).reshape(rows, cols, 4) result = cv2.cvtColor(img_array, cv2.COLOR_RGB2BGR) plt.close() return result` have a...
Because this function `densify_and_prune` will guide Gaussian to clone or split. Reduce the parameter `self.densify_grad_threshold = 0.0002` in `class OptimizationParams(ParamGroup)`, but it will increase the overhead of the GPU. So...