npcdna
npcdna
when i use 39b5a8a1 to make, i meet 3 problem; **First** cmake error! In tests/CMakeLists.txt: cmake_policy(SET CMP0104 OLD) and then, i solve this problem by change this line to: if(POLICY...
基于lidar和nomask的config,目前跑出来一个模型,看了下形状大致对的,能看出大概路面形状,车道线和灯杆形状,但是mesh渲染的颜色完全不对,感觉渲染完全错了。 我使用的数据集,有两个相机(前后视),目前只用了前视相机,斜装激光装在车后面扫描,所以为了对齐前视相机,我会把前几秒的激光数据对齐当前相机这一帧一起处理; 目前有啥经验可以指点吗,比如调整什么参数,或者调整lidar数据,还是有什么输入数据给的有问题?
你好,我想把这个代码用在我自己的自动驾驶数据集上 我目前的数据是一个前后目相机,一个40线的车顶斜装激光lidar,在城区道路的数据; 目前我用waymo数据接口跑前视相机,用monosdf生成的深度和normal图像模式跑通了streetbuf的流程,但是效果不行, 我目前的问题有: 1.streetbuf的dataset能用哪些接口,是不是只能用waymo的数据接口; 2.我相机坐标系和opencv相同,这样的话如果我调用waymo接口是不是要改变waymo相机坐标系和opencv相机坐标系之间的转换; 3.目前我用monosdf生成深度和normal图看着还行,但是生成mask天空区域包含部分道路区域,尤其是后视图像mask基本分类错误,这种情况下是不是用lidar好些; 4.lidar数据转化:我目前拿到的数据是每帧激光点在当前激光坐标系下的x,y,z,intensity;所以我处理时是将每帧图像附近0.1秒内的激光点转化为一帧数据, 保存rays_o,rays_d, ranges; rays_o 的值为:世界坐标系下当前激光传感器位置 (Tw_li).translation() = (Tw_bi*Tbl).translation() ; rays_d的值为: 世界坐标系下当前激光点方向 (Rw_li*[x,y,z]^T).normal() ranges的值为: sqrt(x*x+y*y+z*z) 我这样转化的lidar数据有没有什么问题; 5.有没有能够根据给定的pose和传感器数据生成对应渲染图像和lidar模拟结果的接口?