nieyan
nieyan
@Tamuel Great work! And can you tell me what dataset do you use to train? And the lane in demo has been postprocess or the raw model output?
@Tamuel Many thanks for the prompt reply!
@Tamuel By the way, can you explain the process of BDD100k lane vertices to lane mask? Or it's not dense lane mask while training ? I am confused of sparse...
> FYI: I am not the author of this repository. Just randomly refreshes the issues because of my own issue. > > I don't think that question can be answered...
> > 使用docker的纯cpu环境启动,参考文档: https://github.com/w111liang222/lidar-slam-detection/blob/main/docs/slam.md 正常建图完成,进editor界面打开了上述建好的地图; 并copy了一份在 /media/lp_log/map目录下,想使用两份map测试地图合并功能,但是网页上好像没有这个选项? > >  > > 设置slam模式为localization,才会出现“合并”选项 合并后,点击保存地图,网页卡住了,看log好像保存失败了 [Thread debugging using libthread_db enabled] Using host libthread_db library "/usr/lib/x86_64-linux-gnu/libthread_db.so.1". 30 ../sysdeps/unix/sysv/linux/epoll_wait.c: No such file or...
另外,多趟合并除了提高点云的稠密度,能提高建图精度不?
> > 另外,多趟合并除了提高点云的稠密度,能提高建图精度不? > > 合并时会对每个关键帧附近搜索可能存在的回环,某些场景下能提高建图精度 好的;另外上述合并后存图报错的问题,是否和地图参数-距离步长不同有关? 同一批数据,一个步长1m, 一个步长0.1m, 但我看合并是没报错来着; 另外 点云着色相关的代码 slam/vio 没找着呢?
点云着色功能如何启动? 尝试使用建图功能生成了地图并保存在lp_log/map/test1目录下,在配置中切换到定位模式,开启点云着色,到editor界面没看到变化, cfg/board_cfg_all.yaml文件中的input.data_path路径需要配合修改不? 
假设重建好一份地图,想在该地图中获取第K帧时刻的camera位姿,从而生成occ真值; 该camera位姿是使用 1. 重建的lidar轨迹 -》K帧lidar轨迹 -》标定好的lidar和camera外参换算 -》K帧camera位姿; 2. K帧点云重定位 -》点云着色中提及的步骤优化获得K帧camera位姿 3. 其他方法? 哪种方式生成的occ真值更科学呢? 如果是使用类似fast-LIVO2方式重建的地图,是否直接取重建的轨迹中的k帧camera位姿即可(建图优化考虑了重投影误差); 在fast-LIVO2等方法中,是否默认lidar和camera的外参是一个刚性连接,不会变化?那重投影误差影响的只是机器人的位姿吗?