cyn_liu
cyn_liu
1、在keypoint章节和range image章节extract border部分,加载xxx.pcd文件后,都需要再加载一个xxx_far_ranges.pcd文件,xxx_far_ranges.pcd文件如何获得??? 2、如果我选择使用自动生成点云的方式进行后续操作,我的程序都会报错: No *.pcd file given => Generating example point cloud. 段错误 (核心已转储) 期待回复,感谢!
thanks replay.
### Checklist - [X] I've read the [contribution guidelines](https://github.com/autowarefoundation/autoware/blob/main/CONTRIBUTING.md). - [X] I've searched other issues and no duplicate issues were found. - [X] I've agreed with the maintainers that I...
I tried using fp16 to train `BEVDet-dev2.1` `bevdet-r50-cbgs.py`, but the loss has always been Nan eventually terminated abnormally, do you know why? I only changed `#fp16 = dict(loss_scale='dynamic')` to `fp16...
你好,作者: 感谢你的开源,我最近想使用自己的数据集进行模型训练,我在创建了自己的clr_resnet18_mydataset.py配置文件,我对`cut_height`参数的设置有一些疑问,这个参数的意思是将图像crop为(0,cut_height, img_w, img_h)的图像,我看TuSimple、CULane、LLAMMAS数据集都设置了`cut_height`,请这个数据的设置依据是什么?如果我不知道如何设置,是否应该把`cut_height`设置为0,即不对图像进行crop。 另外,在`clrnet/dataset`下,计算`ys`时,也用到了`cut_height`, 以及设置了一个`step`,比如CULane数据集中的`np.arange(270, 590, 8)`,其中`step=8`,请问这里step设置的依据是什么??? https://github.com/Turoad/CLRNet/blob/7269e9d1c1c650343b6c7febb8e764be538b1aed/clrnet/datasets/llamas.py#L146 https://github.com/Turoad/CLRNet/blob/7269e9d1c1c650343b6c7febb8e764be538b1aed/clrnet/datasets/culane.py#L97 https://github.com/Turoad/CLRNet/blob/7269e9d1c1c650343b6c7febb8e764be538b1aed/clrnet/datasets/tusimple.py#L64
### Checklist - [x] I've read the [contribution guidelines](https://github.com/autowarefoundation/autoware/blob/main/CONTRIBUTING.md). - [x] I've searched other issues and no duplicate issues were found. - [x] I've agreed with the maintainers that I...
### Checklist - [X] I've read the [contribution guidelines](https://github.com/autowarefoundation/autoware/blob/main/CONTRIBUTING.md). - [X] I've searched other issues and no duplicate issues were found. - [X] I'm convinced that this is not my...
@LCH1238 作者你好,感谢你的开源。 有个问题请教你: 由于你的代码中使用去掉pre-process-net模块的模型转换和推理的,而我的模型中有pre-process-net模块,所以我修改转模型的代码,将自己的模型转成三个阶段,分别是`image-stage-4d-depth`,`pre-process-stage-4d-depth`,`bev-stage-4d-depth`。 `InitEngine()`中,三个模型的输入输出维度是: ``` images : 6 3 512 1408 rot : 1 6 3 3 trans : 1 6 3 intrin : 1 6 3 3 post_rot...
@LCH1238 非常感谢你的分享。 1. 使用如下仓库,即可使用NuScenes数据集训练模型。 https://github.com/LCH1238/BEVDet/tree/export 2. 直接用上述仓库下的`tools/export/export_onx_onnx.py`脚本,即可完成pth转onnx模型的操作。 3. 使用下面这个仓库,即可完成onnx模型转engine和engine的推理操作。 https://github.com/LCH1238/bevdet-tensorrt-cpp/tree/one 如上我都可以成功复现。 但是,我换了自己的数据集,修改配置中的数据参数后,进行模型训练,模型可以正常收敛。 我的数据集与NuScenes的区别仅仅只是原始图像的尺寸不同,`src_size=(1080, 1440)`。 如果我想转onnx,我需要如何修改`img_input`这个参数??? https://github.com/LCH1238/BEVDet/blob/d92b78471bb8b46072c96350848d6f32fb53b55e/tools/export/export_onx_onnx.py#L111 为什么这个单阶段模型的输入不直接设置为`input_size=(256,704)`呢?而是设置为`(900, 400)`。
### Checklist - [X] I've read the [contribution guidelines](https://github.com/autowarefoundation/autoware/blob/main/CONTRIBUTING.md). - [X] I've searched other issues and no duplicate issues were found. - [X] I'm convinced that this is not my...