写在前面:博主主要关注的是自动驾驶中Lidar和RTK组合导航设备的标定,大部分的开源项目都把其转化为Lidar和IMU的标定过程。
1. ETH的lidar_align
- 适用于lidar+imu系统的标定
- 本质解决的是一个优化问题,即在外参参数(6DoF)如何选择时,使Lidar采集到的数据转化到Odom系下后,前后两次scan的数据点能够尽可能的重合。
- 方法将Lidar数据根据当前假设的状态变量(6DoF参数)变换到Odom系下,构成点云PointCloud,之后对每一次scan时的数据,在下一次scan中通过kdtree的方式寻找最近邻的数据点并计算距离,当总距离最小时可以认为完全匹配,即计算的外参参数正确。
- 作者在issue和readme中指出,该方法存在的局限性是,必须要求采集数据时系统进行非平面运动,对平移要求不高但要求旋转必须充分。但对数据量、运动范围没有经过严格的测试。这个局限性也限制了难以用于给自动驾驶车辆这种系统标定。
2. 浙大的LI-Calib
- 论文在试验中采用的手持平台进行了验证,能够很方便地在3个欧拉角方向上倾斜采集数据。
- 该方法需要有充足的线加速度和角速度激励,所以同样也难以适用于自动驾驶车辆的标定任务。
3. 百度Apollo的标定服务
- 非开源,需要使用Apollo框架
4. Robosense Lidar RTK Calibation Tool
5. 商汤科技&上海AI实验室推出的开源标定工具箱 openCalib
(Github)SensorsCalibration toolbox v0.1
calibration param | calibration type | calibration method | mannual calibration | auto calibration | usage documentation |
---|---|---|---|---|---|
camera intrinsice | intrinsic | target-based | camera intrinsic | ||
imu heading | extrinsic | target-less | imu heaidng | ||
lidar2imu | extrinsic | target-less | lidar2imu | ||
lidar2camera | extrinsic | target-less | lidar2camera | ||
lidar2lidar | extrinsic | target-less | lidar2lidar | ||
radar2camera | extrinsic | target-less | radar2camera | ||
radar2lidar | extrinsic | target-less | radar2lidar |
openCalib中,关于Lidar和IMU(INS)标定方法的解读,详见我另一篇博客:openCalib中Lidar和IMU(INS)标定–论文解读。
如果觉得我的文章对你起到了些许的帮助,做下手指操点击下面的大拇指👍感谢~
我是专注自动驾驶、LiDAR感知、三维点云处理、激光SLAM领域的阿川,欢迎各位志同道合的朋友在下面积极留言。欲将心事付瑶琴,希望能在交流中收获知识、经验和挚友🌞
文章出处登录后可见!
已经登录?立即刷新