ICRA2022 SLAM进展—激光SLAM

激光SLAM文章列表

ICRA2022 SLAM Paper List

Learning Spatiotemporal Occupancy Grid Maps for Lifelong Navigation in Dynamic Scenes
本论文提出一种先进的方法,用于提取,预测和使用时空占用栅格地图(Spatiotemporal Occupancy Grid Maps (SOGM)),该方法也利用了动态场景的未来信息。我们的自动生成过程从之前的导航数据生成真实的SOGMs,根据3D点的动态属性对其进行标注,并投影到2D栅格(SOGMs)。同时,我们设计了一个3D-2D 反馈结构的网络,输入3D雷达帧来训练以预测SOGMs的未来时间步长 。本流程是自监督的,可以用于机器人的终身学习。 该网络由一个3D后端和一个2D前端组成,前者用于提取丰富的特征和雷达帧的语义分割,后者则预测SOGMs在规划阶段的未来信息。最后结合实际导航验证了所提算法的先进性。该工作主要解决的问题是机器人在导航过程中面临的动态障碍物问题,通过预测动态物体在规划期间的变化来改变导航行为,使其可有效处理实时动态,提升导航的友好性。
SOGM

系统介绍(risk-aware navigation system)

A, 自动SOGM生成(Automated SOGM Generation)

1,首先对雷达帧进行标注,分为ground, permanent, movable 和 dynamic四种语义,此处采用终身学习的方法,即先利用所有雷达帧进行建图(SLAM),地图点进行标注,然后即可得到每一雷达帧的语义。该标注可用于后续的3D语义分割网络训练;
2,使用3个类别的障碍物点云(permanent, movable, and dynamic)来生成SOGM;
3,在训练阶段,所需的 2D点云会被加载,并会根据其时间戳进行堆叠(stack)。

B, 网络设计(Network Architecture for SOGM Prediction)

网络结构详见下图
network

C, 网络和推理

损失函数包括语义分割的cross-entropy loss和SOGM预测的Binary Cross-Entropy loss。

D,Risk-Aware Navigation

对TEB算法进行改进,使其可以处理获得的障碍物预测信息。

CT-ICP: Real-time Elastic LiDAR Odometry with Loop Closure

本方法的核心是使用一个弹性轨迹公式(elastic formulation of the trajectory),描述了同一scan内的位姿连续性以及相邻scans的位姿不连续性,使得对传感器高频率运动能更鲁棒。所用的点云注册基于scan-to-map,该地图采用基于稠密点云形成的体素地图,以实现实时。同时使用快速的闭环检测和位姿图优化使得整个系统形成一个完成的基于纯Lidar的SLAM,其中的闭环检测模块采用海拔图像(elevation images)。
主要贡献:
• 一个新的elastic LIDAR里程计, 该里程计中同一scan具有位姿连续性,不同scan之间的位姿则不连续;
• 基于将稠密点云存储在稀疏体素结构的局部地图,获得实时的处理速度;
• 回环检测和位姿图优化,形成完整的SLAM算法。
scan
如上图所示,算法估计每一帧开始和结束的位姿,中间时刻的位姿则利用插值获得。
优化残差:
1
2
3456
78
优化对象是点-面ICP,这一个和LOAM系列的一致,不同之处在于同时估计每一scan开始和结尾的位姿,通过插值获得每个点云时刻的单独位姿,而LOAM系列则是将点云去畸变后转换到scan开始或者结束时刻进行位姿估计。看上去这种基于连续性的雷达里程计方法从理论上优于LOAM系列的方法。
回环检测模块采用类似scan-context的方法,也不是主要创新点,在此不细说。
目前为止,该方法在KITTI榜上排第六名。
SCORE
GCLO: Ground Constrained LiDAR Odometry with Low-Drifts for GPS-Denied Indoor Environments
参考解读
在激光雷达SLAM里加入地面约束的工作有不少,比如Lego-LOAM和hdl_graph_slam,但大都假设一个地面,该论文则将该问题拓展到多个不同地面的约束,扩展了其使用范围。

Robust Self-Supervised LiDAR Odometry via Representative Structure Discovery and 3D Inherent Error Modeling
本工作研究与准确自监督位姿估计相关的结构可靠性问题,以降低训练,推理和建图阶段不可靠结构的影响。我们从一下三个方面改进了自监督雷达里程计

  • 设计了一个两阶段的里程计估计网络,通过估计一系列的子区域变换和使用运动投票机制进行均值化来获得自身运动估计(基于两帧之间的位姿估计), 促使网络关注代表性的结构。
  • 无法通过自身运动优化的内在关联错误会被3D点协方差估计所down-weighted;
  • 代表性的特征结构和学习到的点云协方差被集成到建图模块,用以改进地图构建的鲁棒性。

方法介绍
本方法通过关注各阶段中结构可靠性设计了一个自监督的雷达里程计。

  • 两帧之间的里程计估计
    two stage odometry
    数据帧中可能会存在非刚体部分,它对位姿估计有不利影响,为了缓解这种影响,我们提出子区域(sub-regions)的思想,并假设只有与静态物体对应的子区域并且估计条件呢好的才是刚体变换,基于此,我们将位姿估计分为两阶段:先估计子区域中的刚体变换, 然后用它们的结果进行不同权值的投票。

  • 基于3D内在关联关联错误模型的自监督训练(Self-supervised Training with 3D Inherent Alignment Error Modeling)
    这一块讲的是网络设计和自监督训练方面的事,详情请查看论文

  • 不确定性明确的建图(Uncertainty-aware Mapping)
    本方法采用常规的voxel来表征地图,用增量式方法进行地图的构建,每次地图更新前,利用scan-to-map的关联优化来refine两帧的运动估计,这里与LOAM的处理类似,但我们的优化点在于缩减了关键点搜索空间至代表性结构集合,提升鲁棒性和效率。在地图更新阶段,会利用贝叶斯滤波器来更新地图voxel。

Direct LiDAR Odometry:Fast Localization with Dense Point Clouds
该方法的出发点是实现激光定位静度与效率上的平衡,主要包含三个创新点:

  1. 自适应的关键帧系统,使得可以充分利用环境信息;
  2. 一个快速基于关键帧的子地图方法,可通过凸优化refine全局位姿;
  3. 提出NanoGICP,解决轻量级点云scan-matching,采用数据结构循环机构以消除冗余计算。
    pipeline
    基于GICP的帧匹配(scan-matching)
    该过程很主流,由Scan-to-Scan和Scan-to-Map组成,前者通过前后帧之间的匹配求解得到一个初始位姿,后者利用该初始位姿进行Scan与Submap的匹配,两者优化的目标都是plane-plane ICP。该过程的主要创新点在于子地图的推导生成和管理。
    快速基于关键帧的子地图
    不同于直接将点云直接组织成一定的数据结构(如八叉树),本方法将连续的关键帧对应的点云组织成一个子地图(有点类似视觉里的处理方法),这样的处理带来了两个好处:基于关键帧空间的检索比基于点云的检索高效;可创建更permissive的子地图,可确保子地图之间有足够的重叠区域,利于后续的全局子地图refine。并提出一种自适应的关键帧选择方法。
    Dual NanoGICP
    NanoGICP = FastGICP + NanoFLANN
    使用NanoFLANN创建kdtree结构,然后使用FastGICP进行数据关联。
    思路简单,但效果很好,实验表明超过LOAM,cartographer等经典激光算法。
    已经开源: 开源代码仓库

Ensemble Kalman Filter Based LiDAR Odometry for Skewed Point Clouds Using Scan Slicing

LLOL: Low-Latency Odometry for Spinning Lidars
不同于大多数激光SLAM对一个完整的sweep进行位姿估计,本方法将旋转雷达数据视为一个传感器数据流,当累积一定时间的packets(部分sweep)就进行一次估计,极大降低估计算法的latency,同时提高位姿估计效率(10hz雷达数据的估计效率可达80hz)。
low latency
A, 特征提取
输入为range image,将其分配到每个2D栅格中,然后采用Lego-LOAM的方法来计算激光点的平滑度和协方差,根据该度量来识别平面区域。
B,局部地图表征
借鉴UPSLAM,采用depth panorama(深度全景,见下图)来表征局部地图,它是融合多个sweep建立的,相较于存储3D点,它有着固定存储复杂度等优势。
Depth panorama
C, 局部轨迹表征
任何时刻均会维护当前sweep的局部轨迹,轨迹上每个离散状态(对应sweep数据每一列)包括相对当前全景帧(current pano frame)的位姿和速度

D, 投影ICP(Projective ICP)
通过关联当前sweep到全景地图的ICP方法来估计位姿。
1) 数据关联
将当前sweep转换到全景帧,采用近邻方法进行数据关联;
2)位姿优化
采用GICP进行位姿优化,有IMU则会添加IMU预积分因子

E) 地图更新
1) 深度更新
位姿估计后,可对当前sweep进行去畸变,然后将sweep转换到pano frame,对于深度值接近的部分,采用计数加权的方式来更新深度值,否则则会对pano frame深度计数减一。更新方法简单有效,还可处理部分动态物体。
2) 渲染新的Panoramas
通过匹配质量来决定是否需要重定位Pano,类似于选择新的关键帧。

Performance Guarantees for Spectral Initialization in Rotation Averaging and Pose-Graph SLAM

ART-SLAM: Accurate Real-Time 6DoF LiDAR SLAM
摘要:启发于HDL SLAM,关注地面特征,快速准确,模块化,使用g2o图优化进行位姿估计和建图。
architeture

软件架构上采用松耦合的模块化思想,使得各个部分可以被高效地替换。

方法介绍

1, 前滤波 Pre-filterer
该步骤是为了降低点云规模,去除噪声和外点,主要采用下采样和滤波。

2, 跟踪Tracker
TRacker也叫短期数据关联,它估计连续帧之间的相对位姿。这里借鉴视觉slam进行关键帧选择,对关键帧进行scan-to-scan匹配来估计相对位姿。

3, Pre-tracker

Performance Models in Robotics With a Use Case on SLAM

LT-mapper: A Modular Framework for LiDAR-based Lifelong Mapping
本文通过将雷达建图分成三个子问题来达到long-term的目标:多阶段SLAM(multi-session SLAM (MSS)), 高/低动态变化检测 (high/low dynamic change detection)和正/反变化管理(positive/negative change management)。主要贡献如下:
• 集成多阶段SLAM和变化检测,通过anchor节点处理来灵活处理各个阶段。子模块LTSLAM可以只利用雷达来融合多个阶段的建图。
• 子模块LT-removert利用时间和空间上的remove-then-revert算法,克服多阶段建图上的关联模糊;
• 子模块LT-map可以有效地生产最新地图(live map)和长久地图(meta map),同时将变化储存在变化地图(delta map)。通过利用delta maps, 修复和变化检测在内存和计算上均更高效。

方法介绍
Pipeline
1, LT-SLAM: A Multi-session SLAM Engine
该模块可将当前阶段的地图(query session)和之前建的图(central session)融合到一起(类似ORB SLAM3多阶段建图),首先通过Scan-Context和radius search的方法进行回环检测,以建立各个阶段之间的inter-session关联,然后进行联合轨迹地图优化。
2,LT-removert: Two-session Change Detection
1) (实时)高动态点云去除: 使用现有的Removert方法去除实时动态点;
2) 低动态变化检测:query session和central session融合关联后,便可对比检测出低动态部分,包括ND和PD;
3)Weak ND Preservation (Handling Occlusions):处理被遮挡的部分,采用修改版的Removert,移除原始ND map中远的点,并将其恢复到静态地图中;
4)Strong PD for Meta-map Construction:
ND PDPD
作者提出,ND和PD点也隐藏着物体级别的形状信息(动态常常以物体级别存在)。
3, LT-map: Map Update and Long-term Map Management:利用检测到的低动态变化(包括PD和ND)可进行地图的更新。

整体而言,方法简单易懂,描述得逻辑有条理,值得尝试(作者基于sc-lio-sam进行测试)。

DynamicFilter: An Online Dynamic Objects Removal Framework for Highly Dynamic Environments
本工作专注于SLAM过程中的在线动态物体去除,为此提出一个先进的在线动态物移除框架。该框架由scan-to-map前端和
map-to-map后端模块组成,两者都深入融合了visibility-based方法和map-based方法。
pipeline
框架如上图示。
整个框架由scan-to-map的前端和map-to-map的后端组成。前端实时计算出粗略的结果,后端可以利用更多时间计算出更准确结果。整个框架的输入是连续帧及对应位姿。首先使用 visibility-based方法去除动态物体,获得原始静态子地图,然后使用map-based恢复方法从稀疏的特征里恢复更稠密的静态点云。由于连续帧有限的视野,前端生成的静态子地图可能不是足够满意的。最后引入map-to-map后端进一步优化结果。后端的核心思想是从多个子地图计算每个voxel的占用概率。当光线穿过voxel时,该voxel被标记为空闲, 并使用可见检查(visibility check)去近似计算穿过每个voxel的光线数量,以加速光线追踪的过程。
主要贡献如下:

  • 第一个提出一个在线动态物体去除的框架,融合使用visibility-based和map-based的方法;
  • 提出visibility check,使用visibility-based方法去近似光线追踪(ray-tracing)过程和加速占用计算;
  • 在前端提出map-based恢复算法,可以减轻由visibility-based带来的观测问题。
    相关工作包括Model-dependent方法,Occupancy map-based方法和Visibility-based方法,本工作目标在于设计一种不依赖模型,结合Occupancy map-based和Visibility-based的高效率高精度的在线动态物体去除方法。

方法概述:
A,问题设置:关注于从连续的雷达帧移除动态物体。雷达帧来自传感器,位姿来自于成熟的SLAM算法。
B,Scan-to-Map 前端
前端输入为时序上连续的n帧和位姿,将其转换到全局坐标系,形成无处理的子地图。然后结合使用Visibility-based removal和Map-based reverting两种方法去除动态物体,最终得到静态子地图,经其与位姿存储到队列里给后面的流程处理。
C,Map-to-map 后端
前端在处理序列足够长的条件下有能力移除所以动态物体,但本方法需要在线实时处理,该需求使得前端处理序列长度有限,处理性能也有限,可能只能处理快速运动的物体。为此提出使用map-to-map后端进一步优化结果。 这一步使用Occupancy grid model和visibility check来高效计算每一个oxel的占用概率,最终得到更准的静态局部地图。
D,子地图合并
全局地图中一个voxel被最近的子地图标记为占用的,则该voxel就是占用的,完成子地图合并。
semantic kitti result

Memory-Efficient Gaussian Fitting for Depth Images in Real Time
本工作针对建图过程中的高效内存问题开展研究,提出了一种内存高效算法单次高斯拟合(SPGF),准确地从深度图像中构造了一个紧致高斯混合模型(GMM)。通过每次利用深度图一个像素增量构造GMM,SPGF实现了更高的效率和比以前的多通道方法更低的内存开销。通过逐行处理深度图像, SPGF利用相机的内在性能高效准确的推断曲面几何,在保持相同的紧凑性前提下获得比以前更好的精度。
SPGF

方法介绍

algorythm depthmap

  1. Scanline Segmentation(帧线分割)
    将每条扫描线分割成代表平面表面的具有不同方向的线段。
    scanline segmentation
  2. Segment Fusion
    将能代表一个表面的所有线段融合成一个高斯分布。
    segment fusioin
    总结:通过设计SPGF模型对地图进行构建,极大地减少了算力和内存的使用,使得能量有限的机器人也可以构建大规模地图。SPGF是一种类似octomap的稠密建图方案,也需要外界给定位姿,本身暂不具备同时定位功能。遗憾的是项目暂时没有开源。

Reconstructing Occluded Elevation Information in Terrain Maps With Self-Supervised Learning

Lidar Inertial Fusion

Globally Consistent and Tightly Coupled 3D LiDAR Inertial Mapping
本论文提出一种基于雷达全局匹配和雷达IMU紧耦合的里程计,由一个预处理过程和三个估计模块(odometry estimation, local mapping, and global mapping)构成,所有模块都是基于GPU加速下的体素GICP匹配代价因子和IMU预积分因子,其中里程计模块采用了基于滑窗优化和关键帧的思想pipeline
雷达匹配因子
用于约束相邻帧,采用 voxelized GICP (VGICP)作为代价,优化两帧之间的高斯分布匹配度。
预积分因子
也用于约束相邻帧,与VINS的使用方法一致。
里程计估计
里程计估计部分用于补偿传感器的快速运动,融合使用雷达IMU数据来鲁棒估计状态。该步骤首先利用IMU数据将激光点云去畸变,并转换到IMU坐标系,然后基于近邻来计算每个点的协方差。该过程利用了关键帧和滑窗优化思想,以及IMU预积分约束因子(类似于vins)。
factor
局部建图
局部建图模块将多个局部帧合成一个子地图,并在子地图内部用因子图优化方法进行refine,以减少全局优化模块的优化变量。
全局优化
全局优化由于纠正漂移,以获得全局一致的建图结果。该模块在子地图之间创建约束,使用GTSAM求解该优化问题。
gloabal mapping
关键idea
看上去借鉴了不少vins的套路,使用了子地图策略,使得地图全局一致,提高局部的精度。

R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package
pipeline
该方法包含两个子系统:激光雷达-惯性里程计 (LIO) 和视觉-惯性里程计 (VIO)。其中LIO (FAST-LIO) 利用 LiDAR和惯性传感器的测量数据构建全局地图几何结构(3D 点云位置);VIO 利用视觉-惯性传感器的数据来渲染地图纹理(3D 点云颜色),同时VIO 还通过最小化帧到地图的光度误差来直接、有效地融合视觉数据。
主要贡献

  • 提出了一个融合框架,包含定位建图和上色,框架里包含一个LIO模块和一个VIO模块,整个系统可以实时的重建密集3D彩色环境。
  • 基于彩色RGB点云提出了一个新的VIO系统,通过最小化三维地图点颜色和该三维点在当前图像帧中的颜色的光度误差,避免了提取突出的视觉特征点的需求,提升了运行速度,并且使得这个VIO对于无纹理环境更加鲁棒。
  • 从系统处理流程来看,该方案是一个松耦合融合激光雷达和视觉的方法,关注于对环境进行三维重建

Interval-Based Visual-Inertial LiDAR SLAM with Anchoring Poses

Lidar based Place Recognition

LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place Recognition
使用U-Net网络将点云编码成局部特征,同时引入和优化Local-consistency Lose 和 global scene-level loss。
LoGG3D
结果对比
comparison
效率也很高,远低于传统的ScanContext方法
runtime
HiTPR: Hierarchical Transformer for Place Recognition in Point Cloud
用于地点识别的分层transformer,主要由四部分组成:点单元生成(point cell generation), 短范围(short-range) transformer (SRT), 长范围(long-range)transformer (LRT) 和 全局描述子聚类(global descriptor aggregation),处理流程为:首先点云通过下采样和最近邻搜索匹配被分成一系列小单元, 每个单元包括采样中心点和它的近邻;在short range transformer (SRT), 利用单元内的点云提取采样中心点的局部特征. 然后使用long range transformer (LRT)获取cell之间的全局结构关系。
网络结果如下图所示:
HiPRT
A,点云单元生成The Point Cell Generation
主要采用FPS (Farthest Point Sampling)算法对原始点云进行下采样。
B,The Short Range Transformer for Local Features
该步骤利用采样中心点和近邻点来生成局部描述子,结构如下: SRTC,The Long Range Transformer for Global Information
该部分利用SRT提取的局部特征作为输入,可获取各个cell特征之间的全局上下文关系。采用一个线性transformer。一个batch normalization,一个激活函数activation function和一个max-pooling来对LRT的输出结果进行聚类,生成全局描述子。
D,Global Descriptor and Metric Learning
训练采用全局描述子常用的metric learning方式,即最大化欧氏空间上距离大的点云全局描述子的差异,最小化欧氏空间上距离小的全局描述子差异。

结果对比
实验在NVIDIA Tesla P40 GPU (24G memory)进行,结果如下
result
time and memory
FP-Loc: Lightweight and Drift-Free Floor Plan-Assisted LiDAR Localization
摘要: 为基于地面的六自由度雷达定位提出一个先进的框架。本方法依赖鲁棒的天花板和地平面检测,可以解决部分的位姿估计并支持垂直结构的分割(墙和柱状物等)。核心贡献是一个便于高效从地面查找最近垂直结构的最近邻数据结构,整个注册由成对正则化的滑窗位姿图优化实现,并在多个场景中验证了其高效性和有效性。
在地面上的关联搜索
动机:将位姿估计中求解不稳定的点到点ICP问题转化成求稳定的点到元素(面、线等)ICP问题。
用于几何元素搜索的ANNF:ANNF(Approximate Nearest Neighbour Field)是一个已存在的研究问题,在此我们只介绍其构建和搜索过程。
为了构建ANNF, 我们首先将输入的地面网格化成多个二次根域,这使得每个域有相同的初始长度,并保证了地面最小分辨率。接下来,我们迭代遍历每个元素,检查他们可以通过哪些域,并标记到每个域中心的距离。对于每个域,保留两个离域中心距离最近的两个元素。为了增大分辨率,将每个域分成四个更小的子域,每个子域长度为其父域的一半。 这两个最近元素又可被上述方法查找到。如果一个child子域与其父域共同拥有相同的两个最近元素,它不会再被划分,并被设为叶子域。如果同一个父域的四个子域和该父域有同样的两个最近邻,这次划分操作就会被撤销,该父域将被设为叶子域。进一步我们储存每个域的两个最近邻, 这个减少边界域上的偶然错误。我们也会定义一个最大深度以控制ANNF的整体规模,每一个达到此深度的子域将不再被划分(听上去类似BBS和四叉树划分)。
ANNF搜索类似在基于自适应采样的四叉树里做搜索。给定一个2D点, 首先定位它所在的root域, 这是一个简单的循环操作。然后迭代进入子域,直到到达相应的叶子域。叶子域将输出两个最近元素作为输入点潜在的最近结构元素。ANNF将计算时间从计算点到最近元素距离转换到域构建阶段, 这一步可以事先离线计算,极大地降低计算量。
ANNF
地面辅助下的室内定位
pipelinefloor plane ANNF
位姿估计的流程很经典,只是在增加了额外的点到地图元素(主要是地面)的约束,这些约束提高了定位性能,特别是高度方向的漂移。

MinkLoc3D-SI: 3D LiDAR Place Recognition with Sparse Convolutions, Spherical Coordinates, and Intensity
本工作基于MinkLoc3D进行改进,借鉴了ScanContext的思想,使用非笛卡尔坐标点表示方法,便于在3D雷达帧上使用稀疏的三维卷积结构,同时利用每个点的反射强度信息。
MinkLoc3D-SI = MinkLoc3D-S + MinkLoc3D-I,其中MinkLoc3D-S代表使用柱坐标(spherical representation)形式来表示点坐标,MinkLoc3D-I表示融合使用激光点云的反射强度(Intensity)信息。
使用柱坐标的原因:三纬激光雷达获取的激光点云稠密度不同,靠近激光雷达中心的通常更稠密,而在高度方向稠密变化不大,因此使用笛卡尔的表达形式不适用与表达远离激光雷达中心的点。点之间的距离增加,使得难以提取高层次的特征。

整个算法的流程图和网络结构如下所示,公式部分表示了从笛卡尔坐标系到柱坐标系的转换:
pipeline
network
spherical representation
OpenStreetMap-Based LiDAR Global Localization in Urban Environment without a Prior LiDAR Map
摘要:—利用公开的地图, 我们提出一种不依赖于先验雷达地图的车辆定位方法。所提方法通过在OpenStreetMap中计算从一个位置和角度到建筑物的距离来生成OSM描述子,和通过计算在该点和该角度到建筑物的最近距离生成雷达描述子。比较OSM和LiDAR描述子可获得高精度的定位结果。相较于使用先验雷达地图的方法,我们的方法有两个优势:(1) 定位不局限于拥有雷达地图的区域 (2)定位性能与雷达地图的方法相当。贡献如下:
• 第一个尝试在OpenStreetMap进行雷达地点识别,并取得其他和基于雷达地图相当的定位性能;
•与其他传统方法相反,本方法不局限于拥有雷达地图的区域;
• 不像其他传统基于OpenStreetMap的雷达定位方法,我们的方法不需要额外的处理,比如粒子滤波。
定位性能
所提方法由四个部分组成:OSM 描述子生成,LiDAR描述子生成, 旋转不变的key生成和检索。
pipeline

– OSM 描述子生成
OSM是一个可用于与位置相关联的2D描述子,在OpenStreetMap模拟2D激光雷达照射到建筑物上的情况。
OSM

– LiDAR描述子生成
这是一个将雷达帧转化成OSM格式描述子的过程,首先利用RangeNet++提取雷达帧的建筑,然后可以利用OSM类似的方法计算雷达特征描述子。
雷达描述子
– 旋转不变的key生成
整个的思路有点像scan-context,但需要先将一维描述子转化成二维的,过程如下:
key
– 检索
检索过程也类似scan-context,先利用key进行粗略检索,然后对描述子进行旋转找到最佳检索以及相对角度。
retrievel
总结:本方法有点类似scan-context,但不依赖雷达地图,提供了一种手工设计雷达地点识别方案的新思路。
Retriever: Point Cloud Retrieval in Compressed 3D Maps
波恩大学 Cyrill Stachniss教授的工作,他们实验室在激光雷达自动驾驶方面的钻研颇深,该工作也是通过提取激光点云的全剧描述子,用检索的方法来实现地点识别,创新点在于该方法直接利用压缩点云来提取全局描述子。
Network Architecture
该网络首先使用一个encoder在原始点云上提取压缩的task-agnostic特征,然后将压缩特征输入到一个特征propagation网络,计算更好的task-specific表示,最后,使用一个先进的基于perceiver的注意力模块将其聚类成全局描述子。
效果对比
comparison
RINet: Efficient 3D Lidar-Based Place Recognition Using Rotation Invariant Neural Network
提出一个对旋转具有不变性的地点识别网络,该网络相较现有工作,可以在机器人逆向运动时也检测到回环(这个对于360度的激光雷达应该不难做到吧?)。主要贡献如下:
• 提出一个融合语义和几何信息的旋转一致性的全局描述子;
• 提出一个先进的旋转不变的神经网络;
• 推理速度很快(>8000 FPS on an i7-9700 CPU; >20,000 FPS
on an NVIDIA GeForce GTX 1080 Ti GPU)
RINet
网络介绍
整个网络如上图所示,由三部分组成:descriptor generation, feature extraction and similarity prediction。
A. 预备知识Preliminaries: 主要介绍了Rotation equivariant和Rotation invariant。
B. Rotation equivariant global descriptor
采用非学习的方法获取基于语义的全局描述子,过程如下图
Rotation equivariant global descriptor
C. Rotation invariant neural network
Rotation equivariant convolution:
Rotation equivariant downsampling
Rotation equivariant attention
Feature extraction
Similarity prediction
结果对比
result
效果非常好,对比中Ours-CY是采用Cylinder3D网络输出的语义,Ours-SK采用真值语义,SSC是Semantic Scan-Context, 它的效果也非常好,可看出语义的准确性对网络效果影响很明显。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2023年2月26日 下午12:49
下一篇 2023年2月26日 下午12:50

相关推荐