您的位置:首页 > 游戏 > 手游 > 东莞外贸企业名单_建筑公司招聘信息_网站很卡如何优化_成功的软文营销案例

东莞外贸企业名单_建筑公司招聘信息_网站很卡如何优化_成功的软文营销案例

2024/12/26 9:30:03 来源:https://blog.csdn.net/weixin_49587977/article/details/143384051  浏览:    关键词:东莞外贸企业名单_建筑公司招聘信息_网站很卡如何优化_成功的软文营销案例
东莞外贸企业名单_建筑公司招聘信息_网站很卡如何优化_成功的软文营销案例

 我自己的原文哦~  https://blog.51cto.com/whaosoft/12413878

#MCTrack

迈驰&旷视最新MCTrack:KITTI/nuScenes/Waymo三榜单SOTA

paper:MCTrack: A Unified 3D Multi-Object Tracking Framework for Autonomous Driving

code:https://github.com/megvii-research/MCTrack

机构:迈驰智行、旷视、国防科大、川大、中科大

1. 写在前面&出发点

自2016年SORT[1]算法提出以来,多目标跟踪任务已经经历了多年的发展,从最初的TBD(Tracking-By-Detection)范式发展到TBA(Tracking-By-Attention), JDT(Joint-Detection-Tracking)等范式,从单模态到多模态跟踪,从2D跟踪发展到3D跟踪,可谓百花齐放,百家争鸣。在3D跟踪领域,KITTI、nuScenes和Waymo是常用的数据集,它们各有特点,数据格式差异显著,采集场景和帧率也尽不相同。迄今为止,几乎没有一种方法能够在这三个数据集上都达到SOTA性能。

而对于评价指标而言,目前主流的包含MOTA, AMOTA, HOTA等,这些指标均是在评价一条轨迹是否能够正确、稳定匹配上,但是对于匹配之后,跟踪这个任务所需要对下游预测规划输出的关键信息(如速度、加速度、角速度)是否合理、是否能满足需求依然打个问号?这也就意味着我们缺乏对运动信息的评测指标。

基于上述问题:

我们的目标是首先提供一种统一的感知结果格式,以便在不同数据集上刷榜时,无需担心数据格式的差异。

其次,我们希望提供一个统一的跟踪框架,能够在KITTI、nuScenes和Waymo这三个常用数据集上都达到SOTA性能。

最后,我们希望建立一套“运动指标”,用以评估跟踪任务输出给下游任务的运动信息(如速度、加速度等)的正确性,这其实在实际工程应用中至关重要。

2. 领域背景

3D多目标跟踪在自动驾驶领域作为感知与预测规划任务之间的桥梁,扮演着至关重要的角色。学术界已经提出了多种跟踪范式,包括基于检测的跟踪(TBD)、基于注意力的跟踪(TBA)和联合检测跟踪(JDT)等。通常情况下,TBD范式在各方面的性能都优于其他范式,并且由于其不需要GPU资源,这极大地推动了该范式在工程中的应用。总体来看,TBD范式的方法主要分为两个步骤:首先是目标检测,然后是数据关联,具体流程如图1所示。

图片

图1

  • 检测:通常利用现有的检测器得到感知结果
  • 数据关联:利用感知结果与历史轨迹进行多对多的匹配,通常会涉及到代价函数的计算、匹配函数的选择、卡尔曼滤波预测等等。

很显然,这种范式下,跟踪结果很大程度上依赖于感知模块的性能。通常来说,感知性能越出色,跟踪效果也越好。这种范式在某种程度上既有优势也有劣势。其优势在于结构简单明了,不需要复杂的处理步骤,工程落地非常容易。劣势一在于由于跟踪过程基于检测结果而非原始数据(如外观特征等),一旦检测性能下降,跟踪性能也会随之受到影响。劣势二在于这种方式很难处理密集场景,一旦场景中目标数量过多,仅通过空间位置关系来计算相似度会非常困难,但对于自驾场景而言,无论是高速还是城区,障碍物并不会过多,即通过空间位置关系通常是可以hold住的(当然,引入特征是更好的)。尽管目前在各大3D MOT榜单上基于TBD范式的性能已经比较好了,但我们认为依旧没有达到这类范式的上限,可靠稳定的代价函数依然待发掘。

另一方面,在学术研究中,大家对跟踪任务的关注点通常集中在轨迹连接的准确性,而连接后的进一步处理往往被忽视。然而,在工业界,跟踪任务作为感知的最下游,负责汇总和优化各类信息,并将结果传递给预测和规划模块。这其中包括了诸如速度、加速度等重要的运动信息,而这些信息在学术界的跟踪任务中几乎没有涉及。这在一定程度上反映了学术界与工业界的某种脱节。

在以上背景下,诞生了MCTrack(MC--迈驰智行),提供了一套统一的pipeline,一套评估速度的运动指标。

3. MCTrack

3.1 统一数据格式

我们对KITTI、nuScenes和Waymo三大数据集的感知结果格式进行了统一整合,这意味着只要采用TBD范式的方法,便可以直接使用这一统一格式,通过一套pipeline运行三个数据集,无需编写多个预处理脚本来适配不同数据集。我们将按照场景、帧、障碍物、全局信息等维度进行存储,整体格式包含以下内容:

image2024-10-18_19-38-6.png

3.2 整体框架

整体框架遵循简单直接的TBD范式,先进行检测,再进行匹配,并通过不同维度的信息接入卡尔曼滤波器,以确保输出给下游模块的信息稳定性。值得注意的是,在匹配阶段,我们采用了多视角相似度计算方法,首先在BEV平面上进行第一次匹配,然后在RV平面(图像2D平面)上进行第二次匹配。相似度计算过程中,我们提出了更为鲁棒的Ro_GDIoU。

图片

​​https://picx.zhimg.com/80/v2-436883a9be383d7fb17ad978b7f6ffd9_1440w.png​​

3.3 Ro_GDIoU

在3D多目标跟踪中,常用的代价矩阵包括IoU、GIoU、DIoU和欧式距离等。在3D空间中,交并比和距离是两种不同的度量方式:交并比及其变体侧重于从体积上衡量两个3D框的相似度,而距离则用于描述两个框之间的相对接近程度。在跟踪任务中,仅使用其中一种度量方式进行匹配,无法确保在各类场景中都取得理想效果。DIoU在某种程度上结合了交并比和欧氏距离,但当两个框之间没有交集时,DIoU退化为纯距离度量,无法同时兼顾体积相似度和中心点接近度。一个显而易见的改进是将GIoU和DIoU融合在一起。

图片

基于此,我们提出了Ro_GDIoU,这是一种融合了旋转角、交并比与中心距离的更强相似度计算方法。旋转角的引入如图所示:当将3D框投影到BEV平面时,这些框通常会呈现不同的角度。如果像在2D检测任务中那样将其“掰正”,将无法准确衡量两个框的真实相似度。因此,需要按照它们的实际朝向来计算交并比,以更准确地反映它们的相似性。

图片

Ro_GDIoU具体计算方式如下面的伪代码所示:

图片

3.4 不同维度的匹配方式

二次匹配其实并非是一个新颖的操作,诸多SOTA方法都有涉及。我们在实验中发现,之所以需要二次匹配,是因为所使用的代价函数无法自调节以适应感知框的抖动,导致无法采用统一相似度阈值来度量,所以自然而然就诞生了二次匹配。通常而言,这些方法都会选择在第二次匹配时使用更加宽松的匹配阈值,但问题在于感知的抖动能通过放大匹配阈值来消除掉吗?在工程中我们发现一个非常有意思的现象,基于图像的3D感知在深度上时常会出现抖动,尤其是对于远距离的小目标而言,有时抖动会达到10m以上。这种情况下,仅通过调整匹配阈值无法完全解决问题,依然会出现frag和idsw。我们尝试将3D框投影到前视平面上(即压缩深度),虽然在一定程度上缓解了问题,但也导致后视目标与前视目标出现错误匹配,这显然是不可接受的。于是,我们进一步尝试在不同相机视角下进行投影,以确保不同视角的目标不会相互匹配,从而形成了本文中的二次匹配模块。整体的匹配流程如下图的伪代码所示:

图片

4. 运动指标

为了解决当前多目标跟踪(MOT)评估指标未能充分考虑运动属性的问题,我们提出了一系列新的运动指标,包括速度角度误差(VAE)、速度范数误差(VNE)、速度角度倒数误差(VAIE)、速度反转比(VIR)、速度平滑度误差(VSE)和速度延迟误差(VDE)。这些运动指标旨在全面评估跟踪系统处理运动特征的性能,涵盖速度、角度及速度平滑度等运动信息的准确性和稳定性。在这里我们主要介绍速度平滑度误差(VSE)和速度延迟误差(VDE)两大指标,这两个指标在自驾工程应用中至关重要。什么样的速度对于下游控制是可接受的?答案是既要响应快速,又需要足够平稳。当前方障碍物急剧减速或加速时,跟踪系统应能迅速响应,并提供准确的速度预测。显然,雷达传感器依赖多普勒效应能够生成相对完美的速度曲线,但实际上,雷达的FP较多,并且并不总是能在每一时刻都匹配上。因此,跟踪模块仍需通过位置采用滤波器来提供一套速度预测。然而,如何衡量速度的优劣便成了一个关键问题。

  • 速度延迟误差(VDE)

首先,计算真实速度(gt)的峰值点,并设定窗口大小为 w。在峰值点的前后各取 w/2个点。同时,基于 gt 的峰值点,在计算滤波速度的时候取 w个点,并设定一个滑动窗口 tau。这样可以提取出tau组滤波速度,并计算这tau组数据与 gt 的差值。接着,通过计算差值的均值和方差,选择均值和方差最小的那组tau×帧率,这就是对应的延迟误差(单位:秒)。具体计算过程如下:

图片

借助论文的一幅图来说明该指标的重要性:该图展示了两辆以每小时100公里速度行驶的车辆:红色车辆表示自动驾驶车辆,白色车辆表示前方障碍物。两车之间的初始安全距离设定为100米。假设在时间点 t_m 时,前车开始紧急减速,并在时间点 t_n 时将速度降至每小时60公里。如果自动驾驶车辆在感知前车速度上存在延迟,则可能会错误地认为前车仍然以每小时100公里的速度行驶,这会导致两车之间的安全距离在不知不觉中缩短。直到时间点 t_n 时,自动驾驶车辆才最终感知到前车的减速,但此时安全距离可能已经非常接近极限。

图片

  • 速度平滑度误差(VSE)

平滑性误差不涉及到gt,首先对原始dt使用SG滤波器进行平滑,将平滑后的dt与原始dt计算差值并求和,理论上,如果一条曲线足够平滑,那么将该条曲线送到滤波器再次进行平滑其效果并不大,即依然会接近原始曲线,此时平滑性误差最小。

图片

显然,该指标并非越小越好,因为通过越平滑则相应就会越滞后,故该指标需要结合速度滞后性误差一起使用。如下图所示:红色曲线为gt,蓝色和绿色曲线分别表示两种方法求得的速度曲线,显然,蓝色曲线非常平滑,但是滞后,而绿色曲线尽管抖动较大但相应较快。平滑性误差不依赖于真实值(gt)。首先,我们对原始的滤波速度使用SG滤波器(Savitzky-Golay)进行平滑处理,然后计算平滑后的滤波速度与原始滤波速度 之间的差值并进行求和。理论上,如果一条曲线足够平滑,那么将其输入滤波器进行再次平滑的效果就不会明显,结果仍然会接近原始曲线,此时平滑性误差达到最小。

图片

5. 实验

5.1 定量实验

正如前言所述,我们希望提供一套统一的ppl,因此,我们在当前常用的3D MOT数据集上(如KITTI、nuScenes和Waymo)进行了测试。总体而言,我们在KITTI和nuScenes数据集中取得了第一名,而在Waymo数据集中获得了第二名。值得一提的是,Waymo第一名所采用的检测方法在mAP等指标上比本文使用的检测器高出两个点,因此我们认为这两者之间并不具备可比性。

图片

nuScenes跟踪榜单第一

图片

KITTI跟踪榜单第一

图片

Waymo跟踪榜单第二

与SOTA方法对比

****

图片

图片

图片

5.2 运动指标评估在本文中,我们提出了多种速度计算方法,包括差分法、卡尔曼滤波和曲线拟合等。这三种方法各有优缺点。此外,速度的计算并不限于上述几种方式。我们希望能够提供一个完善的评估指标,鼓励大家不仅关注轨迹连接的准确性,还要关注在正确连接后,如何更好地输出下游控制所需的速度等信息。

图片

5.3 消融实验将本文提出的Ro_GDIoU分别融合到当前KITTI和nuScenes的SOTA方法中,其中PolyMOT在当时的nuScenes排名中位居第一。我们发现,将Ro_GDIoU应用于该方法时,MOTA指标提升了1.1个点,同时nuScenes的主要评价指标AMOTA也提升了0.4个点。此外,在另一个数据集KITTI上,使用当时的SOTA方法结合Ro_GDIoU也实现了不同程度的提升。

图片

对于二次匹配,在公开数据集上的提升非常有限。这是因为我们所使用的检测器均基于点云,虽然这类方法在深度方向上相对准确,但值得注意的是,检测器性能较差时,基于RV的二次匹配所带来的提升会更加明显。

图片

6. 总结

在本文中,我们提出了一种简洁且统一适用于自动驾驶领域的3D多目标跟踪方法。我们的方法在多个数据集上均取得了SOTA性能。此外,我们对不同数据集的感知格式进行了标准化处理,这样大家能够专注于多目标跟踪算法的研究,而无需由于数据集格式差异而引发的繁琐预处理工作。最后,我们引入了一组全新的运动评估指标,希望大家关注对下游应用至关重要的运动属性。

#MambaBEV

MambaBEV成功将Mamba2引入BEV目标检测

MambaBEV是一个专为自动驾驶系统设计的基于Mamba2的高效3D检测模型。该模型利用了鸟瞰图(BEV)范式,并整合了时序信息,同时提高了检测的稳定性和准确性。在nuScences数据集上,该模型具有出色的表现。

对于自动驾驶系统而言,更安全、准确地进行3D目标检测至关重要。历史上,这些感知系统主要依赖霍夫变换和关键点提取等技术构建基础框架。然而,深度学习的兴起使得感知精度的重大飞跃。

然而,单目相机的感知方法仍面临诸多挑战,尤其是距离感知误差大和盲区范围广,这些问题对驾驶安全构成了显著威胁。为了解决距离误差问题,研究人员提出了双目立体匹配技术,通过利用一对相机捕获图像之间的视差,在一定程度上改善了距离估计的准确性。然而,这些系统仍然存在关键的局限性:它们无法感知车辆侧面和后部的物体及车道标记,从而在自动驾驶系统的安全范围内留下空白。

为了应对这些局限性,最新的研究探索了使用环视相机系统进行感知,该系统通常包括六个相机。这种方法为每个相机输入部署独立的深度学习模型,并依赖后处理技术将各个输出整合为对环境的一致感知。尽管这种方法克服了单目和双目系统的局限性,但也引入了一系列新挑战,包括大量的GPU内存消耗、感知冗余、跨相机视图的目标重新识别,以及缺乏跨相机的信息交互。这些因素共同影响了感知系统的效率和有效性。

图片

图1 MambaBEV的框架。

为了解决这些障碍,基于鸟瞰图(BEV)的范式作为一种有前景的解决方案应运而生。这种方法将多个相机的输入整合到一个统一的BEV表示中,从而使车辆周围环境的全面理解成为可能。通过直接将图像数据映射到环境的俯视图,BEV方法促进了更准确的距离估计和障碍物检测,同时有效解决了盲区问题。此外,这种方法还促进了不同相机视图之间的信息高效共享,从而增强了感知系统的整体鲁棒性和可靠性。

另一个关键方面是处理时序数据。单帧检测虽然简单,但常常因为帧间目标遮挡和特征不明显而错过检测。为了解决这些问题,整合时序融合技术,利用历史特征来增强当前特征,已被证明可以显著提高模型性能。然而,传统的时序融合范式主要依赖自注意力机制,导致高内存消耗、有限的全局感受野,以及较慢的训练和推理速度。因此,开发一种新的时序融合方法以克服这些缺点具有重要的工程意义。

最近,一个专门处理序列的新模型mamba在多个下游任务中展现出巨大的潜力。Mamba2是mamba的改进版本,在多个任务上显示了更优的性能。这种新方法采用基于块分解的矩阵乘法,并利用GPU的存储层次结构,从而提高了训练速度。将mamba2引入3D自动驾驶感知是一个值得探索的方向。为了解决时序融合模块面临的问题,作者提出了MambaBEV,这是一个基于BEV的3D感知模型,使用了mamba2。据作者所知,这是首次将Mamba2整合到基于相机的3D目标检测网络中。

作者提出了一种基于mamba2的3D目标检测范式,命名为MambaBEV。该方法采用了一个基于mamba-CNN的模块,名为TemporalMamba,用于融合不同帧中的BEV特征。此外,作者在解码器层设计了一种mamba-detr头部,以进一步优化检测效果。

A.预备知识

结构化状态空间模型(SSMs)是一类深度学习模型,特别适用于序列建模任务。通过利用这些结构化公式,SSMs在表达性与计算效率之间提供了一种权衡,成为与基于注意力的模型(如Transformer)的一种有效替代。SSMs的公式代表了推进深度学习中序列建模的一个有前景的方向。作者使用的基模型称为Mamba2,它基于结构化状态空间(S4)序列模型,这些模型根植于连续系统。这些模型通过采取1-D输入序列或函数和一个中间隐藏状态, ,如下所示:

它结合了一个可学习的步长,并采用零阶保持将连续系统转换为离散系统。注意,如果设置D为0,则可以忽略Du(t)。因此,方程(1)可以重写为:

通过应用数学归纳法,的最终输出可以表示为:

其中M定义为:

表示从到的矩阵乘积,索引j和i分别表示第j个和第i个A,B,C矩阵。Mamba2中的变换矩阵M也符合N-序半可分离(SSS)表示的定义。因此,在Mamba2框架内,SSM和SSS的表示是等价的。这种等价性允许在涉及SSM的计算中高效利用结构化矩阵乘法进行SSS。为了实现这种方法,参数矩阵M被分解为对角块和低秩块,分别使用结构化掩码注意力(SMA)二次模式算法和SMA线性模式算法。此外,多头注意力(MHA)被集成以增强模型的性能。

图片

图2 TemporalMamba的总体框架。

B.总体架构

MambaBEV的主要结构在图1中展示。该模型可以总结为四个主要模块:图像特征编码器、后向投影(SCA)、TemporalMamba和Mamba-DETR头部。MambaBEV以六个相机图像为输入,并通过图像特征编码器生成六个多尺度特征图。这些特征图随后被送入名为空间交叉注意力(SCA)的后向投影模块,以生成BEV特征图。

接下来,历史BEV特征与当前BEV特征进行融合,用于指导生成新的当前BEV特征。此过程由作者提出的TemporalMamba块执行。经过多层处理后,最终使用mamba-DETR头部作为3D目标检测的输出模块。

C. 图像特征编码器

图像特征编码器由两部分组成:高效的主干和经典的颈部。针对场景中不同视图的六张图片,作者使用在ImageNet上预训练的经典ResNet-50、从FCOS3D检查点初始化的ResNet-101-DCN,以及非常有效的VoV-99(同样来自FCOS3D检查点)作为主干,以提取每张图片的高级特征。Vmamba也可以作为主干。为了更好地提取特征并提升性能,作者采用经典的特征金字塔网络(FPN)生成多尺度特征。

图片

图3 Query重组。

D. TemporalMamba块

对于传统的基于注意力的时序融合块,作者采用了可变形自注意力。Temporal Self-Attention(TSA)主要遵循以下流程:首先,给定历史BEV特征图和当前特征图,TSA将它们连接,并通过线性层生成注意力权重和偏移量。然后,每个查询(代表BEV特征)根据权重进行并行计算。然而,作者认为这种方法存在一些副作用。尽管可变形注意力可以降低计算成本,但由于每个参考查询仅允许与三个查询交互,导致大尺寸物体特征在跨帧交互中受到限制。

模型使用了mamba以增强全局交互能力。首先,两种模态的特征通过自我旋转角度进行变换,并通过一个卷积块将维度从512压缩到256,如图2所示。

在处理历史BEV特征图和当前特征图(每个维度为256)时,首先在第三维度将它们连接,连接后的特征分别经过两次带有批归一化的3x3卷积层和一次带有批归一化的1x1卷积层,然后将它们相加。

然后,作者对特征图Z进行离散重排,并通过mamba2块处理。典型的mamba2块是为自然语言处理设计的,旨在处理序列,但在应用于视觉数据时面临重大挑战。因此,设计合适的离散重排方法至关重要。基于实验并受到Vmamba的启发,作者设计了四种不同方向的重排方法,并讨论了这些方法在消融研究中的影响。

作者创新性地提出了一种多方向特征序列扫描机制,其中特征图Z被离散序列化,并以四个方向:向前左、向前上、向后左和向后上重新组合,如图3所示,形成新的序列作为Mamba2模型的输入。值得注意的是,作者没有采用蛇形螺旋重组合方法,因为他们认为这种方法会导致相邻特征之间的交互不平衡,一些相邻特征可能过于接近,而其他特征则相距甚远。mamba输出增强的序列特征,然后重新组合并恢复图4中显示的原始顺序。接着,作者计算四个张量的平均值,并将以0.9的dropout率生成的增强融合BEV特征图作为跳跃连接添加到当前BEV特征图中。

图片

图4 Query融合。

E. Mamba-DETR头部

如图1所示,作者重新设计了一个结合mamba和传统DETR编码器的mamba-DETR头部。在此结构中,900个目标查询首先在mamba2块中进行预处理,并相互之间进行交互,承担与自注意力相同的职责。随后,mamba块的输出将像传统的CustomMSDeformableAttention那样,通过可变形注意力进行处理。

在实验中,MambaBEV在nuScenes数据集上表现出色,其基础版本实现了51.7%的NDS(nuScenes Detection Score)。此外,MambaBEV还在端到端自动驾驶范式中进行了测试,展现了良好的性能。在3D对象检测任务中,MambaBEV-base相较于仅使用单帧的BEVFormer-S,在mAP和NDS上分别提高了3.51%和5.97%,充分显示了TemporalMamba块的有效性。当添加TemporalMamba块时,平均速度误差降低了37%,表明历史信息,特别是经过TemporalMamba块处理的信息,可以显著改善速度估计,因为它提供了宝贵的历史位置信息。

图片

表1 在nuScenes验证集上的3D目标检测结果。

图片

表2 开环规划性能。

图片

表3 动态预测。

图片

表4 拼接方法与卷积方法的消融对比。

图片

表5 不同窗口大小造成的影响。

图片

表6 不同重排方法的比较

图片

表7 BEV特征不同分辨率的影响

MambaBEV是一种基于BEV范式和mamba2结构的创新3D目标检测模型,充分利用时序信息以处理动态场景。在nuScenes数据集上实现51.7%的NDS,突出了其有效性和准确性。通过引入TemporalMamba块,MambaBEV有效整合历史信息,改善速度估计和目标检测性能。与传统卷积层和可变形自注意力相比,该模型在全局信息交换上更具优势,并且优化了计算成本。为适应端到端的自动驾驶范式,MambaBEV结合了mamba和传统DETR编码器的特性,展现出良好的潜力,尤其在自动驾驶应用中具有可观的发展前景。

#RAG实战全解析

1. 背景介绍

RAG(Retrieval Augmented Generation,检索增强生成 )方法是指结合了基于检索的模型和生成模型的能力,以提高生成文本的质量和相关性。该方法是Meta在2020年发表的文章《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》中提出的,该方法让LM(Language Model,语言模型)能够获取内化知识之外的信息,并允许LM在专业知识库的基础上,以更准确的方式回答问题。而在大模型时代,它更是用于解决幻觉问题、知识时效问题、超长文本问题等各种大模型本身制约或不足的必要技术。

2. RAG的挑战

RAG主要面临三个方面的挑战:检索质量、增强过程和生成质量。

2.1 检索质量

语义歧义:向量表示(例如词嵌入)可能无法捕捉概念之间的细微差别。例如,“苹果”一词可能指的是水果或科技公司。嵌入可能会混淆这些含义,导致不相关的结果。

用户输入变复杂:与传统关键词或者短语搜索逻辑不太一致,用户输入问题不再是词或者短句,而是转变成自然对话声知识多轮对话数据,问题形式更加多元,紧密关联上下文,输入风格更加口语化。

文档切分:文档切分主要有两种方式:一种是基于形式的切分,比如利用标点和段落的结束;另一种是基于文档内容的意义进行切分。如何将这些文档块转换成电脑能够理解和比较的形式(即“嵌入”),进而影响这些块与用户搜索内容的匹配程度。

多模内容的提取及表征(例如表格、图表、公式等):如何对多模内容进行提取及动态表征,是目前面临的现实问题,尤其是处理那些含糊或负面的查询,对 RAG 系统的性能有显著影响。

2.2 增强过程

上下文的集成:这里的挑战是将检索到的段落的上下文与当前的生成任务顺利地集成。如果做得不好,输出可能会显得脱节或缺乏连贯性。

冗余和重复:如果多个检索到的段落包含相似的信息,则生成步骤可能会产生重复的内容。

排名和优先级:确定多个检索到的段落对于生成任务的重要性或相关性可能具有挑战性。增强过程必须适当权衡每个段落的价值。

2.3 生成质量

  • 过度依赖检索内容:生成模型可能过于依赖增强信息,导致幻觉问题突出,而不是增加价值或提供合成。
  • 无关性:这是另一个令人担忧的问题,即模型生成的答案无法解决查询问题。
  • 毒性或偏见:这也是另一个问题,即模型生成的答案有害或令人反感。

3. 整体架构3.1 产品架构

从图上可以清晰的看出,整个产品架构包含如下四层:

  • 最底层是模型层。在模型层屏蔽掉了模型的差异,不仅可以支持自研的序列猴子,也可以支持开源的大模型,第三方的模型。此外,为了优化embedding的效果,提出一种跨语言Embedding模型,有效的解决跨语言检索问题,同时提高了模型的效果。
  • 离线理解层。在该层,主要围绕智能知识库和搜索增强两个模块设计的。关于智能知识库主要负责将非结构化的文本进行处理,从而转化为检索知识库,主要包括文本解析,表格识别,OCR识别等。搜索增强通过引入问句改写、重排等模块,保证检索的精准度。
  • 在线问答层,为了满足产品设计需要,这里支持多文档、多轮次、多模态及安全性与拒识等,在一定程度上提高了产品的竞争力,同时也满足了不同场景的用户需求。
  • 场景层,针对不同行业的特点,预制多种场景类角色,降低产品使用门槛。

3.2 技术架构

为了理解检索增强生成框架,我们将其分为三个主要组成部分:query理解、检索模型和生成模型。

  • query理解:该模块旨在对用户的query进行理解或者将用户的query生成结构化的查询,既可以查询结构化的数据库也可以查询非结构化的数据,进而提高召回率。该模块包括四部分,他们分别是query改写,query扩写和意图识别等。各个模块的介绍我们将在之后的章节进行详细介绍。
  • 检索模型:该模型旨在从给定的文档集或知识库中检索相关信息。他们通常使用信息检索或语义搜索等技术来根据给定的查询识别最相关的信息。基于检索的模型擅长查找准确且具体的信息,但缺乏生成创意或新颖内容的能力。从技术上来讲, 检索模型主要包括文档加载、文本转换、Embedding等模块。我们将在之后的章节中详细介绍。
  • 生成模型:该模型旨在根据给定的Prompt或上下文生成新内容。目前,生成模型可以生成富有创意且连贯的文本,但它们可能会在事实准确性或与特定上下文的相关性方面遇到困难。在RAG框架中,生成模型主要包括chat系统(长期记忆和短期记忆)、Prompt优化等。这些内容在之后的章节中也会介绍。

总之,检索增强生成结合了检索模型和生成模型优势,克服它们各自的局限性。在此框架中,基于检索的模型用于根据给定的查询或上下文从知识库或一组文档中检索相关信息。然后,检索到的信息将用作生成模型的输入或附加上下文。通过整合检索到的信息,生成模型可以利用基于检索的模型的准确性和特异性来生成更相关、更准确的文本。这有助于生成模型立足于现有知识,生成与检索信息一致的文本。

4. Query理解

目前,RAG系统可能会遇到从知识库中检索到与用户query不相关的内容。这是由于如下问题:(1)用户问题的措辞可能不利于检索,(2)可能需要从用户问题生成结构化查询。为了解决上述问题,我们引入query理解模块。

4.1 意图识别

意图识别是指接收用户的query和一组"选择"(由元数据定义)并返回一个或多个选定的"选择模块"。它既可以单独使用(作为 "选择器模块"),也可以作为查询引擎或检索器使用(例如,在其他查询引擎/检索器之上)。它是原理简单但功能强大的模块,目前主要利用 LLM 实现决策功能。它可以应用于如下场景:

  • 在各种数据源中选择正确的数据源;
  • 决定是进行摘要(如使用摘要索引查询引擎)还是进行语义搜索(如使用矢量索引查询引擎);
  • 决定是否一次 "尝试 "多种选择并将结果合并(使用多路由功能)。

核心模块有以下几种形式:

  • LLM 选择器将选择作为文本转储到提示中,并使用 LLM 做出决定;
  • 构建传统的分类模型,包括基于语义匹配的分类模型、Bert意图分类模型等。

4.2 Query改写

该模块主要利用LLM重新措辞用户query,而不是直接使用原始的用户query进行检索。这是因为对于RAG系统来说,在现实世界中原始query不可能总是最佳的检索条件。

4.2.1 HyDE

Hypothetical Document Embeddings(HyDE)是一种生成文档嵌入以检索相关文档而不需要实际训练数据的技术。首先,LLM创建一个假设答案来响应query。虽然这个答案反映了与query相关的模式,但它包含的信息可能在事实上并不准确。接下来,query和生成的答案都被转换为嵌入。然后,系统从预定义的数据库中识别并检索在向量空间中最接近这些嵌入的实际文档。

4.2.2 Rewrite-Retrieve-Read

这项工作引入了一个新的框架--Rewrite-Retrieve-Read,从query改写的角度改进了检索增强方法。之前的研究主要是调整检索器或LLM。与之不同的是,该方法注重query的适应性。因为对于 LLM 来说,原始query并不总是最佳检索结果,尤其是在现实世界中。首先利用LLM 进行改写query,然后进行检索增强。同时,为了进一步提高改写的效果,应用小语言模型(T5)作为可训练的改写器,改写搜索query以满足冻结检索器和 LLM的需要。为了对改写器进行微调,该方法还使用伪数据进行有监督的热身训练。然后,将 "先检索后生成 "管道建模为强化学习环境。通过最大化管道性能的奖励,改写器被进一步训练为策略模型。

4.3 Query扩写

该模块主要是为了将复杂问题拆解为子问题。该技术使用分而治之的方法来处理复杂的问题。它首先分析问题,并将其分解为更简单的子问题,每个子问题会从提供部分答案的相关文件检索答案。然后,收集这些中间结果,并将所有部分结果合成为最终响应。

4.3.1 Step-Back Prompting

该工作探索了LLM如何通过抽象和推理两个步骤来处理涉及许多低级细节的复杂任务。第一步先是使用 LLM "后退一步"生成高层次的抽象概念,将推理建立在抽象概念的基础上,以减少在中间推理步骤中出错的概率。这种方法即可以在有检索的情况下使用,也可以在无检索的情况下使用。当在有检索情况下使用时,抽象的概念和原始问题都用来进行检索,然后这两个结果都用来作为LLM响应的基础。

4.3.2 CoVe

Chain of Verification (CoVe) 旨在通过系统地验证和完善回答以尽量减少不准确性,从而提高大型语言模型所提供答案的可靠性,特别是在事实性问题和回答场景中。它背后的概念是基于这样一种理念,即大型语言模型(LLM)生成的响应可以用来验证自身。这种自我验证过程可用于评估初始响应的准确性,并使其更加精确。

在RAG系统中,针对用户实际场景中日益复杂的问题,借鉴了 CoVe技术,将复杂 Prompt 拆分为多个独立且能并行检索的搜索友好型query,让LLM对每个子查询进行定向知识库搜索,最终提供更准确详实答案的同时减少幻觉输出。

4.3.3 RAG-Fusion

在这种方法中,原始query经过LLM 生成多个query。然后可以并行执行这些搜索查询,并将检索到的结果一并传递。当一个问题可能依赖于多个子问题时,这种方法就非常有用。RAG-Fusion便是这种方法的代表,它是一种搜索方法,旨在弥合传统搜索范式与人类查询的多面性之间的差距。这种方法先是采用LLM生成多重查询,之后使用倒数排名融合(Reciprocal Rank Fusion,RRF)来重新排序。

4.3.4 ReAct

最近,在RAG系统中,使用ReAct思想,将复杂查询分解成更简单的"子查询",知识库的不同部分可能会围绕整个查询回答不同的 "子查询"。这对组合图尤其有用。在组成图中,一个查询可以路由到多个子索引,每个子索引代表整个知识语料库的一个子集。通过查询分解,我们可以在任何给定的索引中将查询转化为更合适的问题。

ReAct的模式如上图所示,它是将思维链提示(Chain of Thoughts,简写为CoT)和Action计划生成结合起来,相互补充增强,提升大模型解决问题的能力。其中CoT的Reasoning推理跟踪有助于模型诱导、跟踪和更新行动计划以及处理异常。Action操作允许它与知识库或环境等外部来源接口并收集其他信息。

4.4 Query重构

考虑Query理解模块整体pipeline的效率,参考Query改写和Query扩写核心思想,自研了Query重构模块,该模块强调了通过一次请求,实现对原始用户输入的复杂问题进行改写、拆解和拓展,挖掘用户更深层次的子问题,从而借助子问题检索效果更高的特点来解决复杂问题检索质量偏差的问题,旨在提高查询的准确性和效率。

  1. 检索模型

5.1 检索模型的挑战

  • 依赖于Embedding模型的向量化是否准确
  • 依赖于外部数据是否有合理的分割(不能所有的知识转化成一个向量,而是需要分割数据后转化再存入向量数据库)
  • 依赖于Prompt拼接,当我们将返回的最相似的文档进行排序后,与用户的问题一起送给大模型,实际上是想让大模型在长上下文中准确识别定位到合适的内容进行回答。

《Lost in the Middle: How Language Models Use Long Contexts》文章指出,当相关信息出现在输入上下文的开头或结尾时,性能往往最高,而当模型必须在长上下文中间获取相关信息时,性能会明显下降,即使对于明确的长上下文模型也是如此。

5.2 架构5.3 文档加载器

文档加载器提供了一种 "加载 "方法,用于从配置源加载文档数据。文档数据是一段文本和相关元数据。文档加载器可从多种不同来源加载文档。例如,有一些文档加载器可以加载简单的 .txt 文件或者加载任何网页的文本内容,甚至加载 YouTube 视频的副本。此外,文档加载器还可以选择实现 "懒加载",以便将数据懒加载到内存中。

5.4 文本转换器

检索的一个关键部分是只获取文档的相关部分。当加载文档后,通常需要对其进行转换,以便更好地适应应用程序。这涉及几个转换步骤,以便为检索文档做好准备。其中一个主要步骤是将大型文档分割(或分块)成较小的块,即文本转换器。最简单的例子是,当需要处理长篇文本时,有必要将文本分割成若干块,以便能放入模型的上下文窗口中。理想情况下,希望将语义相关的文本片段放在一起。这听起来很简单,但潜在的复杂性却很大。

5.4.1 工作原理

  • 将文本分割成语义上有意义的小块(通常是句子)。
  • 开始将这些小块组合成一个大块,直到达到一定的大小(用某个函数来衡量)。
  • 一旦达到一定大小,就将该语块作为自己的文本,然后开始创建有一定重叠的新语块(以保持语块之间的上下文)。

5.4.2 常见如下文本转换器类型5.4.3 评估文本转换器

你可以使用 Greg Kamradt 创建的 Chunkviz 工具来评估文本转换器。Chunkviz 是可视化文本转换器工作情况的工具。它可以向你展示文本的分割情况,并帮助你调整分割参数。

5.5 文本嵌入模型

检索的另一个关键部分是文档嵌入模型。文档嵌入模型会创建一段文本的向量表示。它可以捕捉文本的语义,让你快速有效地找到文本中相似的其他片段。这非常有用,因为它意味着我们可以在向量空间中思考文本,并进行语义搜索等操作。

理想情况下,检索器应该具备将不同语种的翻译文本做关联的能力(跨语种检索能力),具备将长原文和短摘要进行关联的能力,具备将不同表述但相同语义的文本做关联的能力,具备将不同问题但相同意图的问题进行关联的能力,具备将问题和可能的答案文本进行关联的能力。此外,为了给大模型尽可能高质量的知识片段,检索器还应该给出尽可能多的相关片段,并且真正有用的片段应该在更靠前的位置,可以过滤掉低质量文本片段。最后,期望我们的模型可以覆盖尽可能多的领域和场景,可以实现一个模型打通多个业务场景,让用户获得开箱即用的模型,不需要再做微调。

关于文档嵌入模型,这里向大家推荐看一下《从MTEB看RAG:深入理解embedding评估,让AI更懂你!》文章。

5.6 向量数据库

随着嵌入式的兴起,人们开始需要向量数据库来支持这些嵌入式的高效存储和搜索。存储和搜索非结构化数据的最常见方法之一是嵌入数据并存储由此产生的嵌入向量,然后在查询时嵌入非结构化查询并检索与嵌入查询 "最相似 "的嵌入向量。向量数据库负责存储嵌入数据并执行向量搜索。

关于向量数据库,这里向大家推荐看一下《大模型引发爆发增长的向量数据库》文章。如果对向量数据库已经有认知了,可以直接跳过本节进行阅读。

5.7 索引

经过前面的数据读取和文本分块操作后,接着就需要对处理好的数据进行索引。索引是一种数据结构,用于快速检索出与用户查询相关的文本内容。它是检索增强 LLM 的核心基础组件之一。

下面介绍几种常见的索引结构。为了说明不同的索引结构,引入节点(Node)的概念。在这里,节点就是前面步骤中对文档切分后生成的文本块(Chunk)。下面的索引结构图来自 LlamaIndex 的《 How Each Index Works》。

5.7.1 摘要索引(以前称为链式索引)

摘要索引只是将节点存储为顺序链。在后续的检索和生成阶段,可以简单地顺序遍历所有节点,也可以基于关键词进行过滤。

5.7.2 树索引

树索引将一组节点 ( 文本块 ) 构建成具有层级的树状索引结构,其从叶节点 (原始文本块) 向上构建,每个父节点都是子节点的摘要。在检索阶段,既可以从根节点向下进行遍历,也可以直接利用根节点的信息。树索引提供了一种更高效地查询长文本块的方式,它还可以用于从文本的不同部分提取信息。与链式索引不同,树索引无需按顺序查询。

5.7.3 关键词表索引

关键词表索引从每个节点中提取关键词,构建了每个关键词到相应节点的多对多映射,意味着每个关键词可能指向多个节点,每个节点也可能包含多个关键词。在检索阶段,可以基于用户查询中的关键词对节点进行筛选。

5.7.4 向量索引

向量索引是当前最流行的一种索引方法。这种方法一般利用文本嵌入模型将文本块映射成一个固定长度的向量,然后存储在向量数据库中。检索的时候,对用户查询文本采用同样的Embedding模型映射成向量,然后基于向量相似度计算获取最相似的一个或者多个节点。

5.8 排序和后处理

经过前面的检索过程可能会得到很多相关文档,就需要进行筛选和排序。常用的筛选和排序策略包括:

  • 基于相似度分数进行过滤和排序
  • 基于关键词进行过滤,比如限定包含或者不包含某些关键词
  • 让 LLM 基于返回的相关文档及其相关性得分来重新排序
  • 基于时间进行过滤和排序,比如只筛选最新的相关文档
  • 基于时间对相似度进行加权,然后进行排序和筛选

6. 生成模型6.1 回复生成策略

检索模块基于用户查询检索出相关的文本块,回复生成模块让 LLM 利用检索出的相关信息来生成对原始查询的回复。这里给出一些不同的回复生成策略。

  • 一种策略是依次结合每个检索出的相关文本块,每次不断修正生成的回复。这样的话,有多少个独立的相关文本块,就会产生多少次的 LLM 调用。
  • 一种策略是在每次 LLM 调用时,尽可能多地在 Prompt 中填充文本块。如果一个 Prompt 中填充不下,则采用类似的操作构建多个 Prompt,多个 Prompt 的调用可以采用和前一种相同的回复修正策略。

6.2 prompt拼接策略

用于将提示的不同部分组合在一起。您可以使用字符串提示或聊天提示来执行此操作。以这种方式构建提示可以轻松地重用组件。

6.2.1 字符串提示

使用字符串提示时,每个模板都会连接在一起。您可以直接使用提示或字符串(列表中的第一个元素必须是提示)。例如,langchain提供的prompttemplate。

6.2.2 聊天提示

聊天提示由消息列表组成。纯粹为了开发人员体验,我们添加了一种便捷的方式来创建这些提示。在此管道中,每个新元素都是最终提示中的一条新消息。例如,langchain提供的AIMessage, HumanMessage, SystemMessage。

7. 插件(Demonstration Retriever for In-Context Learning,基于演示检索的上下文学习)

上下文学习(In-Context learning)是一种新兴的范式,它是指通过给定一些示范性的输入-输出对(示例),在不更新模型参数的情况下实现对给定测试输入的预测。它独特的无需更新参数能力使得上下文学习的方法可以通过一个语言模型的推理,来统一各种自然语言处理任务,这使其成为监督式微调的一个有前途的替代方案。

虽然,这种方法在各种自然语言处理的任务中都表现不错,但它的表现依赖给定的示范性输入-输出对。在模型的prompt中为每个任务都指定示范性示例会影响prompt的长度,这导致每次调用大语言模型的成本增加,甚至超出模型的输入长度。因此,这带来一个全新的研究方向——基于演示检索的上下文学习。这类方法主要是通过文本(或语义)检索与测试输入在文本或语义上相似的候选示范性示例,将用户的输入与获得相似的示范性示例加入到模型prompt中作为模型的输入,则模型就可以给出正确的预测结果。然而,上述单一的检索策略使得召回率不高,造成示范性示例无法精准召回,致使模型的效果不佳。

为了解决上述问题,我们提出了一种基于混合演示检索的上下文学习方法。该方法充分考虑不同检索模型的优劣,提出一种融合算法,通过利用文本检索(例如,BM25和TF-IDF)和语义检索(例如,OpenAI embedding-ada和sentence-bert)进行多路召回,解决单路召回率不高的问题。然而,这带来全新的挑战,即如何将不同的召回结果进行融合。这是由于不同检索算法分数范围不匹配,例如,文本检索分数通常在 0 和某个最大值之间(这具体取决于查询的相关性);而语义搜索(例如,余弦相似度)生成 0 到 1 之间的分数,这使得直接对召回结果进行排序变得很棘手。因此,我们又提出一种基于倒序排序融合算法(Reciprocal Rank fusion)的重排方法,该算法在不需要调整模型的情况下,利用位置来组合不同检索算法的结果,同时,考虑到大模型对相关信息出现在输入上下文的开头或结尾时,性能往往最高,设计重排算法,从获得高质量的融合结果。

具体的模型架构如下图所示,它包括检索模块、重排模块和生成模块。

7.1 检索模块

检索模块又分为文本检索和语义检索。

语义检索采用双塔模型,用OpenAI的embedding-ada作为表征模型,分别对用户的输入和每个任务的候选示例进行表征,获取语义向量,之后利用k-近邻算法(K-Nearest Neighbor,KNN)计算语义相似度,并依据相似度对候选结果进行排序。其中,对于每个任务的候选示例我们采用离线表征,并将其存入向量数据库中,这是因为一旦任务确认,每个任务的候选示例是固定不变的。而对于用户的输入,我们采用实时表征,提高计算效率,这是因为用户的输入是多样的、不固定的。

文本检索,我们先是对每个任务的候选示例进行文本预处理,去除掉停用词、特殊符号等。同时,在文本检索中采用倒排索引的技术加速查询,并利用BM25计算文本相似度,最后按相似度进行排序。

7.2 重排模块

对于重排模块,我们提出了一种基于倒序排序融合的重排算法。该方法先是为了解决不同召回算法的分数范围不匹配的问题,我们引入倒序排序融合算法,对多路的召回结果进行融合排序。虽然倒序排序融合算法可以很好将多路召回进行融合排序,但是这种排序无法满足大模型具有对相关信息出现在输入上下文的开头或结尾时性能最高的特性。这使得简简单单的利用倒序排序融合进行输出,效果不好。因此,我们在此基础之上对融合排序后的结果进行重排,排序策略是依据融合排序后的结果进行两端填充排序。例如,原本的顺序为[1,2,3,4,5],进行重排后的顺序为[1,3,5,4,2]。

7.3 生成模块

生成模块可以生成富有创意且连贯的文本,它旨在根据给定的Prompt或上下文生成新内容,这里我们设计了prompt组装模块,通过将系统prompt与检索到相关信息进行组合。此外,还在组装模块中融入长期对话记录和短期对话记录进行prompt封装。

  1. 引用或归因(attribution)生成

8.1 什么是引用或归因

在RAG 的知识问答场景下,随着越来越多的文档、网页等信息被注入应用中,越来越多开发者意识到信息来源的重要性,它可以让模型生成的内容能够与参考信息的内容作出对齐,提供证据来源,确保信息准确性,使得大模型的回答更加真实。

这里为了统一,在之后的文章中用“归因”特指“引用或归因”。

8.2 归因的作用

用户角度:能够验证模型的回答是否靠谱。模型角度:提高准确性并减少幻觉。

8.3 如何实现归因

8.3.1 模型生成

直接让模型生成归因信息。可在Prompt 添加类似“每个生成的证据都需在参考信息中进行引用”的话。这种方法最简单,但也对模型的指令遵循能力要求较高,一般会采用GPT-4 回答,或者微调模型让模型学习在生成时附带引用的回答方式。缺点也很明显,极度依赖模型的能力(甚至可能引用也是编的),且针对实际场景中出现的badcase 修复周期长,干预能力弱。

8.3.2 动态计算

在模型生成的过程中进行引用信息的附加。具体的操作为在流式生成的场景下,对生成的文本进行语义单元的判断(比如句号,换行段落等),当出现一个完整的语义单元时,将该语义单元和参考信息中的每个参考源进行匹配(关键字,embedding等),通过卡阈值的办法找到Top-N 的参考源,从而将参考源进行附加返回。这种方法的实现相比方法一简单了很多,badcase 修复周期也短,但受限于匹配方式和阈值,且存在一个前提假设:模型的生成文本来源于参考信息。

更多关于归因研究的工作可以参考:A Survey of Large Language Models Attribution 或 LLM+RAG 中关于回答片段归因的讨论

9. 评估

做开发的同学不管用没用过,对 TDD(Test-Driven Development)的大名总归是听过的,类似的,开发大模型应用的时候也应该有个对应的 MDD(Metrics-Driven Development) 的概念,最舒服的姿势肯定是预先定义好业务的场景、用到的数据、设定的指标以及需要达到的分值,然后按部就班的实现既定目标,员工士气高老板也开心!

但理想和现实之间总是如此纠缠,对大部分的大模型开发任务来讲,更常见的情况是场景定义不清楚,数据光清洗就累死三军,至于需要的指标和目标?想都没想过!这一次,我们来补上本应该在最最开始的就考虑的,大模型应用如何量化业务指标,具体的,如何量化的证明,你的 RAG 就是比隔壁老王他们组的牛?到底该拿哪些量化的指标去说服同行?

影响RAG系统性能的几个方面:

  • 位置偏见:LLMs 有可能对文本中特定位置的内容给予更高的关注,比如位于段落开头和结尾的内容更容易被采纳。
  • 检索内容相关性:由于query的表达多样性,使得RAG系统可能检索到不相关的内容,这种不相关的内容为LLMs理解带来噪音,增加模型的负担。

9.1 评测指标

  • Faithfulness是指用于评测生成的回答是否忠实于contexts,这对于避免幻觉并确保检索到的上下文可以作为生成答案的理由非常重要。
  • Answer Relevance是指的生成的答案应解决所提供的实际问题。
  • Context Relevance是指检索的上下文应重点突出,尽可能少地包含无关信息。理想情况下,检索到的上下文应该只包含处理所提供查询的基本信息。包含的冗余信息越少,context_relevancy越高。

9.2 评测方法

9.2.1 RGB(Benchmarking Large Language Models in Retrieval-Augmented Generation)

这一工作系统地研究了检索增强生成对大型语言模型的影响。它分析了不同大型语言模型在RAG所需的4项基本能力方面的表现,包括噪声鲁棒性、拒答、信息整合和反事实鲁棒性,并建立了检索增强生成基准。此外,现在做RAG都是做的pipeline,涉及到切块、相关性召回、拒答等多个环节,每个环节都可以单独做评测,文中提到的4个能力其实可以影射到每个环节当中。

9.2.2 RAGAS(RAGAS: Automated Evaluation of Retrieval Augmented Generation)

该工作提出了一种对检索增强生成(RAG)pipeline进行无参考评估的框架。该框架考虑检索系统识别相关和重点上下文段落的能力, LLM以忠实方式利用这些段落的能力,以及生成本身的质量。目前,该方法已经开源,具体可以参见github:GitHub - exploding gradients/ragas: Evaluation framework for your Retrieval Augmented Generation (RAG) pipelines

9.2.3 Llamalindex-Evaluating

LlamaIndex提供了衡量生成结果质量的关键模块。同时,还提供关键模块来衡量检索质量。

10. 总结

LLM这一波,催生的技术真的很多,每一个环节,要真正做好,符合企业应用,都可以让我们研究好长一段时间,并需要不断去实践,才能打磨出精品。本文总结了过去一年在RAG实践的关键模块,希望本文总结对大家有一定的帮助。此外,本文还属于大模型应用——RAG的一个大纲式的技术普及文章,这里面的很多技术细节,我们会在后面一篇篇专门来写。可以让我们研究好长一段时间,并需要不断去实践,才能打磨出精品。但是如果打磨出精品,你肯定可以摘取新技术带来的果实。本文可能还是属于大模型应用——RAG的一个大纲式的技术普及文章,这里面的很多技术细节,我们会在后面一篇篇专门来写。

#EMMA

Waymo玩明白了!全新多模态端到端算法EMMA:规划、感知、静态元素一网打尽~

本文介绍了EMMA,一种用于自动驾驶的端到端多模态模型。EMMA建立在多模态大型语言模型的基础上,将原始摄像头传感器数据直接映射到各种特定于驾驶的输出中,包括规划者轨迹、感知目标和道路图元素。EMMA通过将所有非传感器输入(如导航指令和自车状态)和输出(如轨迹和3D位置)表示为自然语言文本,最大限度地利用了预训练的大型语言模型中的世界知识。这种方法允许EMMA在统一的语言空间中联合处理各种驾驶任务,并使用任务特定的提示为每个任务生成输出。根据经验,我们通过在nuScenes上实现最先进的运动规划性能以及在Waymo开放运动数据集(WOMD)上取得有竞争力的结果来证明EMMA的有效性。EMMA还为Waymo开放数据集(WOD)上的相机主3D目标检测提供了有竞争力的结果。我们表明,将EMMA与规划器轨迹、目标检测和道路图任务联合训练,可以在所有三个领域取得进步,突显了EMMA作为自动驾驶应用的通用模型的潜力。然而,EMMA也表现出一定的局限性:它只能处理少量的图像帧,不包含激光雷达或雷达等精确的3D传感方式,计算成本很高。我们希望我们的研究结果能够激发进一步的研究,以缓解这些问题,并进一步发展自动驾驶模型架构的最新技术。

总结来说,本文的主要贡献如下:

  • EMMA在端到端运动规划方面表现出色,在公共基准nuScenes上实现了最先进的性能,在Waymo开放运动数据集(WOMD)上取得了有竞争力的结果。我们还表明,通过更多的内部训练数据和思维链推理,我们可以进一步提高运动规划质量。
  • EMMA展示了各种感知任务的竞争结果,包括3D目标检测、道路图估计和场景理解。在相机主Waymo开放数据集(WOD)上,EMMA在3D物体检测方面比最先进的方法具有更好的精度和召回率。
  • 我们证明了EMMA可以作为自动驾驶领域的多面手模型,为多个与驾驶相关的任务联合生成输出。特别是,当EMMA与运动规划、目标检测和道路图任务共同训练时,它的性能可以与单独训练的模型相匹配,甚至超过单独训练模型的性能。
  • 最后,我们展示了EMMA在复杂的长尾驾驶场景中推理和决策的能力。

尽管有这些SOTA的结果,但EMMA并非没有局限性。特别是,它面临着现实世界部署的挑战,原因是:(1)由于无法将相机输入与LiDAR或雷达融合,3D空间推理受到限制,(2)需要真实且计算昂贵的传感器仿真来为其闭环评估提供动力,以及(3)相较于传统模型,计算要求增加。我们计划在未来的工作中更好地理解和应对这些挑战。

详解EMMA

图片

EMMA建立在Gemini之上,Gemini是谷歌开发的MLLM家族。我们利用经过训练的自回归Gemini模型来处理交错的文本和视觉输入,以产生文本输出:

图片

如图1所示,我们将自动驾驶任务映射到基于Gemini的EMMA公式中。所有传感器数据都表示为拼接图像或视频V;所有路由器命令、驱动上下文和任务特定提示都表示为T;所有输出任务都以语言输出O的形式呈现。一个挑战是,许多输入和输出需要捕获3D世界坐标,例如用于运动规划的航路点BEV(鸟瞰图)位置(x,y)以及3D框的位置和大小。我们考虑两种表示方式:第一种是直接将文本转换为浮点数,表示为。RT-2在机器人控制中举例说明了这种方法。第二种方法使用特殊的标记来表示每个位置或动作,表示为,分辨率由学习或手动定义的离散化方案确定。MotionLM利用这种方法进行运动预测。我们注意到,这两种方法各有优缺点。我们选择文本表示,这样所有任务都可以共享相同的统一语言表示空间,并且它们可以最大限度地重用预训练权重中的知识,即使文本表示可能比专门的标记化产生更多的标记。​

End-to-End Motion Planning

EMMA采用统一的端到端训练模型,直接从传感器数据生成自动驾驶汽车的未来轨迹。然后,这些生成的轨迹被转化为特定于车辆的控制动作,如自动驾驶车辆的加速和转弯。EMMA的端到端方法旨在仿真人类驾驶行为,重点关注两个关键方面:(1)第一,使用导航系统(如谷歌地图)进行路线规划和意图确定;(2)第二,利用过去的行动来确保平稳、一致的驾驶。

们的模型结合了三个关键输入,以与这些人类驾驶行为保持一致:

  1. 环视视频(V):提供全面的环境信息。
  2. 高级意图命令(Tintent):源自路由器,包括“直行”、“左转”、“右转”等指令。
  3. 历史自车状态集(Tego):表示为鸟瞰图(BEV)空间中的一组航路点坐标。所有航路点坐标都表示为纯文本,没有专门的标记。这也可以扩展到包括更高阶的自我状态,如速度和加速度。

该模型为运动规划生成未来轨迹,表示为同一BEV空间中自车的一组未来轨迹航路点:表示未来Tf时间戳,其中所有输出航路点也表示为纯文本。将所有内容放在一起,完整的公式表示为:

图片

然后,我们使用此公式对Gemini进行微调,以生成端到端的规划器轨迹,如图1所示。我们强调了这种配方的三个特点:

  1. 自监督:唯一需要的监督是自车的未来位置。不需要专门的人类标签。
  2. 仅限摄像头:所需的唯一传感器输入是全景摄像头。
  3. 无高清地图:除了谷歌地图等导航系统的高级路线信息外,不需要高清地图。

2.2 Planning with Chain-of-Thought Reasoning

思维链提示是MLLM中的一个强大工具,可以增强推理能力并提高可解释性。在EMMA中,我们通过要求模型在预测最终未来轨迹航路点Otrajectory的同时阐明其决策原理Orationale,将思维链推理纳入端到端规划器轨迹生成中。

我们按层次结构构建驱动原理,从4种粗粒度信息到细粒度信息:

  • R1:场景描述广泛地描述了驾驶场景,包括天气、时间、交通状况和道路状况。例如:天气晴朗,阳光明媚,现在是白天。这条路是四车道不可分割的街道,在中间有人行横道。街道两边都停着汽车。
  • R2:关键目标是可能影响自车驾驶行为的道路代理,我们要求模型识别其精确的3D/BEV坐标。例如:行人位于[9.01,3.22],车辆位于[11.58,0.35]。
  • R3:关键目标的行为描述描述了已识别关键目标的当前状态和意图。一个具体的例子如下:行人目前正站在人行道上,朝着路看,也许正准备过马路。这辆车目前在我前方,朝着同一个方向行驶,它的未来轨迹表明它将继续笔直行驶。
  • R4:元驾驶决策包括12类高级驾驶决策,总结了之前观察到的驾驶计划。一个例子是,我应该保持目前的低速。

我们强调,驱动原理说明是使用自动化工具生成的,没有任何额外的人工标签,确保了数据生成管道的可扩展性。具体来说,我们利用现成的感知和预测专家模型来识别关键代理,然后使用精心设计的视觉和文本提示的Gemini模型来生成全面的场景和代理行为描述。元驾驶决策是使用分析自车地面真实轨迹的启发式算法计算的。

在训练和推理过程中,该模型在预测未来的航路点之前预测了驾驶原理的所有四个组成部分,即:

图片

EMMA Generalist

虽然端到端的运动规划是最终的核心任务,但全面的自动驾驶系统需要额外的功能。具体来说,它必须感知3D世界,识别周围的物体、道路图和交通状况。为了实现这一目标,我们将EMMA制定为一种多面手模型,能够通过混合训练来处理多种驾驶任务。

我们的视觉语言框架将所有非传感器输入和输出表示为纯文本,提供了整合许多其他驾驶任务所需的灵活性。我们采用指令调优(LLM中一种成熟的方法)来联合训练所有任务以及方程1的输入T中包含的任务特定提示。我们将这些任务分为三大类:空间推理、道路图估计和场景理解。图2显示了整个EMMA概化图。

图片

空间推理是理解、推理和得出关于物体及其在空间中的关系的结论的能力。这使得自动驾驶系统能够解释周围环境并与之交互,以实现安全导航。

我们空间推理的主要重点是3D目标检测。我们遵循Pix2Seq,将输出的3D边界框表示为Oboxes。我们通过写两位小数的浮点数将7D框转换为文本,每个维度之间用空格隔开。然后,我们使用固定提示Tdetect_3D表示检测任务,例如“检测3D中的每个目标”,如下所示:

图片

道路图估计侧重于识别安全驾驶的关键道路元素,包括语义元素(如车道标记、标志)和物理属性(如车道曲率)。这些道路元素的集合形成了一个道路图。例如,车道段由(a)节点表示,其中车道遇到交叉口、合并或分割,以及(b)这些节点之间沿交通方向的边缘。完整的道路图由许多这样的折线段组成。

虽然每条折线内的边是有方向的,但每条折线相对于其他元素不一定有唯一的顺序。这与目标检测相似,其中每个框由有序属性(左上角、右下角)定义,但框之间不一定存在相对顺序。已有数篇研究使用Transformers对折线图进行建模,与语言模型有相似之处。

我们在EMMA中的一般建模公式如下:

图片

本文特别关注预测可行驶车道,即自车在场景中可以行驶的车道。这些是同一交通方向上的相邻车道和从当前自我车道分叉的车道。为了构建Oroadgraph,我们(a)将车道转换为有序的航路点集,(b)将这些航路点集转换为文本。使用样本排序的航路点来表示交通方向和曲率是有益的。与检测一样,我们还发现按近似距离对车道进行排序可以提高预测质量。我们的折线文本编码的一个例子是:“(x1,y1和…以及xn,yn);…”其中“x,y”是精度为小数点后2位的浮点航点,“;”分隔折线实例。

场景理解任务测试模型对整个场景上下文的理解,这可能与驾驶有关。例如,道路可能会因施工、紧急情况或其他事件而暂时受阻。及时检测这些障碍物并安全绕过它们对于确保自动驾驶汽车的平稳安全运行至关重要;然而,需要场景中的多个线索来确定是否存在堵塞。我们使用以下公式重点研究我们的模型在这个临时堵塞检测任务中的表现:

图片

Generalist Training

我们统一的视觉语言公式能够使用单个模型同时训练多个任务,允许在推理时通过任务提示Ttask的简单变化进行特定任务的预测。训练方式既简单又灵活。

实验结果表明,在多个任务中训练的通才模型明显优于在单个任务上训练的每个专家模型。这突出了通才方法的优势:增强了知识转移,提高了泛化能力,提高了效率。​

实验结果

图片

图片

图片

图片

图片

图片

我们在图8、9和10中展示了12个不同的视觉示例,每个示例都是为了突出EMMA模型在一系列场景中的通用性。在所有场景中,我们显示模型的预测(从左到右):端到端运动规划、3D目标检测和道路图估计。

我们按场景类型对视觉示例进行分组:示例(a)-(d)展示了EMMA如何安全地与路上罕见、看不见的物体或动物互动。示例(e)-(f)的特点是EMMA在施工区域导航。示例(g)-(j)展示了EMMA在有交通信号灯或交通管制员的十字路口遵守交通规则的情况。示例(k)-(l)强调了EMMA尊重摩托车手等弱势道路使用者。

鉴于这些示例,我们展示了EMMA的以下功能:

  • 泛化能力:能够很好地适应不同环境中的各种现实驾驶场景,并关注其微调类别之外的目标,如松鼠。
  • 预测性驾驶:主动适应其他道路使用者的行为,实现安全平稳的驾驶。
  • 避障:持续调整轨迹,避开障碍物、碎片和堵塞的车道。
  • 适应性行为:安全地处理复杂的情况,如屈服、施工区和遵循交通管制信号。
  • 精确的3D检测:有效识别和跟踪道路代理人,包括车辆、骑自行车的人、摩托车手和行人。
  • 可靠的道路图估计:准确捕捉道路布局,并将其整合到安全轨迹规划中。

总之,这些场景突出了EMMA在各种具有挑战性和多样性的驾驶场景和环境中安全高效运行的能力。

图片

图片

图片

限制、风险和缓解措施

在前面的部分中,我们在nuScenes规划基准上展示了最先进的端到端运动规划。我们还在WOD规划基准上实现了端到端的运动规划和WOD上的相机主3D检测的竞争性能。此外,我们的通才设置通过联合训练提高了多项任务的质量。尽管取得了这些有希望的结果,但我们承认我们工作的局限性,并提出了在此基础上进一步发展和在未来研究中应对这些挑战的方向。

内存和视频功能:目前,我们的模型只处理有限数量的帧(最多4帧),这限制了它捕获驾驶任务所必需的长期依赖关系的能力。有效的驾驶不仅需要实时决策,还需要在更长的时间范围内进行推理,依靠长期记忆来预测和应对不断变化的场景。增强模型执行长期推理的能力是未来研究的一个有前景的领域。这可以通过集成存储模块或扩展其高效处理较长视频序列的能力来实现,从而实现更全面的时间理解。

扩展到激光雷达和雷达输入:我们的方法严重依赖于预训练的MLLM,这些MLLM通常不包含激光雷达或雷达输入。扩展我们的模型以集成这些3D传感模式带来了两个关键挑战:1)可用相机和3D传感数据量之间存在显著不平衡,导致与基于相机的编码器相比,3D传感编码器的通用性较差。2) 3D传感编码器的发展尚未达到基于相机的编码器的规模和复杂程度。解决这些挑战的一个潜在解决方案是使用与相机输入仔细对齐的数据对大规模3D传感编码器进行预训练。这种方法可以促进更好的跨模态协同作用,并大大提高3D传感编码器的泛化能力。

预测驾驶信号的验证:我们的模型可以直接预测驾驶信号,而不依赖于中间输出,如物体检测或道路图估计。这种方法给实时和事后验证带来了挑战。我们已经证明,我们的多面手模型可以联合预测额外的人类可读输出,如目标和道路图元素,并且可以用思维链驱动原理进一步解释驾驶决策。然而,尽管经验观察表明这些输出通常确实是一致的,但不能保证它们总是一致的。此外,额外的输出会给部署带来巨大的运行时延迟开销。

闭环评估的传感器仿真:人们普遍认为,开环评估可能与闭环性能没有很强的相关性。为了在闭环环境中准确评估端到端的自动驾驶系统,需要一个全面的传感器仿真解决方案。然而,传感器仿真的计算成本通常比行为仿真器高几倍。除非进行大量优化,否则这种巨大的成本负担可能会阻碍端到端模型的彻底测试和验证。

车载部署的挑战:自动驾驶需要实时决策,由于推理延迟增加,在部署大型模型时面临重大挑战。这就需要优化模型或将其提炼成适合部署的更紧凑的形式,同时保持性能和安全标准。实现模型尺寸、效率和质量之间的微妙平衡对于自动驾驶系统在现实世界中的成功部署至关重要,也是未来研究的关键领域。​

结论

在本文中,我们提出了EMMA,一种基于Gemini的自动驾驶端到端多模式模型。它将双子座视为一等公民,并将自动驾驶任务重新定义为视觉问答问题,以适应MLLM的范式,旨在最大限度地利用双子座的世界知识及其配备思维链工具的推理能力。与具有专门组件的历史级联系统不同,EMMA直接将原始摄像头传感器数据映射到各种特定于驾驶的输出中,包括规划轨迹、感知目标和道路图元素。所有任务输出都表示为纯文本,因此可以通过任务特定的提示在统一的语言空间中联合处理。实证结果表明,EMMA在多个公共和内部基准和任务上取得了最先进或具有竞争力的结果,包括端到端的规划轨迹预测、相机主要3D目标检测、道路图估计和场景理解。我们还证明,单个联合训练的EMMA可以联合生成多个任务的输出,同时匹配甚至超越单独训练的模型的性能,突出了其作为许多自动驾驶应用的多面手模型的潜力。

虽然EMMA显示出有希望的结果,但它仍处于早期阶段,在机载部署、空间推理能力、可解释性和闭环仿真方面存在挑战和局限性。尽管如此,我们相信我们的EMMA发现将激发该领域的进一步研究和进展。

#MVGS

3DGS优化神器 | 理想汽车提出MVGS:利用多视图一致性暴力涨点!

最近在体渲染方面的工作,例如NeRF和3GS,在学习到的隐式神经辐射场或3D高斯分布的帮助下,显著提高了渲染质量和效率。在演示表示的基础上进行渲染,vanilla 3DGS及其变体通过优化参数模型,在训练过程中每次迭代都进行单视图监督,从而提供实时效率,这是NeRF采用的。因此某些视图过拟合,导致新视角合成和不精确的3D几何中的外观不令人满意。为了解决上述问题,我们提出了一种新的3DGS优化方法,该方法体现了四个关键的新贡献:1)我们将传统的单视图训练范式转化为多视图训练策略。通过我们提出的多视图调节,3D高斯属性得到了进一步优化,而不会过拟合某些训练视图。作为通用解决方案,我们提高了各种场景和不同高斯变体的整体精度。2)受其他视角带来的好处的启发,我们进一步提出了一种跨内参指导方法,从而针对不同分辨率进行了从粗到细的训练过程。3)基于我们的多视图训练,进一步提出了一种交叉射线高斯split&clone策略,从一系列视图中在射线交叉区域优化高斯核。4) 通过进一步研究致密化策略,我们发现当某些视角明显不同时,densification的效果应该得到增强。作为一种解决方案,我们提出了一种新的多视图增强致密化策略,其中鼓励3D高斯模型相应地被致密化到足够的数量,从而提高了重建精度。我们进行了广泛的实验,以证明我们提出的方法能够改进基于高斯的显式表示方法的新视图合成,其峰值信噪比约为1 dB,适用于各种任务。

  • 项目主页:https://xiaobiaodu.github.io/mvgs-project/

总结来说,本文的主要贡献如下:

  • 首先提出了一种多视图调节训练策略,该策略可以很容易地适应现有的单视图监督3DGS框架及其变体,这些变体针对各种任务进行了优化,可以持续提高NVS和几何精度。
  • 受不同外参下的多视图监督带来的好处的启发,提出了一种交叉内参指导方法,以从粗到细的方式训练3D高斯人。因此3D高斯分布可以与像素局部特征保持更高的一致性。
  • 由于致密化策略对3DGS至关重要,我们进一步提出了一种交叉射线致密化策略,在2D loss图引导下发射射线,并对重叠的3D区域进行致密化。这些重叠区域中的致密三维高斯分布有助于多个视图的拟合,提高了新型视图合成的性能。
  • 最后但同样重要的是,我们提出了一种多视图增强致密化策略,在多视图差异显著的情况下加强致密化。它确保了3D高斯分布可以被充分稠密,以很好地适应急剧变化的多视图监督信息。
  • 总之大量实验表明,我们的方法是现有基于高斯的方法的通用优化解决方案,可以将各种任务的新视图合成性能提高约1 dB PSNR,包括静态对象或场景重建和动态4D重建。

MVGS方法介绍

高斯散射最近被提出用于实时新颖的视图合成和高保真3D几何重建。高斯散射不是使用NeRF中的密度场和NeuS中的SDF等隐式表示,而是利用一组由其位置、颜色、协方差和不透明度组成的各向异性3D高斯来参数化场景。与NeRF和NeuS等先前的方法相比,这种显式表示显著提高了训练和推理效率。在渲染过程中,高斯散斑还采用了NeRF之后的基于点的体绘制技术。如图2(a)所示,由于其点采样策略和隐式表示,NeRF在训练迭代中无法接收多视图监督。通过沿光线r(p,E,K)混合一组3D高斯分布,计算具有相机外部函数E和内部函数K的图像中每个像素p的视图相关辐射C。虽然NeRF与辐射场中采样器指定的点近似混合,但3DGS通过沿光线r用N个参数化内核进行光栅化来精确渲染。

图片

多视角调节训练

给定T对GT图像I及其相应的相机外部函数E和内部函数K,3DGS的目标是重建由多视图立体数据描述的3D模型。在训练策略方面,3DGS遵循NeR的惯例,通过每次迭代的单视图监督来优化参数模型。关于训练,3DGS通常通过每次迭代的单一信息视图进行监督来优化,其中一次迭代中的监督被随机选择为(Ii,Ei,Ki)。因此,原始3DGS的损失函数可以相应地公式化为:

图片

考虑到隐式表示(如NeRF)依赖于预训练的采样器来近似最自信的混合点,每次迭代的多视图监督并不能确保对单视图训练的改进,特别是当采样器没有如图2(a)所示经过训练时。另一方面,明确定义的高斯核不依赖于采样器来分配,如图2(b)所示,这使得我们提出的多视图训练策略适用于图2(c)所示的情况,其中G中的大多数混合核可以用多视图加权梯度反向传播,以克服某些视角的过拟合问题。

与原始的单视图迭代训练不同,我们提出了一种多视图调节训练方法,以多视图监督的方式优化3D高斯分布。特别是,我们在迭代中对M对监督图像和相机参数进行采样。请注意,M组匹配的图像和相机参数被采样并且彼此不同。因此,我们提出的梯度积分单次迭代中的多视图调节学习可以表示为:

图片

与原始3DGS损失的唯一区别是,我们提出的方法为优化一组3D高斯G提供了梯度的多视图约束。这样优化每个高斯核gi可能会受到多视图信息的调节,从而克服某些视图的过拟合问题。此外,多视图约束使3D高斯人能够学习和推断与视图相关的信息,如图4左侧突出显示的反射,因此我们的方法可以在反射场景的新颖视图合成中表现良好。​

跨内参指导

如图2底部所示,受图像金字塔带来的好处的启发,我们提出了一种从粗到细的训练方案,通过简单地补充更多的光栅化平面,使用不同的相机设置,即内在参数K。具体而言,如图2(d)所示,通过简单地重新配置焦距fk和K中的主点ck,可以构建具有下采样因子S的4层图像金字塔。根据经验,设置sk为8足以容纳足够的训练图像进行多视图训练,因子sk等于1意味着不应用下采样操作。对于每一层,我们都匹配了多视图设置。特别是,较大的下采样因子能够容纳更多的视图,从而提供更强的多视图约束。在最初的三个训练阶段,我们每个阶段只运行几千次迭代,而没有完全训练模型。由于目标图像是降采样的,因此模型在这些早期阶段无法捕捉到精细的细节。因此,我们将前三个训练阶段视为粗训练。在粗略训练期间,合并更多的多视图信息会对整个3D高斯模型施加更强大的约束。在这种情况下,丰富的多视图信息为整个3DGS提供了全面的监控,并鼓励快速拟合粗糙的纹理和结构。一旦粗略的训练结束,精细的训练就开始了。由于之前的粗略训练阶段提供了3DGS的粗略架构,精细训练阶段只需要为每个3D高斯模型细化和雕刻精细细节。特别是,粗训练阶段提供了大量的多视图约束。它将学习到的多视图约束传递给下一次精细训练。该方案有效地增强了多视图约束,进一步提高了新颖的视图合成性能。​

跨射线稠密化

由于体渲染的性质和3DGS的显式表示,某些区域的3D高斯分布在渲染时对不同的视图有重大影响。例如在以不同姿态拍摄中心的相机进行渲染时,中心3D高斯分布至关重要。然而找到这些区域并非易事,尤其是在3D空间中。如图2所示,我们提出了一种交叉射线致密化策略,从2D空间开始,然后在3D中自适应搜索。具体来说,我们首先计算多个视图的损失图,然后使用大小为(h,w)的滑动窗口定位包含最大平均损失值的区域。之后,我们从这些区域的顶点投射光线,每个窗口有四条光线。然后,我们计算不同视角光线的交点。由于我们每个视角投射四条光线,交点可以形成几个长方体。这些长方体是包含重要3D高斯分布的重叠区域,在渲染多个视图时起着重要作用。因此,我们在这些重叠区域中加密了更多的3D高斯分布,以促进多视图监督的训练。该策略依赖于对包含对多个视图具有高意义的3D高斯分布的重叠区域的精确搜索。首先,我们选择损失指导,因为它突出了每个视图应该改进的最低质量区域。其次,光线投射技术使我们能够定位包含一组对这些视图有重大贡献的3D高斯分布的3D区域。基于精确的位置,这些区域中的3D高斯分布可以被视为多视图联合优化的关键。通过这种方式,我们将这些3D高斯图像加密到一定程度,以共同提高这些视图的重建性能。​

多视图增强稠密化

为了在不同视图之间的差异显著时获得快速收敛、避免局部最小值并学习细粒度高斯核,我们提出了一种多视图增强致密化策略。具体来说,我们的策略建立在原始3DGS的致密化策略的基础上,使用预定义的阈值β来确定哪些3D高斯应被致密化。如图2所示,我们首先确定训练视图是否非常不同。我们没有直接使用原始的相机平移,而是将采样视图的相机平移归一化为一个单位球体。这种方法使我们的策略能够适应各种场景。然后,计算每个相机和另一个相机之间的相对平移距离,其中距离n的数量为,假设我们有M个训练视图。在我们的多视图增强致密化中,我们有一个自适应标准,可以公式化为:

图片

实验结果

结论

在这项工作中,我们提出了MVGS,这是一种新颖而通用的方法,可以提高现有基于高斯的方法的新颖视图合成性能。MVGS的核心在于提出的多视图调节学习,约束了具有多视图信息的3D高斯优化。我们表明,我们的方法可以集成到现有的方法中,以实现最先进的渲染性能。我们进一步证明了我们提出的跨内禀制导方案引入了强大的多视图约束,以获得更好的结果。我们还证明了所提出的多视图增强致密化和交叉射线致密化在增强致密化以促进3D高斯优化方面的有效性。大量实验证明了我们方法的有效性,并表明我们的方法取得了最先进的新颖视图合成结果。

#DINOv2

计算机视觉领域的基础模型终于出现

使用 DINOv2 进行语义分割的示例(图1-1)

DINOv2 是 Meta AI 推出的一款计算机视觉模型,旨在提供一个基础模型,类似于自然语言处理领域已经普遍存在的基础模型。

在这篇文章中,我们将解释在计算机视觉中成为基础模型的意义,以及为什么 DINOv2 能够被视为这样的模型。

DINOv2 是一个非常大的模型(相对于计算机视觉领域),拥有十亿个参数,因此在训练和使用时会面临一些严峻的挑战。本文将回顾这些挑战,并介绍 Meta AI 的研究人员如何通过自监督学习和蒸馏技术克服这些问题。即使你不熟悉这些术语,也不用担心,我们会在后面解释。首先,让我们了解 DINOv2 提供了什么,使它成为计算机视觉领域的基础模型。

什么是基础模型?

在没有基础模型的时代,必须先找到或创建一个数据集,然后选择一种模型架构,并在该数据集上训练模型。你所需的模型可能非常复杂,训练过程可能很长或很困难。

基础模型出现之前的生活。适用于任何任务的专用模型。可能很复杂。(图2-1)

于是,DINOv2 出现了,这是一种预训练的大型视觉Transformer(ViT)模型,这是计算机视觉领域中一种已知的架构。它表明你可能不再需要一个复杂的专用模型。

例如,假设我们有一张猫的图片(下图左侧的那张)。我们可以将这张图片作为输入提供给 DINOv2。DINOv2 会生成一个数字向量,通常称为嵌入或视觉特征。这些嵌入包含对输入猫图片的深层理解,一旦我们获得这些嵌入,就可以将它们用于处理特定任务的小型模型中。例如,我们可以使用一个模型进行语义分割(即对图像中的相关部分进行分类),另一个模型估计图中物体的深度。这些输出示例来自 Meta AI 对 DINOv2 的演示。

DINOv2 作为基础模型(图2-2)

DINOv2 的另一个重要特性是,在训练这些任务特定的模型时,DINOv2 可以被冻结,换句话说,不需要进行微调。这大大简化了简单模型的训练和使用,因为 DINOv2 可以在图像上执行一次,输出结果可以被多个模型使用。与需要微调的情况不同,那样每个任务特定的模型都需要重新运行微调后的 DINOv2。此外,微调这样的大型模型并不容易,需要特定的硬件,而这种硬件并非人人都能使用。

训练下游任务模型时,DINOv2 可能会被冻结(图2-3)

如何使用DINOv2?

我们不会深入探讨代码,但如果你想使用 DINOv2,可以通过 PyTorch 代码简单加载它。以下代码来自 DINOv2 的 GitHub 页面。我们可以看到,有几种不同大小的模型版本可供加载,因此你可以根据自己的需求和资源选择合适的版本。即使使用较小版本,准确率的下降也不明显,尤其是使用中等大小的版本时,这非常有用。

如何生成不同版本的 DINOv2 模型,答案是通过蒸馏技术实现。(图3-1)

模型蒸馏

蒸馏指的是将一个大型训练模型的知识转移到一个新的小型模型中。令人有趣的是,在 DINOv2 中,研究人员通过这种方式得到了比直接训练小型模型更好的结果。具体方法是使用预训练的 DINOv2 教授新的小型模型,例如给定一张猫的图片,DINOv2 和小型模型都会生成嵌入,蒸馏过程会尽量减少两者生成嵌入的差异。需要注意的是,DINOv2 保持冻结,只有右侧的小型模型在发生变化。

这种方法通常被称为师生蒸馏,因为这里的左侧充当老师,右侧充当学生

DINOv2 师生蒸馏(图4-1)

在实践中,为了从蒸馏过程中获得更好的结果,我们不会只使用一个学生模型,而是同时使用多个学生模型。每个学生模型会接收相同的输入并输出结果。在训练过程中,所有学生模型的结果会进行平均,最终形成一个经过蒸馏的毕业模型。

最终的蒸馏模型是多个学生模型的平均值(图4-2)

在 DINOv2 中,模型的规模相比之前版本大幅增加,这就需要更多的训练数据。这引出了一个话题,即使用大规模精心整理的数据进行自监督学习。这种方法帮助模型无需大量的人工标注数据,依靠数据本身进行有效的学习,尤其适合像 DINOv2 这样的大模型训练需求。

利用大量精选数据进行自我监督学习

首先,什么是自监督学习?简单来说,它指的是我们的训练数据没有标签,模型只从图像中学习。第一版 DINO 也使用了自监督学习技术。没有数据标注是否会更容易增加训练数据的规模?然而,以前尝试通过自监督学习增加未经整理的数据规模,反而导致了质量下降。

在 DINOv2 中,研究人员构建了一个自动化流程,用来创建精心整理的数据集,帮助他们取得了相较其他自监督学习模型的最新成果。他们从 25 个数据来源中收集了 12 亿张图像,最终从中提取了 1.42 亿张图像用于训练。这种数据筛选策略提升了模型性能。

因此,这个流程包含多个过滤步骤。例如,在未经整理的数据集中,我们可能会找到大量猫的图片以及其他图像。如果直接在这些数据上训练,可能会导致模型在理解猫方面表现优异,但在泛化到其他领域时表现不佳。

因此,这个流程的其中一步是使用聚类技术,将图像根据相似性进行分组。然后,他们可以从每个组中抽取相似数量的图像,创建一个规模更小但更多样化的数据集。这种方法确保了数据的广泛代表性,避免模型过度专注于某些特定类别如猫的图像。

无标签数据管理(图5-1)

更好的像素级理解

使用自监督学习的另一个好处是对像素级别的理解更强。目前计算机视觉中常见的方法是使用文本引导的预训练。例如,一张猫的图片可能会附带类似“草地上一只白色小猫”的描述。这种方法结合了图像和文本信息,但自监督学习能够更深入地理解图像本身,而无需依赖文本标签。

然而,这类模型会将图像和文本一起作为输入,但描述文本可能会遗漏一些信息,例如猫在走路或图片中的小白花,这可能会限制模型的学习能力。

常见方法 - 文本引导图像(图6-1)

通过 DINOv2 和自监督学习,模型在像素级别信息的学习上展现了惊人的能力。例如,图片中的多个马匹,即使在不同图片中,或者图片中的马很小,DINOv2 都能将相同身体部位标注为相似的颜色,非常令人印象深刻。这展示了 DINOv2 对细节的深度理解能力。

通过自我监督学习对 DINOv2 进行像素级理解(图7-1)

#Mapper(建图)系列论文总结

文总结了自动驾驶Mapper(建图)系列论文,包含:矢量地图、先验地图、MapLess、HDMap、SDMap、众包建图、BEV、多视图、蒸馏、融合等领域,总计40篇论文,可作为科研、开发的参考资料。

1.Efficient/高效

MapLite

题目:MapLite: Autonomous Intersection Navigation Without a Detailed Prior Map

名称:MapLite:无需详细先验地图的自动交叉口导航

论文:https://ieeexplore.ieee.org/document/8936918

代码:

单位:MIT​

MapLite2.0

题目:MapLite 2.0: Online HD Map Inference Using a Prior SD Map

名称:MapLite 2.0:基于先前SD地图的在线高清地图推断

论文:https://ieeexplore.ieee.org/document/9807400

代码:

单位:MIT​

RoadMap

题目:RoadMap: A Light-Weight Semantic Map for Visual Localization towards Autonomous Driving

名称:RoadMap:面向自动驾驶视觉定位的轻量级语义图

论文:https://arxiv.org/abs/2106.02527

代码:

单位:华为

2.Priors/先验地图

P-MapNet

题目:P-MapNet: Far-seeing Map Generator Enhanced by both SDMap and HDMap Priors

名称:P-MapNet:SDMap和HDMap先验增强的远视图生成器

论文:https://arxiv.org/abs/2403.10521

代码:https://jike5.github.io/P-MapNet

单位:北京理工大学、清华​

PriorMapNet

题目:PriorMapNet: Enhancing Online Vectorized HD Map Construction with Priors

名称:PriorMapNet:利用Priors增强在线矢量化高清地图构建

论文:https://arxiv.org/abs/2408.08802

代码:

单位:北京理工大学、元戎启行​

MapNeRF

题目:MapNeRF: Incorporating Map Priors into Neural Radiance Fields for Driving View Simulation

名称:MapNeRF:将地图先验结合到神经辐射场中用于驱动视图模拟

论文:https://arxiv.org/abs/2307.14981

代码:

单位:百度​

NPN

题目:Neural Map Prior for Autonomous Driving

名称:自动驾驶的神经映射先验

论文:https://arxiv.org/abs/2304.08481

代码:

单位:清华&MIT&理想​

HPQuery

题目:Driving with Prior Maps: Unified Vector Prior Encoding for Autonomous Vehicle Mapping

名称:使用先验地图驾驶:自动驾驶汽车地图的统一矢量先验编码

论文:https://arxiv.org/abs/2409.05352

代码:

单位:阿里巴巴、西安交通大学

3.Vector/矢量地图

VectorMapNet

题目:VectorMapNet: End-to-end Vectorized HD Map Learning

名称:VectorMapNet:端到端矢量化高精地图学习

论文:https://arxiv.org/abs/2206.08920

代码:https://github.com/yuantianyuan01/streammapnet

单位:清华大学​

MapTR

题目:MapTR: Structured Modeling and Learning for Online Vectorized HD Map Construction

名称:MapTR:在线矢量化高精地图构建的结构化建模和学习

论文:https://arxiv.org/abs/2208.14437

代码:https://github.com/hustvl/MapTR

单位:华中科技大学、地平线​

MapTRv2

题目:MapTRv2: An End-to-End Framework for Online Vectorized HD Map Construction

名称:MapTRv2:在线矢量化高精地图构建的端到端框架

论文:https://arxiv.org/abs/2308.05736

代码:https://github.com/hustvl/MapTR

单位:华中科技大学、地平线​

InstaGraM

题目:InstaGraM: Instance-level Graph Modeling for Vectorized HD Map Learning

名称:InstaGraM:用于矢量化高精地图学习的实例级图建模

论文:https://arxiv.org/abs/2301.04470

代码:

单位:韩国科学技术院​

VAD

题目:VAD: Vectorized Scene Representation for Efficient Autonomous Driving

名称:VAD:用于高效自动驾驶的矢量化场景表示

论文:https://arxiv.org/abs/2303.12077

代码:https://github.com/hustvl/VAD

单位:华中科技大学、地平线​

BeMapNet

题目:End-to-End Vectorized HD-map Construction with Piecewise Bezier Curve

名称:使用分段贝塞尔曲线构建端到端矢量化高清地图

论文:https://arxiv.org/abs/2306.09700

代码:https://github.com/er-muyue/BeMapNet

单位:旷视科技​

MachMap

题目:MachMap: End-to-End Vectorized Solution for Compact HD-Map Construction

名称:MachMap:用于紧凑型高精地图构建的端到端矢量化解决方案

论文:https://arxiv.org/abs/2306.10301

代码:

单位:迈驰智行、西安交通大学​

MapVR

题目:Online Map Vectorization for Autonomous Driving: A Rasterization Perspective

名称:自动驾驶在线地图矢量化:光栅化视角

论文:https://arxiv.org/abs/2306.10502

代码:https://github.com/ZhangGongjie/MapVR

单位:黑芝麻​

InsightMapper

题目:InsightMapper: A Closer Look at Inner-instance Information for Vectorized High-Definition Mapping

名称:InsightMapper:仔细查看矢量化高清映射的内部实例信息

论文:https://arxiv.org/abs/2308.08543

代码:https://github.com/TonyXuQAQ/InsightMapper

单位:香港大学​

PivoNet

题目:PivotNet: Vectorized Pivot Learning for End-to-end HD Map Construction

名称:PivotNet:用于端到端高精地图构建的矢量化枢轴学习

论文:https://arxiv.org/abs/2308.16477

代码:

单位:旷视科技​

StreamMapNet

题目:StreamMapNet: Streaming Mapping Network for Vectorized Online HD Map Construction

名称:StreamMapNet:用于矢量化在线高精地图构建的流式测绘网络

论文:https://arxiv.org/abs/2308.12570

代码:https://github.com/yuantianyuan01/StreamMapNet

单位:清华大学​

GlobalMapNet

题目:GlobalMapNet: An Online Framework for Vectorized Global HD Map Construction

名称:GlobalMapNet:矢量化全球高清地图构建的在线框架

论文:https://arxiv.org/abs/2409.10063

代码:

单位:复旦大学​

SQD-MapNet

题目:Stream Query Denoising for Vectorized HD Map Construction

名称:矢量化高清地图构建中的流查询去噪

论文:https://arxiv.org/abs/2401.09112

代码:

单位:中科大、旷视科技​

MapQR

题目:Leveraging Enhanced Queries of Point Sets for Vectorized Map Construction

名称:利用点集的增强查询进行矢量化地图构建

论文:https://arxiv.org/abs/2402.17430

代码:https://github.com/HXMap/MapQR

单位:上海交大、香港中文大学、辉羲智能​

HRMapNet

题目:Enhancing Vectorized Map Perception with Historical Rasterized Maps

名称:利用历史栅格化地图增强矢量化地图感知

论文:https://arxiv.org/abs/2409.00620

代码:

单位:香港中文大学、辉羲智能​

ADMap

题目:ADMap: Anti-disturbance framework for vectorized HD map construction

名称:ADMap:矢量化高清地图构建的抗干扰框架

论文:https://arxiv.org/abs/2401.13172

代码:https://github.com/hht1996ok/ADMap

单位:零跑汽车、浙江大学

4.HDMap/高精地图

ExelMap

题目:ExelMap: Explainable Element-based HD-Map Change Detection and Update

名称:ExelMap:基于可解释元素的高清地图变化检测与更新

论文:https://arxiv.org/abs/2409.10178

代码:

单位:瑞典皇家理工学院​

HDMapNet

题目:HDMapNet: An Online HD Map Construction and Evaluation Framework

名称:HDMapNet:在线高精地图构建和评估框架

论文:https://arxiv.org/abs/2107.06307

代码:

单位:清华大学​

THMA

题目:THMA: Tencent HD Map AI System for Creating HD Map Annotations

名称:THMA:腾讯高精地图人工智能系统,用于创建高精地图标注

论文:https://dl.acm.org/doi/abs/10.1609/aaai.v37i13.26848

代码:

单位:腾讯

5.CSMap/众包建图

EdgeMap

题目:EdgeMap: CrowdSourcing High Definition Map in Automotive Edge Computing

名称:EdgeMap:汽车边缘计算中的众包高清地图

论文:https://arxiv.org/abs/2201.07973

代码:

单位:内布拉斯加林肯大学、西安电子科技大学​

MRVF-HDMap

题目:HD Map Generation from Noisy Multi-Route Vehicle Fleet Data on Highways with Expectation Maximization

名称:利用期望最大化的高速公路上嘈杂的多路线车队数据生成高清地图

论文:https://arxiv.org/abs/2305.02080

代码:

单位:德国信息技术研究中心​

CenterLineDet

题目:CenterLineDet: CenterLine Graph Detection for Road Lanes with Vehicle-mounted Sensors by Transformer for HD Map Generation

名称:CenterLineDet:利用车载传感器通过 Transformer 进行道路车道中心线图检测,生成高清地图

论文:https://arxiv.org/abs/2209.07734

代码:https://tonyxuqaq.github.io/projects/CenterLineDet/

单位:香港科技大学

6.MultiView/多视图

MV-Map

题目:MV-Map: Offboard HD-Map Generation with Multi-view Consistenc

名称:MV-Map:具有多视图一致性的非车载高清地图生成

论文:https://arxiv.org/abs/2305.08851

代码:

单位:复旦大学

7.BEV/鸟瞰图

Mask2Map

题目:Mask2Map: Vectorized HD Map Construction Using Bird's Eye View Segmentation Masks

名称:Mask2Map:使用鸟瞰分割掩模构建矢量化高清地图

论文:https://arxiv.org/abs/2407.13517

代码:https://github.com/SehwanChoi0307/Mask2Map

单位:汉阳大学​

Talk2Bev

题目:Talk2BEV: Language-enhanced Bird's-eye View Maps for Autonomous Driving

名称:Talk2BEV:用于自动驾驶的语言增强鸟瞰图

论文:https://arxiv.org/abs/2310.02251

代码:https://llmbev.github.io/talk2bev/

单位:海得拉巴大学​

Bi-Mapper

题目:Bi-Mapper: Holistic BEV Semantic Mapping for Autonomous Driving

名称:Bi-Mapper:用于自动驾驶的整体BEV语义映射

论文:https://arxiv.org/abs/2305.04205

代码:https://github.com/lynn-yu/Bi-Mapper

单位:湖南大学

8.Fusion/融合

MemFusionMap

题目:MemFusionMap: Working Memory Fusion for Online Vectorized HD Map Construction

名称:MemFusionMap:用于在线矢量化高清地图构建的工作Memory融合

论文:https://arxiv.org/abs/2409.18737

代码:

单位:密歇根大学、NVIDAI​

MapTracker

题目:MapTracker: Tracking with Strided Memory Fusion for Consistent Vector HD Mapping

名称:MapTracker:使用分层记忆融合进行跟踪,以实现一致的矢量高清映射

论文:https://arxiv.org/abs/2403.15951

代码:https://map-tracker.github.io/

单位:西蒙菲莎大学、Wayve​

SensorSatelliteMap

题目:Complementing Onboard Sensors with Satellite Map: A New Perspective for HD Map Construction

名称:车载传感器与卫星地图互补:高精地图构建新视角

论文:https://arxiv.org/abs/2308.15427

代码:

单位:西安交通大学​

SuperFusion

题目:SuperFusion: Multilevel LiDAR-Camera Fusion for Long-Range HD Map Generation

名称:SuperFusion:用于远距离高清地图生成的多级激光雷达相机融合

论文:https://arxiv.org/abs/2211.15656

代码:https://github.com/haomo-ai/SuperFusion

单位:苏黎世联邦理工学院、毫末智行

9.Distill/蒸馏

MapDistill

题目:MapDistill: Boosting Efficient Camera-based HD Map Construction via Camera-LiDAR Fusion Model Distillation

名称:MapDistill:通过摄像头LiDAR融合模型蒸馏提高基于摄像头的高清地图构建效率

论文:https://arxiv.org/abs/2407.11682

代码:

单位:三星(中国)

#如何将规划引入预测

重新思考轨迹预测 | 复旦提出PIFM

传统的自动驾驶主要可以分为感知、预测、规控三个大的部分,其中预测模块承担着十分重要的角色,为下游规划路径提供重要的信息。然而,现实世界驾驶环境的复杂性,其中包括多个动态智能体(如车辆和行人)之间的相互作用,给预测造成了不小的挑战。这其中有一个重要任务就是轨迹预测,这涉及到基于它们当前的状态和环境来预测周围智能体的未来移动。

传统上,运动预测模型预测单个智能体的轨迹,而没有考虑它们之间的相互依赖性。在多智能体环境中,这种方法会导致次优的预测,因为它并不能捕捉到智能体之间的复杂交互。为了克服这些限制,最近的工作开始将规划信息纳入轨迹预测过程,允许系统做出更明智的决策。

  • 论文链接:https://arxiv.org/pdf/2410.19639

在过去几年,自动驾驶的轨迹预测也有了显著的发展,许多方法利用多模态融合技术来提高准确性。比较早期模型依赖于历史轨迹和地图数据,通常将这些输入结合起来做预测。近期的工作会使用基于transformer的架构,引入了注意力机制以更好地整合这些不同的模态。这些模型大大提高了自动驾驶系统的预测能力,尤其是在智能体与其环境动态交互的场景中。另外,Planning-aware模型也作为提高轨迹预测的有效方法之一,比如:PiP和PRIME明确地将规划信息集成到预测框架中,允许系统在轨迹生成过程中考虑未来的目标。然而,这些方法通常因为处理数据所涉及的计算复杂性,在实时多智能体场景中表现并不理想。因此,基于扩散的模型最近被提出来解决这些问题,同时减少计算负担,同时保持高预测性能。

在这项工作中,作者提出了轨迹信息规划扩散(Trajectory-Informed Planning Diffusion,TIP-D)模型,该模型基于扩散框架的优势,并直接将规划特征集成到运动预测过程中,目的是结合规划信息来提高轨迹预测的准确性和可解释性。作者的方法能够通过利用交叉注意力机制动态融合规划特征与环境数据,同时预测多个智能体的轨迹。此外,TIP-D模型在计算复杂性上实现了显著降低,与现有的最先进方法相比降低了80%以上,同时在复杂的多智能体驾驶场景中保持了高准确性。​

相关工作

多模态融合

在运动预测中,准确的轨迹预测依赖于不同信息模态的整合,例如智能体的历史轨迹和地图数据。为了更好地捕捉运动动态的复杂性,最近的研究扩展到包括规划轨迹、交通状态和车道方向等额外模态。这些增强旨在提供对动态环境更全面的理解,允许模型以更高的准确性预测轨迹。Wayformer优化注意力机制以提高计算效率,而Scene Transformer使用统一的架构有效管理多智能体交互。同样,LatentFormer采用基于Transformer的方法,结合潜在变量来提高预测精度。这些策略证明了整合多个信息模态对于更准确、更可靠的运动预测的有效性。

Planning-aware运动预测

Planning-aware轨迹预测是多模态预测方法的一个关键方面,其中包含动态车辆信息的规划特征被整合到高级编码特征中。例如,PiP引入了一个双模块系统,其中规划耦合模块将未来规划注入交互特征中,目标融合模块编码和解码智能体之间的未来交互。PRIME通过使用基于模型的场景上下文进一步优化这种方法,通过查询各种张量生成保证可行性的未来轨迹。TPP专注于通过整合来自自我运动采样器的树状结构规划结果来改进规划轨迹,尽管它仍然使用采样器的输出作为直接输入,而不是与地图交互。此外,像Multipath++这样的模型已经证明了这些技术在运动预测挑战中实现最先进的性能的有效性,特别是通过使用有效整合这些多模态信息源的先进注意力和基于扩散的模型。作者的方法进一步发展了这一概念,实现了与Multipath++几乎相当的性能,同时参数数量极少。​

方法论

输入表示

模型使用多模态嵌入策略将各种数据源,如历史轨迹、高清地图和规划轨迹,转换为统一的高维空间。这确保了模型能够捕捉到准确轨迹预测所需的复杂的空间和时间关系。

历史轨迹数据由每个智能体随时间的空间坐标组成,表示为 ,其中  是历史时间步数, 表示智能体  在时间  的位置。为了将这些轨迹投影到高维空间,作者应用一个多层感知机(MLP),结果为 。这个转换通过一系列线性投影和非线性激活来执行,定义为 ,其中  和  是权重矩阵, 和  是偏置项, 是非线性激活函数,如 ReLU。处理后,所有智能体的历史轨迹嵌入表示为:

其中  是智能体的数量。

高清地图数据提供了环境的几何形状,由以自我智能体为中心的特定半径  内的一组车道节点表示。地图定义为 ,其中  是车道数量,每个车道  包含  个节点。为了从高清地图中提取有意义的特征,作者使用一维特征金字塔网络(FPN),将地图数据投影到高维空间为 ,其中  表示映射函数。最终的高清地图嵌入的维度为 ,所有金字塔级别的特征被连接以获得:

规划轨迹是使用Frenet框架生成的,该框架将路径分解为纵向和横向组件。对于每个规划轨迹,轨迹相对于参考路径  在纵向位置  处,并且具有横向位移 。轨迹由  给出,其中  是位置  处的法向量。规划轨迹集合表示为 ,其中  是规划轨迹的总数。轨迹的优化通过最小化成本函数  实现,其中  是急动度, 表示行驶时间, 是到中心线的距离。超参数 ,,和  分别控制急动度、行驶时间和距离的相对重要性。最后,规划轨迹使用FPN投影到高维特征空间,与高清地图嵌入类似,表示为:

模型架构和融合机制

模型处理四种输入数据源:(轨迹数据)、(轨迹提议数据)、(规划数据)和(地图数据)。最初,每个输入进行自注意力处理以捕获模态内依赖性。对于每种模态X,自注意力机制计算如下:

其中  和  表示从输入X派生的查询、键和值矩阵, 是键的维度。这允许每种模态独立提取其关键的空间时间特征。

一旦自注意力提炼了每个数据源的内部结构,就应用交叉注意力机制。第一个交叉注意力机制将自注意力处理过的轨迹嵌入与轨迹提议嵌入对齐。这产生了一个联合表示,捕获了历史运动和未来轨迹预测,将智能体动态与提议的轨迹对齐:

接下来,规划数据嵌入与地图数据嵌入进行交叉注意力,产生,将空间上下文与规划轨迹整合。这些融合的表示进一步通过最终的交叉注意力机制处理,其中与中间表示结合。这一步确保了过去的动态、环境上下文和规划轨迹都被对齐:

最终融合的表示被传递到预测头部进行未来轨迹估计,有效地利用了所有模态之间的时空关系,生成了具有上下文意识的预测。

模型的整体工作流程从使用LSTM编码历史轨迹开始,产生;使用LSTM编码规划轨迹,产生。然后对每个模态应用自注意力以增强特征表示。随后,交叉注意力整合这些不同模态的特征。最后,集成的特征被LSTM解码器解码成未来轨迹预测,最终的线性层输出预测位置:

图片

训练目标

作者将损失函数制定为多项任务损失的总和,并使用辅助学习方法来平衡它们。在训练阶段,作者还使用了联合损失来平衡最终输出和预测头部的输出,遵循TrackFormer的方法。

其中每个任务损失的权重都是可学习的。

  • 可行驶区域感知(Drivable-area-aware, DAA)回归损失:Huber损失是约束预测常用的损失函数。作者注入规划信息以增加预测的合理性,并利用可行驶区域信息使预测结果更符合交通规则。作者提出了一个可行驶区域感知回归损失,当预测轨迹点在可行驶区域内时,损失函数保持Huber损失的定义。然而,如果预测点在可行驶区域外,作者引入了一个额外的惩罚项 ,其中  是预测点与真实点之间的距离。

其中 , 是可行驶区域。

  • 置信度损失:为了根据驾驶意图的概率对提议区域进行评分,作者使用Kullback-Leibler散度作为作者的损失函数。这个损失函数限制了基于预测轨迹和真实值之间距离的提议概率的贡献。

其中  是预测提议的分布, 是真实提议的分布。

  • 分类损失:作者将所有端点坐标聚类到K个类别中,并用最近的聚类中心类别标签标记真实值和预测提议。作者采用交叉熵作为额外的损失函数,以增强预测车辆驾驶意图的能力。

其中  是预测提议的概率分布, 是真实提议的真实分布。​

实验及结果

数据集

Argoverse 数据集包含 324,000 个场景,包括详细的轨迹序列、传感器数据(如 3D 激光雷达和摄像头图片)以及高清地图。数据集被划分为训练集、验证集和测试集,并支持轨迹预测的多模态融合。用于评估模型准确性和预测能力的指标包括最小平均位移误差(Minimum Average Displacement Error, minADE)、最小最终位移误差(Minimum Final Displacement Error, minFDE)、未命中率(Miss Rate, MR)和布里尔分数。

指标

作者使用 Argoverse 数据集提供的各种指标来评估和确定模型的性能。这些指标包括最小平均位移误差(Minimum Average Displacement Error, )、最小最终位移误差(Minimum Final Displacement Error, )、未命中率(Miss Rate, )、布里尔最小最终位移误差(Brier Minimum Final Displacement Error, )和布里尔最小平均位移误差(Brier Minimum Average Displacement Error, )。每个指标从不同的角度衡量模型的预测能力和准确性。

实验结果

作者将提出的方法与最先进的Planning-aware运动预测技术进行比较,包括 PIP 和 PRIME 。PRIME 作为基准,作者的方法显示出显著的改进:minFDE 提高了 14.10%,minADE 提高了 30.33%,p-minADE 提高了 2.59%。作者的方法还优于基于图神经网络的方法,如 LaneGCN 、VDC 和 HGO。与基于扩散的方法如 mmdiffusion 和 Scenediffusion 相比,作者的方法取得了更优越的结果,与 Multipath++ 相比参数数量减少了 84.43%。

图片

总之,作者提出的方法在 Argoverse 数据集上表现出色,实现了更高的预测准确性和效率,同时显著减少了参数数量和计算开销。

图片

消融研究

作者在 Argoverse 数据集上使用 minFDE、minADE、Brier-minFDE 和 Brier-minADE 进行了消融研究,以 mmdiffusion 作为基线。Planning-Aware Encoder,整合 PreFusion-D,改进了 minFDE、minADE、Brier-minFDE 和 Brier-minADE,分别提高了 7.81%、0.24%、1.87% 和 0.33%。扩展联合损失改进了 minFDE 0.24% 和 minADE 1.45%。为所有智能体添加回归导致了进一步的增益,分别为 0.82% 和 1.47%。

图片

写在最后

本文提出了一个Planning-aware的堆叠扩散网络,这是运动预测中的一个新框架。Planning-aware扩散预测未来轨迹时会使用多模态特征,尤其是先前的规划特征。为了获得更好的融合性能,作者设计并探索了四个融合模块,将规划信息聚合到堆叠扩散中。作者还提出了一种新的损失函数,迫使网络关注可行驶区域。在 Argoverse 运动预测基准测试中进行的实验证明了作者模型的有效性。

#孪生Transformer如何破局

车道线再出发!

车道检测是自动驾驶系统中一项重要但具有挑战性的任务。基于Visual Transformer的发展,早期基于Transformer的车道检测研究在某些场景下取得了有前景的结果。然而,对于复杂的道路条件,如不均匀的光照强度和繁忙的交通,这些方法的性能仍然有限,甚至可能比同期基于CNN的方法更差。在本文中,我们提出了一种新的基于Transformer的端到端网络,称为SinLane,该网络获得了关注稀疏但有意义的位置的注意力权重,并提高了复杂环境中车道检测的准确性。SinLane由一种新颖的孪生视觉变换器结构和一种称为金字塔特征集成(PFI)的新型特征金字塔网络(FPN)结构组成。我们利用所提出的PFI来更好地整合全局语义和更精细的尺度特征,并促进Transformer的优化。此外,所设计的Siamese视觉变换器与多级PFI相结合,用于细化PFI输出的多尺度车道线特征。在三个车道检测基准数据集上进行的广泛实验表明,我们的SinLane以高精度和高效率实现了最先进的结果。具体来说,与目前性能最佳的基于Transformer的CULane车道检测方法相比,我们的SinLane将精度提高了3%以上。

总结来说,本文的主要贡献如下:

  • 提出了一种新的FPN模块,金字塔特征集成(PFI),以完全集成全局语义和更精细的尺度特征。
  • 设计了一个Siamese视觉变换器来从PFI中提炼多尺度车道线特征。
  • 在三个基准数据集上取得了最先进的结果,与CULane上最著名的Transformer方法相比,准确率提高了3%以上。

相关工作回顾

早期的车道检测工作依赖于手工制作的特征,导致特征捕获有限,因此对于复杂条件下的车道检测任务无效。

为了应对复杂的环境,深度学习(DL)方法被引入到车道检测任务中。基于分割的方法首先应用于车道检测,其检测输出基于每像素的分割图。与传统方法相比,基于CNN的方法可以捕获更丰富的视觉特征和空间结构信息,因此基于DL的方法优于传统的检测方法。然而,基于每像素的分割方法计算成本高,实时性有限,并且难以学习车道线的细长特征。

为了解决这些问题,LaneNet引入了一种分支的多任务架构,将车道检测任务转化为实例分割问题。与之前的方法相比,这种方法对道路状况的变化更具鲁棒性,但更耗时。RESA被提出通过移动切片特征图来聚合空间信息,这可以获得良好的实时结果,但在复杂的道路条件下仍然失败。此外,上述大多数方法的输出车道线可能不连续。

为了以更高的效率获得更连续的车道线,在最近的研究中,基于曲线的方法将车道检测任务视为多项式回归问题,并利用参数曲线来拟合车道线。这些方法在很大程度上取决于曲线的参数(表示车道线像素的坐标,a、b、c和d是曲线的参数)。PloyLaneNet首次提出了一种直接输出参数的端到端深度多项式回归方法。为了提高稳定性和效率,BézierLaneNet提出了一种参数化的Bézier曲线来模拟车道线的几何形状。然而,即使效率很高,受全局信息学习能力的限制,这些基于曲线的方法在大型数据集上的准确性也不能令人满意,特别是在复杂的道路条件下。

Transformer引入计算机视觉领域后,在模型推理速度和全局信息获取方面取得了令人瞩目的成果。DETR在目标检测方面取得了令人满意的结果,优于一些基于CNN的方法。但是,在车道检测领域,基于Transformer的方法仍然难以产生令人满意的结果。基于DETR的方法LSTR推理速度快,但精度相对较低,特别是在一些复杂的道路环境中。与预训练和局部先验的LSTR相比,PriorLane提高了预测的准确性。然而,目前基于Transformer的方法和基于CNN的方法在准确性上仍存在差距。

在检测任务中,底层富含几何信息,但缺乏抽象的语义信息,而深层则相反。对于车道检测任务,车道线独特的细长形状和复杂的驾驶场景对本地和全局信息的集成提出了很高的要求。FPN提出了一种自上而下的特征金字塔架构,用于合并低级和高级特征。PANet中提出了一种自下而上的架构,用于更好地从低级到高级特征的聚合。Kong重新制定了FPN结构,并应用全局注意力和局部重构将低级表示与高级语义特征融合在一起。Nas-FPN和BiFPN提出了可学习的融合策略,从多尺度上提高了特征融合的效果。然而,所有这些方法都忽略了数据集的尺度分布,无法在复杂的自动驾驶场景中融合全局和局部信息。​

方法详解

结构设计

SinLane网络的总体架构如图2所示。由于车道线具有明显的结构特征,因此可以用沿y轴等距采样的一系列关键点来表示,这些关键点可以表示为:

图片

虽然车道检测任务可以被视为分割任务,但通过车道线的关键点表示,它可以被转换为与对象检测任务相似的序列预测任务。受DETR[3]的启发,我们提出了一种基于端到端变压器的方法SinLane,用于生成车道预测,而无需复杂的后处理步骤,如非最大抑制(NMS)[31]。我们网络的主要结构可分为四个部分,骨干网(ResNet或DLA34)、颈部、头部和训练目标。

Pyramid Feature Integration

我们开发了PFI来整合全局语义信息和更精细的特征。图3显示了PFI的详细结构。

图片

图片

在使用融合因子来平衡相邻高层和低层的特征后,我们采用了一种集成结构来进一步融合它们。对于基于FPN的信息集成,有一些已知的方法,如PANet和NAS-FPN。当应用于车道检测任务时,由于图像中的车道线通常又长又细,因此这些方法很难平衡全局信息和更精细的尺度特征。

因此,我们开发了一种新的集成结构来集成全局语义信息和更精细的尺度特征。首先,我们将多尺度特征(已被融合因子平衡)重塑为相同的尺度。请注意,特征形状是一个可调整的参数,取决于精度和效率的平衡。接下来,我们对重塑后的特征进行平均,可以表示为:

图片

与之前的PANet等工作相比,我们的PFI具有两个优势:

(1)轻量级,即插即用,可以通过并行计算轻松实现,并应用于其他任务和网络;
(2)它适用于严重依赖全局和局部信息融合的任务,如车道检测任务。

Siamese Visual Transformer

我们提出了Siamese Visual Transformer来从多尺度特征图中提取丰富的信息。图4显示了详细的Siamese Visual Transformer结构。主结构由四个具有共享参数的暹罗视觉转换器组成。

由于车道线细长且具有独特的结构特征,我们使用对象序列(图2中的e0、…、e3)来表示它们,这有助于降低计算成本,并且易于对Transformer进行优化。对象序列可以表示为:

图片

通过使用GT监督对象序列的生成,我们可以强制输出序列逐一对应图像中的实际车道,从而实现车道线的检测。

我们将PFI的输入特征图划分为block,以减轻Transformer计算的负担。然后将三维补丁展平为二维序列,并添加位置嵌入。与传统的Transformer编码器不同,我们利用Siamese结构使Transformer能够通过共享参数学习更丰富的多尺度信息。具体来说,我们在输入特征图的序列和上层Transformer的输出序列(或预生成的序列e0)之间应用注意力,而不是原始的自注意力。这个过程可以表示为:

图片

Training and Inference Details

图片

图片

图片

实验结果结论在本文中,我们提出了一种新的基于变压器的端到端网络,称为SinLane,用于车道线检测。SinLane由一种新颖的暹罗视觉变换器结构和一种称为金字塔特征集成(PFI)的新型FPN结构组成。我们证明,我们提出的PFI可以有效地整合全局语义和更精细的尺度特征,促进Transformer的优化。此外,所设计的Siamese Visual Transformer优化了我们的PFI输出的多尺度车道线特征。我们在三个基准数据集CULane、Tusimple和LLAMAS上评估了我们提出的方法。实验结果表明,我们提出的SinLane取得了最先进的结果,提高了复杂环境中车道线检测的准确性。具体来说,与已知的基于Transformer的CULane数据集车道线检测方法相比,它将准确率提高了3%以上。

#自动驾驶中的自动标注

有监督学习需要大量的标注数据。可以完全由人工标注,也可以由机器自动标注,也可以人机混合。这三种模式分别称为人工标注,自动标注和半自动标注。

自动驾驶中,感知系统对标注需求很大,尤其是障碍物感知。其自动标注主要可利用不同传感器之间的相互标注。

障碍物感知有三大主流传感器: 激光雷达(LiDAR),相机(Camera),毫米波雷达(Radar)。从自动标注的数据流向来看,一般是依靠激光雷达和毫米波雷达给相机标注, 因为感知系统输出给下游的障碍物都需要提供三维信息:3D位置和3D尺寸,最不济也需要给出障碍物在BEV上(缺少高度方向)的大小和位置。

激光雷达输出的点云及其检测模型输出的障碍物都具有完整的3D信息,即中心点位置和长宽高。

毫米波直接输出BEV上的障碍物信息,有2D BEV位置有速度,但缺少高度。

相机的分辨率很高,具有丰富的语义信息。2D的视觉障碍物检测也是一个很热门且比较成熟的研究方向。要相机独立给出具有3D信息的障碍物结果,通常可以通过以下几种途径进行3D恢复:

  1. 纯粹的2D检测结合一些先验几何假设。例如假设框的下边中心点为障碍物的地面接触点,且地面是平的,然后根据相机外参确定地面高度,以此即可估计出障碍物的3D位置。最后根据类别取一个先验长宽高,作为其大小。这类方法的缺点是鲁棒性差。
  2. 检测模型不仅预测障碍物的2D信息,还预测一些3D信息,例如角度,尺寸,深度,投影关键点等,然后通过一些几何约束及必要的先验恢复其3D信息。这类方法很多,预测对象非常多样,也是当前3D视觉检测的热门研究方向。
  3. Pseudo LiDAR。对相机图片进行深度估计,得到稠密的伪点云,然后用点云模型进行障碍物检测。这类方法的关键和难点在于准确的深度估计。

下面通过几个例子来说明可以尝试的自动标注方法。

激光雷达提供点云级别的深度信息

将激光雷达的点云投影到相机上,可以得到像素级别的稀疏深度图。这个深度图可以用来训练纯视觉的单目深度估计模型。基于无监督学习的纯视觉单目深度估计是一个很有潜力的研究方向。直觉上,结合激光雷达的数据理论上有助于模型正确收敛。

若同时使用双目和激光雷达,这个深度图也可以转换为视差的真值。

激光雷达点云投影相机主要存在的问题包括:

  • 稀疏,且距离稍远就没有点云了。
  • 遮挡。相机和激光雷达安装位置肯定有相互偏移,激光雷达能看到的相机不一定能看到。所以可能存在被遮挡的点,它本身虽然位于相机的FOV内,但投影到相机上却没有对应的像素,错误的像素深度就这样产生了。相机和激光雷达间的安装偏移越大,出现遮挡的概率和程度越高。
  • 同步。理论上可以在激光雷达转到和相机相同角度时触发相机曝光,但在实践中并没想象的那样简单:设备状态、网络状况都会影响到同步的实际效果。而且,常用的机械式激光雷达转一圈需要100毫秒,而相机曝光时间通常只有数毫秒。低速场景受非理想同步的影响不大, 但高速场景受其影响严重。并且,这里的速度不是指自车的速度, 而是指自车相对于环境中其他物体的速度。

一些可供参的论文:

Deeper Depth Prediction with Fully Convolutional Residual Networks

Semi-Supervised Deep Learning for Monocular Depth Map Prediction

Unsupervised Learning of Depth and Ego-Motion from Video Unsupervised Learning of Depth and Ego-Motion from Monocular Video Using 3D Geometric Constraints

激光雷达提供障碍物的3D位置和尺寸

激光雷达障碍物检测模型输出的物体一般都具有完整3D信息:3D位置和3D尺寸。将其3D框投影到相机上后可以提供视觉障碍物的以下信息:

  • 中心点及8个角点的2D位置
  • 物体的实例深度和角度
  • 2D框位置

这些信息可供上文提到过的第二种相机3D恢复方法需要的真值。不过也存在不少缺点:

  • 激光雷达的障碍物检测模型可能漏检、误检,或检测结果不准确, 特别是高度方向:3D关键点的2D投影受高度方向的准确度影响极大。
  • 激光雷达的障碍物检测距离一般比相机要短
  • 可能将非误检但不存在于相机上的物体投影到相机上, 例如被遮挡物体

一些可供参考的论文:

MonoGRNet: A Geometric Reasoning Network for 3D Object Localization

3D Bounding Box Estimation Using Deep Learning and Geometry

RTM3D: Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving

毫米波雷达提供实例深度

毫米波可提供障碍物的BEV位置和速度。速度在单帧检测中很难用上。另外还需要注意的是,毫米波雷达输出的障碍物位置不一定是障碍物的中心点位置: 一般在障碍物体上,但不能确定是物体的哪一个点。

Tesla在2019的自动驾驶日视频[1]大概71分钟处中给了个应用举例:在图像上自动匹配radar和camera物体, 以radar的深度作为真值训练camera物体的实例深度估计。3D形状也由camera通过关键点的形式预测。

这种radar自动标注方法只能提供实例深度, 其投影关键点仍需要人工标注(Tesla没有LiDAR)。

结语

总的来说, 自动标注产生的数据普遍存在噪声,但胜在数据量近乎无限且不需要人工标注。使用海量有噪声的数据的弱监督训练的潜力也已经证实[2]。

从传感器融合的角度来看, 自动标注也是比前融合更前的融合。

值得探索的自动标注方向很多。对自动驾驶公司来说, 通过对自动标注的探索,更有效充分地利用采集的海量测试数据,也是一件很有价值的事情。

#明星飞行汽车破产,烧光100亿仍难载人试飞...

曾估值235亿的独角兽Lilium,扛不住了。

由于没能从德国政府获得紧急筹资的担保,这家电动飞机明星正式申请破产,关闭在即。

成立9年以来,Lilium累计筹集了14.5亿美元(约103亿元)的资金,腾讯是主要投资人之一。过去的十多轮融资,腾讯至少参与了七轮,其中由腾讯领投的三轮融资,为Lilium总共募集到5.7亿美元(约40亿元)。

2020年,Lilium借SPAC风光上市,最高市值曾达到100亿美元(约713亿元)。

如今宣告破产,股价暴跌超60%后,市值已经不到1亿美元。

怎一个惨字了得。

飞行汽车明星深陷危机

最近,德国电动垂直起降(eVTOL)明星公司Lilium向SEC递交了通告,宣布正式破产

文件显示,Lilium今年试图向德国复兴信贷银行筹集1亿欧元(约7.7亿元)的紧急贷款,但由于联邦政府没有批准5000万欧元担保,这次融资以失败告终。

无异于压死骆驼的最后一根稻草。

因为这次融资失败,宣告着Lilium的资金链彻底断裂,Lilium无法再继续运营两家全资子公司,不得不申请破产,以及申请自我管理程序。

随之而来的是,Lilium的A类股票可能会被纳斯达克摘牌,面临暂停交易,甚至是退市。

目前,Lilium的股价暴跌超60%,已不足0.1美元,折合成人民币大概只有7毛钱,市值仅剩6199.9万美元(约4.4亿元)。

Lilium最后的希望,就是法院批准自我管理程序,保留和继续诉讼所涉及的业务,还能在托管人的监督下继续经营业务。

破产的消息在低空领域炸响,任谁都想不到,这家曾被称为低空领域“特斯拉”的公司,没落速度如此之快,甚至就在四个月之前,Lilium才刚刚在中国开了分公司。

Lilium在2015年成立时,受到非常广泛的看好,很快就获得了Freigeist Capital的种子轮融资,还拿到了欧洲航天局的支持。

2017年,Lilium完成无人驾驶双座原型机的飞行测试,并且在2019年,生产出世界上第一架全电动喷气式五座飞机原型机,首次试飞也很成功。

这些进展为Lilium拉来了更多投资者的支持,其中腾讯是最主要的投资者之一。

在此后的多轮融资中,总能看到腾讯的身影。据估计,腾讯至少参与了Lilium至少7轮的融资,其中有至少3轮是由腾讯领投,加起来约5.7亿美元(约40亿元)的资金。

其他投资者中,也不乏一些知名人物或机构,包括特斯拉股东Baillie Gifford、Skype联合创始人Niklas的风投机构Atomico、黑石集团、LGT等,估值达到33亿美元(约235亿元)。

直到2020年,Lilium通过的SPAC方式,登陆纳斯达克上市,市值最高达到约100亿美元(约713亿元)。

上市后,融资脚步也未停止,Lilium又获得了1.19亿美元(约8.5亿元)的融资,累计融资金额达到14.5亿美元(约103亿元)。

同时,Lilium也获得了一些客户的支持,其中包括来自沙特阿拉伯的100 架电动飞机订单。

今年6月,Lilium来到中国寻求机会,成立力翎(深圳)航空有限公司,由子公司Lilium GmbH全资持股,并且要在中国招聘员工。

就在宣告破产前夕,Lilium才刚刚宣布取得了革命性地进展:已完成全电动 Lilium Jet 的首次系统启动,这是一个里程碑式的时刻。

原本按照计划,明年春天Lilium将进行首次载人飞行,2026年向客户首次交付。

一夜之间,巨星何以陨落?

昔日明星为何资金耗尽?

其实,Lilium的危险处境,在此前公布的中期财报里就早有预兆。

上半年的研发费用、一般和管理费用以及销售费用分别为1.31亿欧元(约10亿元),0.49亿欧元(约3.8亿元),以及0.06亿欧元(约0.48亿元),相比去年同期分别增长了55%,22.7%以及49%。

由于没有商业化落地,Lilium并没有营收,主要通过股东的融资和贷款维持运营。

所以,Lilium整体亏损,今年上半年净亏损了8694.9万欧元(约6.7亿元),上市后累计亏损了近20亿欧元(约153亿元),融资来的现金基本已经消耗殆尽。

今年上半年,来自经营活动的现金流减少了1.59亿欧元(约12.2亿元),来自投资、融资活动的现金流分别增加0.81亿欧元(约6.2亿元),以及1.05亿欧元(约6.24亿元)。

截至今年上半年末,Lilium的现金及现金等价物只剩下1.09亿欧元(约8.4亿元),现金储备已经岌岌可危。

在管理层分析当中,管理层已明确透露了对公司持续经营的能力存在重大怀疑。他们表示,Lilium能否继续经营,在很大程度上取决于能否获得政府可转换贷款。

自成立以来,Lilium一直出现经常性亏损运营现金流为负值,并且预计在未来这种情况还会继续。因此,根据融资计划,Lilium需要立即获得额外资金以持续运营。

但是,如果德国联邦政府不批准、没能及时批准政府可转换贷款的担保,管理层只能被迫大幅降本成本和缩小运营范围,甚至申报破产。

不幸的是,这种最坏的结果已经发生。由于联邦政府拒绝担保,这笔1亿欧元的“救命钱”最终打了水漂。

在10月24日的发布声明中,公司表示,Lilium有如今的局面,最大的原因在于政府没有大力支持

其竞争对手正在美国、法国、中国、巴西和英国获得资助和贷款,只有德国的Volocopter和Lilium没有得到政府支持。

德国对Lilium,乃至对低空领域行业,始终兴致缺缺,这笔承诺的资金,已经推迟了好几个月而毫无进展。

创始人Daniel Wiegand千言万语,只汇成一句:如果重来一次,不会选择德国。

全球低空领域:冰火两重天

低空领域相当烧钱,早已达成共识,想要“飞得稳”必须迈过两道坎:一个是坚实的资金后盾,一个是强大的技术支撑

如今全球低空领域,可谓冰火两重天。

同样是德国eVTOL公司的Volocopter,融资进程也不算顺利,今年四月被爆资金紧缺,濒临破产,最后是靠一笔没有公开的资金度过难关。

反观其他eVTOL参与者,有不少公司获得巨额资助,还活得很好。

美国的Joby背靠大树好乘凉,月初刚宣布,将获得丰田5亿美元(约38.5亿元)的投资。2020年,丰田已经为Joby投了3.94亿美元(约30.3亿元),加上这次将共计投入将近70亿元

美国的Archer同样获得了巨额资金,其中包括美国联合航空公司签订的价值10亿美元(约77亿元)的200架eVTOL飞机订单,并且可选择再订购 100 架。

再看国内低空经济领域,发展也是蒸蒸日上,并且有越来越多其他赛道的领军者加入。

6月份,吉利旗下子公司沃飞长空,宣布完成B轮数亿元融资,策源资本领投,中科创星、华控资本等原股东继续追投,创下了近两年国内eVTOL行业单笔融资的最高纪录。

8月份电池巨头宁德时代也入局,给峰飞航空投资了数亿美元,合作研发eVTOL航空电池。

不久后,小鹏汇天也宣布完成了1.5亿美元(约11.3亿元)的B1轮融资,不过融资历程也并非一帆风顺,此前两度资金即将断裂,一直咬牙坚持,直到何小鹏的出现转变了局面。

如今小鹏汇天现金充裕,10月27日刚宣布,飞行汽车工厂开启动工,规划年产能一万台。

需要强调的是,中国低空领域迅速发展起来,不仅仅是靠企业获得现金资助,更关键的还有政策在推波助澜。

大到全国,今年两会首次把“低空经济”写进政府工作报告;由工业和信息化部、科学技术部、财政部、中国民用航空局联合印发《通用航空装备创新应用实施方案(2024—2030年)》,计划到2030年推动低空经济形成万亿级市场规模。

小到地方,超过30个省份把低空经济写入政府工作报告,发布相关的发展行动计划,提供基础设施建设、下游应用场景拓展等方面的支持。

如同鼓励新能源汽车一般,从上到下托举低空经济发展。

这也是为什么Lilium试图在中国寻找新机遇,只可惜停留太短暂,来不及施展拳脚,家里先“着火”了。

对于中国低空经济的入局者而言,Lilium的失利,也是重重敲响的一记警钟。

中国低空经济联盟执行理事长罗军认为,eVTOL需要强大的技术支撑,也需要时间的打磨,尤其是需要拿到民航部门的全部认证,还需要经受市场的洗礼。

Lilium破产,外因是没有得到当地足够的支持,内因还是在于本身技术方面还存在不足。

例如,Lilium使用小型管道“喷气”风扇来提供升力和推力,在悬停时,存在能源效率较低的问题,而所需的功率是采用较大倾斜转子的类似重量设计的两倍左右。

直白点说,就是在起飞和降落阶段,飞行器会消耗大量的能源,非常影响电池的续航能力,续航里程、测试时间也都相对有限。

在2020年,Lilium的一架原型机在维修时起火,最终烧毁无法修复,飞行测试由于这次失火事故而推迟,后续也没有给出失火原因。

至今没有完成载人飞行测试,也是一个问题。

罗军指出,目前行业的参与者有上千家,而真正具备技术实力的只有大约300多家,而国内有这个实力的只有不到10家。

全球低空经济热潮已至,未来将进入千家万户。

而在接下来的五年、十年,eVTOL行业将面临重新洗牌,最大的市场在中国

欧美市场由于更早进入通用航空市场,对低空飞行器的需求非常有限。

而中国市场,除了有资金支持、产业链优势、以及政策扶持,市场的应用场景也更加广泛,包括城市客运、区域客运、城市物流配送、商务出行、紧急医疗服务等等。

因此,中国市场的未来,也具备更多可拓展的规模。

援引瑞银证券的分析,到2030年,中国eVTOL市场的空间预计将达到70亿元人民币,其中大部分市场将用于景区观光。预计到2030年,中国将占据全球市场超过50%的份额。

欧美市场目前存有的技术优势,随着当前人工智能等技术的快速发展、eVTOL技术的升级迭代,可能也会逐渐消磨。

但中国市场也仍需警醒,有Lilium的血泪在前,不管是技术路线,适航认可,还是商业化落地,争夺市场份额,都还有很长的路要走。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com