你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox
当前位置:易车> 小鹏G6> 小鹏G6传感器> 摘要详情

小鹏G6后融合:每种传感器都有自己算法

小鹏G6后融合:每种传感器都有自己算法

摘要来自:《BEV+Transformer,为“无图大战”再添一把火》

【易车摘要频道】下列精选内容摘自于《BEV+Transformer,为“无图大战”再添一把火》的片段:

NOA的实现主要依托感知技术。目前感知主要分为两个部分,一个是特斯拉采用的纯视觉感知,另外一种就是多传感器融合的方案,也是目前国内厂家主要采取的方案。

在多传感器融合的方案中,挑战在于,不同传感器收集到的数据类型、坐标系维度不同。比如,摄像头获得的视觉数据属于2D图像空间,而激光雷达收集到的点云数据则是3D空间。

如何有效地处理与融合这些数据,成为了感知环节必须应对的问题。

★ 前融合、中融合、后融合 

目前主要有前融合、中融合、后融合三种方式,主流方案大多为后融合。

后融合:每种传感器都有自己算法,各自处理生成目标数据,当所有的传感器生成目标数据,并且时间同步后,就可进行数据融合。

后融合算法典型结构(信息来源:CSDN)

后融合的优点是解耦性好,且各传感器可以互为冗余备份。但缺点也很明显,由于后融合是基于规则处理的,会受到先验思路(从结果推向过程)限制,并且传感器各自对目标识别后再融合,中间也损失了很多有效信息,对感知精度也会造成影响。

图:前融合算法典型结构(信息来源:CSDN)

前融合,是指把各传感器的数据采集后,经过数据同步,对这些原始数据进行融合。

更早的进行数据融合,降低了数据损失的可能。但由于视觉数据和激光雷达点云数据所处坐标维度不同,所以融合起来难度很大,需要建立精准的雷达坐标系、三维世界坐标系、摄像头坐标系等等,同时对平台算力提出了很高要求。

图:中融合算法典型结构(信息来源:CSDN)

再聊一下中融合。

中融合,也称为特征级融合:先分别从传感器的原始数据中获取有效的特征数据,再将有效特征融合,特征信息包括边缘、方向、速度、形状等。数据损失没后融合那么多,算力消耗也没前融合那么庞杂。

★BEV+Transformer,为数据融合按下快捷按钮

有没有发现,无论是中融合,还是后融合,都需面临一道关卡,那就是异构数据带来的坐标系转换。开发人员为了解决这个问题,往往是将摄像头的2D信息转换为3D。

这也就引进了一种全新的3D坐标系——BEV

鸟瞰视角(Bird''s Eye View,简称BEV)是一种从上方观看对象或场景的视角,就像鸟在空中俯视地面一样。在自动驾驶和机器人领域,通过传感器(如LiDAR和摄像头)获取的数据通常会被转换成BEV来表示,以便更好地进行物体检测、路径规划等任务。

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外