本文主要是介绍AEB滤镜再破碎,安全焦虑「解不开」?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
不久前,理想L7重大交通事故,再次引发了公众对AEB的热议。
根据理想汽车公布的事故视频显示,碰撞发生前3秒,车速在178km/h时驾驶员采取了制动措施,但车速大幅超出AEB(自动紧急刹车系统)的工作范围。最终车辆以96km/h的速度追尾前方斜跨双车道、正在蠕行的大货车。
实际上,针对AEB的激活条件,理想汽车在车主手册中有详细说明。其中,最大车速区间激活条件,即当车速介于8km/h~100km/h,车辆检测到前方行驶小车或货车且系统判断碰撞不可避免时。
这也意味着,此次事故在有效制动范围内的车速,确实超过了理想L7的AEB被激活条件的最高车速。
相比之下,特斯拉(Model Y)大致介于5km/h~200km/h,华为问界M7智驾版是4km/h~130km/h,而最新发布的问界M9前向AEB生效范围最高至150km/h,可见不同车型的AEB被激活车速区间存在较大差异。
即使抛开被激活车速区间来看这项功能,AEB制动启动后,车速降低多少,还取决于车辆的运行环境状况、传感器状态等诸多因素。而真正能够被用上的场景,不仅被OEM们用诸多定语框出,紧急制动效果还存在极大的不确定性。
总的来看,除了制动启动条件和实际效果存在差异,对于AEB制动这项功能,大多数车企的车主手册中都明确表示,自动紧急制动的设计目的并非防止一切碰撞,只能在某些情况下,通过尝试降低行驶速度以最大限度减少碰撞的冲击。
很明显,上述说辞打破了部分公众对AEB的滤镜。
整理近期大家对AEB功能的讨伐,无外乎是两个点:一是AEB是否真正好用,目前来看能用但不好用;二是AEB能否真正兜底,显然暂时也兜不住。
01
安全与性价比如何两全?
作为主动刹车系统,AEB的主要作用是通过传感器时刻检测车前障碍物,在紧急情况下自动进行车辆的制动,防止碰撞的发生,被看作是事故发生前的最后一道屏障。
早在2014年初,欧盟就开始要求所有新车配备AEB系统,否则无法在E-NCAP的测试中获得五星认证。2018年开始,中国的C-NCAP也将AEB作为主动安全部分的主要性能测试项,很大程度上提升了近年来我国新车AEB的装配率。
根据高工智能汽车研究院监测数据显示,2022年中国市场(不含进出口)乘用车前装标配AEB功能搭载率为48.84%。而2023年1-8月,这个数字已经升至56.04%。
“从科技平权的角度上讲,AEB本质的功能是为安全兜底,那么对消费者而言,最‘负责’的智驾方案应该是‘安全’和‘高性价比’的。”哆来目产品总监张启航表示。
但具体到量产车上,AEB的安全性依旧令人诟病。另外,也有不少消费者抱怨AEB功能并不好用,要么是漏报率太高,要么是误触发率太高,安全与智能还没有达到一个平衡点。
“误触发和召回率实际上是两个矛盾的指标,当前业内的做法基本上都是以牺牲召回率,保证误触发控制到一个指标内,灵敏度往往都设置得很低,所以很多量产车型的实测效果不太好,很多场景没有触发,归根结底整个系统的能力上限还是取决于感知能力。”张启航谈道。
目前,AEB主流方案采用的环境感知方案,主要有1V1R/1V方案。那么,市面上动辄十几个摄像头+几个激光雷达的中高端车型“豪华感知配置”,如何赋能AEB?中低端主流车型的1V1R/1V又该如何保障AEB的安全性?
中高端车型方面,最新曝光的比亚迪仰望U8 AEB系统测试中,无论是日间还是夜间,甚至在130km/h的速度下,都能迅速识别障碍物并安全刹停。
感知方面,比亚迪通过整车级融合感知平台和协同控制技术,将摄像头、雷达等多传感器的数据与整车实时数据进行融合叠加,提升了AEB系统的感知能力和准确性。
而此前理想则宣称,其自研的AEB算法在AD Max上增加了激光雷达的应用,把激光雷达算法的安全场景,从车辆、骑车人、行人等主要交通参与者,拓展到了含异形车在内的不规则障碍物以及夜间场景。
但是落实到车端,不少车企都明确指出,AEB系统的正常工作受制于多种因素。比如,前方车辆扬起的尾气、水花、尘土等,而这也是大部分道路的常态;且对于路面静止物体,如桩桶、护栏、导流牌等,大部分车企的AEB都无法发出报警和产生制动。
这意味着,AEB的感知难题还有待破局。
针对AEB系统的感知痛点,哆来目借助人眼仿生技术,通过模拟人眼的双通道感知机制,融合识别感知与运动感知算法,相比主流的视觉AI方案多了一个运动感知通道,可对于任意角度的车辆、无保护左转、鬼探头、近距离加塞等场景进行检测。
而这也是哆来目最大的差异化竞争优势。
区别于传统视觉与AI感知,要先做图像识别、测距再计算碰撞事件,哆来目的人眼仿生技术主要是模仿人眼对靠近物体的运动感知机理,预测物体的碰撞风险,可以实现更加广泛的障碍物检测,不局限于静止物体、已知或者未知障碍物,也无需深度学习神经网络。
值得一提的是,搭载哆来目运动感知算法的车载防碰撞系统,可以识别广泛的障碍物,包括倒在路中间的一棵树、异形车辆等未经训练的障碍物;其次,对于侧向切入、横穿、斜穿、加塞、小重叠等corner case场景,系统会对自车和目标障碍物的运动轨迹做出预测,提高了AEB的商用价值。
“道路上的状况千奇百怪,物体形状规则都有很大的不同,但我们的方案可以检测出所有可见物体,这一优势可以避免现实中多次发生的对没有训练过的障碍物无效而造成的致命交通事故。”张启航表示。
最关键的是,利用高技术壁垒+全栈技术自研+成本的极致压缩,哆来目的人眼仿生技术可部署到低成本低算力的SOC上,具备低成本竞争优势,可赋能AEB实现安全性与性价比两全。
02
硬核感知算法,直击智驾痛点
这也意味着,即使是中低端主流车型的1V1R/1V感知配置,AEB的安全性能也有望得到保障。
毕竟,人眼仿生技术对摄像头的要求并不高,没有摄像头同步的难题,对芯片算力要求也不高,相应的功耗也小,且在一定程度上解决了传统计算机视觉中同时兼顾横纵向视野的经典难题。
而抓住物体识别算法和运动感知算法技术底座,哆来目有望在AEB功能的基础之上,跑出一条商业化路径。
一方面,全套自研的AI算法加持,进一步提升了其感知算法性能。哆来目聚集了众多计算机视觉算法专家,采用卓越的算法技术,通过精心设计和优化神经网络,完成多角度多目标的智能识别、避障及车体自主定位,突破性的解决了大量业界困扰的Corner case。
另一方面,其算法兼容性强,可适配低算力芯片平台。哆来目从降本增效的角度出发,在低成本、低功耗的车规级嵌入式芯片平台上实现高效算法,能实现多种目标属性的:感知预测,支持高精度测距、多传感器数据融合,通过任务、数据驱动方式进行算法迭代与功能升级。
除了依托人眼仿生技术赋能AEB,迈入2024年,手握硬核感知算法的哆来目,市场规划也逐渐清晰。
据张启航介绍,接下来哆来目将继续深耕L2+、L3级智能驾驶市场,基于行泊一体、ACC、LKA、AEB等功能痛点,赋能智驾安全升级。技术方向,将通过人眼仿生技术,实现二维到三维,实时3D地图构建。
“感知系统是当前制约更高级自动驾驶技术落地的最大变量,只有解决感知的问题,自动驾驶产业所带来的安全和智能才会进一步升级。”
不难发现,L2+级智能驾驶更丰富的系统功能和应用场景,对感知技术也提出了更高的要求。而哆来目利用人眼仿生技术的优势,构建起了其技术护城河,且公司已经实现感知-规划-控制的全栈技术自研,将成本压缩到极致。
比如,针对自动驾驶中的感知长尾问题,哆来目的占用模型能对一些不规则物体、通用障碍物等进行检测,把一些当前场景下遮挡静止物体和动态物体进行3D重建,增加驾驶员的视野域,从而让驾驶员对接下来路径规划有了更多信息。
而延续高性价比优势,哆来目的占用模型采用自监督,不需要人工数据标注,省去了高昂的标注费用,真正为客户和用户提供“用得起、愿意用”的技术方案。
目前,哆来目已经和一些主机厂和大客户做技术交流,为今年的合作做准备。
从业务进展来看,具体到高级辅助驾驶功能,哆来目的感知方案已经通过批量生产验证,拥有出色的夜视效果,可在低照度乃至星光观景下,可靠识别车辆和行人目标;凭借优异的神经网络,拥有高效的目标识别速度,准确率高,目标识别种类丰富,适合多种应用场景。
在实际道路测试过程中,其产品可对前向360°任意角度的车辆、无保护左转、鬼探头、近距离加塞、无车道线行驶等碰撞风险场景进行预警,体现出优于国标要求的性能及市面常见的单目产品的性能指标,安全性更好。
且拥有多种数据接口,具有丰富的扩展性,其方案可满足客户多样的系统化集成需求;满足多项法规标准,产品功能符合《JT-T883-2014》、《GB-T26773-2011》、《GB-T33577- 2017》等标准中的相关要求。
此外,哆来目还通过了ISO 9001、ISO 14001、ISO 45001三体系认证,二审通过IATF16949汽车质量管理体系认证,预计本月下证。
“哆来目着眼从后装到前装、从商用车到乘用车的战役布局,未来几年除了继续推出有一定技术壁垒的差异化刚需产品外,也会朝着纯视觉自动驾驶的目标推进。”张启航向高工智能汽车表示。
这篇关于AEB滤镜再破碎,安全焦虑「解不开」?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!