本文主要是介绍【AI+自动驾驶】由山西运城问界M7事故和梅大高速事故浅谈自动驾驶技术,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
这个节假日刷了刷短视频, 发现有2个悲惨的事情 比较火。1个是山西运城问界M7 115公里/每小时 撞击 洒水车, 1个是 广东梅大高速坍塌事故48人去世。
本文不谈这2件事情的是错对非,逝者为大,对生命保持敬畏。 从技术角度分析, 如果拥有高阶的智能辅助驾驶,能够提前识别前方的 洒水车障碍物, 在黑夜状态能够识别前方道路坍塌等现象, 是否可以一定程度避免类似悲剧的产生。 这里说的自动驾驶,主要指智能辅助驾驶, 不是无人驾驶, AI算法作为辅助决策。
对于AI人工智能比较熟悉的同学都知道, 自动驾驶其实遵循人工智能的工作流程输入—处理—输出的模型。
-
输入(Input): 输入阶段包括收集外部环境数据和车辆状态信息。这些数据通常来自多种传感器,如摄像头、雷达、GPS、毫米波雷达、激光雷达(LiDAR)及其他车辆传感器。这些设备连续不断地向AI系统提供关于车辆周围环境(如其他车辆、行人、道路标志、交通灯、道路状况等)的详细信息。
-
处理(Processing): 处理阶段是AI系统核心部分,其中包括了数据融合、场景解析、决策制定和行为规划等子阶段。在数据融合过程中,来自不同源的数据被合并以创建高精度的环境模型。然后这个模型被用来识别和分类对象,如其他车辆、非机动车、行人等。在此基础上,系统会分析目前的交通状况并制定行驶路线。最后,系统生成一个行为规划,决定如何操作车辆(加速、转向或刹车)来遵循规划好的路径和应对潜在的障碍物。
-
输出(Output): 输出阶段涉及实施处理阶段制定的规划,将控制命令传递给车辆的执行器,例如电机,转向系统和制动系统。通过执行器,AI人工智能系统可以控制车辆来沿着计划的路径移动,维持车道、调整速度、执行换道、停车和启动等操作。
整个过程是实时进行的,AI系统不断地循环这个输入—处理—输出流程,根据新的数据和情况更新其决策,以实现安全高效的自动驾驶。这个系统需要高度复杂的算法、机器学习、计算能力和高级传感器技术来确保其可靠性和安全性。
提到自动驾驶,不得不提到BEV技术。BEV(Bird's Eye View),是指一种鸟瞰式的视角或坐标系,可以立体描述感知到的现实世界,相当于在车辆正上方10-20米处向下俯视车辆及周围环境,也被叫做“上帝视角”。相对应的,BEV也代指将视觉信息由图像空间端到端地转换到BEV空间下的技术。BEV感知,非常适合自动驾驶任务,从最初的BEVDet检测方案,到后面BEVFormer、BEVFusion、MapTR、Occupancy等各个任务模型。
常见的传感器方案:
1、激光雷达 (Light Detection and Ranging, LiDAR):
激光雷达是通过发射激光脉冲来测量光波往返时间从而确定距离的技术。这些数据点然后被用来构造车辆周围环境的详细三维图。在自动驾驶中,激光雷达因其高精度和能力在不依赖外部光源的情况下工作而极具价值。它可以创建准确的道路边缘、车道标志、其他车辆和行人的动态模型。但是,激光雷达设备的成本很高,且对于某些天气情况(如雾、雨)的容忍度有限。
2、毫米波雷达:
毫米波雷达通过发射毫米波段的雷达波并接收反射信号来工作。它主要用于测量车辆和其他对象之间的距离和相对速度。这种雷达对恶劣天气(雨、雪和雾)具有较强的穿透力,且能够在不同的光照条件下稳定工作,这使其成为自动驾驶车辆的理想选择。而且,与激光雷达相比,毫米波雷达的成本更低。不过,它的空间分辨率和物体的细节识别能力相对较弱。
3、纯视觉方案:
纯视觉系统仅依靠摄像头来监测周围环境。通过使用先进的图像处理算法,这些系统能够识别路上的各种标志、交通信号、行人以及其他车辆。由于摄像头价格较低,纯视觉系统成本较激光雷达和毫米波雷达要低。此外,它们的识别能力非常接近人类的视觉能力。然而,纯视觉方案在夜间或光线不足的情况下性能可能受限,而且对复杂交通场景的解释和预测能力较低,依赖于高水平的算法和计算能力。
自动驾驶车辆厂商通常会根据自己的目标和技术能力选择合适的传感器设备。有些公司可能选择单一类型的传感器,而有些则可能选择结合激光雷达、雷达和摄像头等多种传感器以优化整体感知能力。这样的多传感器融合方法能够在各种驾驶条件下提供可靠的环境信息,并可以弥补单一传感器系统的不足。
这里介绍具有代表性的2家。一个是国际巨头特斯拉,一个是国内巨头华为。其他我基本很少看,实在是没法对比。
a、特斯拉的自动驾驶技术被称为Autopilot,后续升级为完全自动驾驶(FSD)。特斯拉主要依赖纯视觉系统,不采用激光雷达。它们的系统集成了深度学习和人工智能,可以实现车道保持、自动变道、交通信号识别和导航等功能。前阵子不是传特斯拉和百度地图合作高精度地图么,A股大炒了一波。
b、华为的自动驾驶技术 ADS 2.0 自动驾驶系统,具有通过视觉、毫米波雷达等传感器获得周围环境信息的能力,并可以根据这些信息进行实时决策,而不是依赖于预先加载的高精度地图。这种自我依赖性增强了系统的鲁棒性,并可能减少了对外部数据的依赖。前阵子华为发布会还出来个Qiankun品牌。
我个人认为,视觉+毫秒波雷达混合方案,和 纯视觉系统+高精图地图 可能长时间会并存。 毕竟这2个方案各有优劣。视觉+毫秒波雷达混合方案 成本昂贵,针对普通大众可能多了几万的成本。 而纯视觉系统+高精图地图呢,处理极端恶劣天气(比如雨雪、黑夜等)没那么靠谱。
个人非常看好无人驾驶的发展的, 不停留在口头,五一前行动上也支持了, 希望五一A股的自动驾驶概念大涨。
原文链接:【AI+自动驾驶】由山西运城问界M7事故和梅大高速事故浅谈自动驾驶技术
这篇关于【AI+自动驾驶】由山西运城问界M7事故和梅大高速事故浅谈自动驾驶技术的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!