摄像头摆烂,毫米波雷达罢工,自动驾驶静态识别还得靠它?
摄像头摆烂,毫米波雷达罢工,自动驾驶静态识别还得靠它?多花点儿钱就能解决。
小鹏撞完特斯拉撞,特斯拉撞完理想撞,上周对于新势力们来说,可谓是黑色一周,智能驾驶的安全性问题再一次被提到了风口浪尖,科技一定是要以安全为底线的。
其实我们从上周的这几起新势力们有代表性的事故中,不难发现,一个老生常谈的话题——静态物体的识别问题,那么为什么到了2022年下半年,这个问题依然改观不大?背后有哪些行业上的痛点?
2022年8月了,静态识别还没有长进?
首先我们来看看发生事故的这几辆车,小鹏P7、特斯拉Model Y和2021款理想ONE,它们的智能驾驶感知系统都是以视觉为主导的,也就是其他比如毫米波雷达、超声波雷达系统都是用作辅助的,并且它们都没有搭载激光雷达。
其实目前主流的智能驾驶系统的工作逻辑和我们人类驾驶比较类似,通过视觉途径来感知周围的物体,利用中央计算平台完成数据处理,而后再像各个工作模块发出指令,而目前整套智能驾驶系统的处理速度,反应速度或者感知能力甚至会强于人类,面对大部分情况,几乎没有延迟就可以处理好。
但咱们这里强调的是大部分情况,而静止物体就是那少部分情况中的一种。
视觉感知,竟然会“摆烂”?
那么第一个就要从视觉层面入手,为什么高速快速路上的静止物体会成为系统不认识的物体?摄像头是可以认得出这里有个东西的,但是它和我们人类的逻辑不同,系统的眼睛在处理场景时对物体的感知和分类或者说是辨别,是协同工作的,如果眼睛看到的一个东西,但辨别不出物体,系统可能就会则会默认过滤掉这个信息,说直白些就是既然不认识,那就等于不存在,直接摆烂。
我们看到的特种车辆、不同样式的工作车或者改装车等等,视觉感知如果无法做到准确的识感知和分类,来不及处理势必带来危险。在高速上,智能驾驶的感知算法可能感知到前方的静止物体,但跟踪算法可能无法做到,这也可能导致在遇到静止物体时,整个传感器的计算无法做到瞬时收敛,然后它就躺平了。
这一点依然是个行业内的重难点,因为任何车企或者公司都无法做到,能让系统认清楚自己看到的每一个物体,所以它们只好把看到的物体,通过不断训练的神经网络,来完成数据标注、分类、定义,给这类物体赋予一个标签,这种分类方式可以极大程度的让系统能够在现有条件下尽可能多的认识物体,但依然确保十全十美。就像智己L7智能驾驶的开发者,为了让智己L7认清楚各种大货车,已经让系统自学习了上万种大货车的样貌,但这依然很难做到万无一失,总有一些漏网之鱼,而这些漏网之鱼就是智能驾驶发展过程中的拦路虎。
当然,车企们也鼓励用户们在日常驾驶中多用自家的智能驾驶功能,因为这样可以多获取一些用户数据,让车辆多学习,特斯拉使用的这种方式,其他新势力们也直接照搬了过来,毕竟数据越多,学得越多,犯错应该会变得更少。
最新活动更多
-
11月22日立即报名>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
11月22日立即报名>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
-
11月29日立即预约>> 【上海线下】设计,易如反掌—Creo 11发布巡展
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.5立即观看>> 松下新能源中国布局:锂一次电池新品介绍
-
12月12日预约直播>> 友思特为新能源电池行业聚能的视觉与光电方案
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论