来源:峰回路转本人
若从字面上看,出现事故的当时,不处于智驾模式,因此事故的直接原因是驾驶员的误判。要理解这个事很简单,咱们把智驾系统想象成一个人,设想这个车有两个方向盘,你找了个代驾,操作副方向盘,开到某个地方,这个代驾说,兄弟前面这段我不会开哦,然后撒手了,你紧急情况下突然接手,没来得及做出正确判断,发生事故。如果这都可以的话,我就可以开发智驾系统了,思路很简单,路面空旷就智驾,看见啥东西都退出。但真实的智驾比较复杂,它处于“啥路况都会”的“真智能”,和“啥都不会”的假智能之间,是一个“大致会开”,但偶尔不会的情况。然而,问题是,当智驾处理的大部分情况,也就是全程基本智驾,会让人类形成一个错误的期望:全程智驾。而人类大脑有一个特性,一旦它期望特定功能不需要启用,就会关闭相关“硬件”,也就是进入“节能模式”。但这个特性和智驾的现状组合起来,就会得出一个非常不妙的结论。兄弟们,智驾啥时候会退出?很简单,搞不定的时候。那啥时候搞不定?太复杂的时候。但这个时刻,人脑关于驾驶的那部分功能处于休眠状态。你正常开车,是从0速度起步,慢慢的开起来,一般来说你出小区或者车库,到大路上速度跑起来,肯定不是两秒钟吧?这个时间足够大脑启动相关功能。但智驾在高速上切换给人类控制,人脑来不及切换模式。所以这里要给各位开车的朋友提醒一下,在智驾达到完全智能前,你就算使用智驾模式,也要保持大脑的工作状态。啥意思呢?就是你还是要“假装自己在开车”,随时观察路况,思考反应,只是实际动作是车帮你自动做的,甚至有时候比你做的还好。只有这样你才能保证智驾不灵的时候可以有效的随时接管。人脑天然是一个“能懒就懒”的系统,因为人脑的“供电能力”远远不足支持人脑“持续全速运转”。人脑好比一个有100台机器的工厂,只接了个民宅电线,一次开2个机器就有跳闸风险。你预判一下后面一段时间,比如10分钟,会不会出现复杂路况,只在确定路况肯定不复杂的情况下允许大脑偷懒。回到这个悲剧中,设想司机是开的非智能汽车,那么对于什么速度下能过什么弯,会建立直觉,误判过弯速度的可能性是不大的,毕竟过弯不是什么罕见操作,又不是漂移。很显然,就是因为长时间智驾,“手生”了,增加了误判的几率。这事对智驾系统发展的影响,个人认为长远来说是正面的。让大家明白智驾能力的边界,意识到它的局限性,才有可能理性的使用它。汽车刚发明的时候,相关的安全规范还没建立,各种花式事故层出不穷,但人类最终掌握了安全驾驶的一套方法,真正迎来汽车时代。智驾作为一个新事物,人类也是在没有任何经验的情况下“盲目”尝试,这才知道智驾也需要正确的用法才能规避风险。去年华为智驾在舆论场上被热捧的时候,我就想,大家这么高看智驾,会提高出事故的风险,结果现在确实出事了,只是没想到被他的友商抢先了。不管怎么说,事故是一场悲剧,但希望所有人都能从事故中学到教训,避免再次出现这种悲剧。最后作为一个“中老年技术人”说一句:现在的媒体环境,把科技过于神话了,打造高科技的也只是凡人,不是全能的主,哪怕极其严格的飞机都有事故率,何况卖给普通百姓的车?若媒体不去神话智驾,若司机不高估智驾,都有可能避免悲剧。啥叫“辅助驾驶”?就是根本上说,还是司机驾驶,智能系统只是“辅助”。
会员用户请加微信,以防失联!
赞
赞
已有4人赞