无论优步测试的自动汽车是本身有问题,还是人工智能软件有缺陷,都可以在调查之后弄清,从而让研发人员找到纠正自动驾驶汽车缺陷的方法,也就能在今后进一步提高或保证自动驾驶汽车的安全性。
■ 张田勘
日前,优步自动驾驶汽车在美国撞死一名正在过马路的49岁女性的新闻引得各方关注。当时优步的车正处在自动驾驶模式,时速65千米,驾驶座上坐着一名操作员。
实际上,这并非自动驾驶(无人驾驶)汽车的第一次严重事故。2016年5月,同样在美国,特斯拉的一辆Model S汽车在自动巡航状态下与一辆白色卡车相撞,驾驶员在车祸中不幸丧生。
自动驾驶汽车发生严重车祸,是继续还是叫停?
表面上看,优步已经暂停北美洲的自驾车测试,但并不意味着要中止自动驾驶汽车的研发。
自动驾驶汽车出现问题意味着人工智能将进一步接受挑战,如果调查清楚原因和分清责任,无疑将极大改进人工智能,并让自动驾驶汽车更早融入人们的生活,这是对待人工智能应取的态度。
从目前的情况看,此次事故最大的责任或许不在人工智能,或人工智能承担的责任不大。坦佩市警察局方表示,从优步无人驾驶汽车配备的摄像头中提取的视频片段显示,这起事故的责任可能在于受害者本人,因为受害者是从阴影中突然出现在马路上的,而且,受害人并没有在人行道上行走,是在距人行道约100米的地方横穿马路。
尽管目前还不清楚优步的自动汽车是否有设计缺陷,但是此次事故对自动驾驶汽车提出了一个非常具体的高要求——如何避免行人突然横穿马路而发生事故。
特斯拉Model S出故障是因为其自动驾驶软件系统的摄像头不能在白天强光下及时发现白色拖车侧面的反光,使得自动驾驶模式下的刹车功能未能紧急启动,从而造成与挂车相撞。
优步在测试自动驾驶汽车时出现撞死行人的严重车祸,但是并不意味着自动驾驶汽车天然就比人为驾驶汽车的安全性要差。相反,统计数据显示,自动驾驶的安全性比人为驾驶更高。
美国高速公路交通安全管理局的调查表明,特斯拉汽车安装了自动驾驶系统后汽车更安全。特斯拉于2015年安装了方向盘自主转向软件以来,其撞车率已经下降了40%左右。美国2016年的统计表明,美国公路上因交通事故丧生的人数超过35000人,其中94%的事故是因司机失误导致的。而美国特斯拉的车主使用自动驾驶仪的行驶距离超过1.3亿英里,才只出过一次致死事故。毫无疑问,自动驾驶汽车的安全性高于人类司机。
另外,此次车祸需要弄清的一个重要问题是,谁对车祸负责和如何让各方对善后处理都满意。
优步测试的自动驾驶汽车责任主体比较复杂,涉及多方,优步、沃尔沃公司、研发控制汽车的人工智能软件的公司,甚至还要加上出事时坐在驾驶座上的那名操作员。
在自动驾驶汽车发展较快的国家,如欧美国家早就在讨论自动驾驶汽车运行的法律责任,趋向于把研发、生产自动驾驶汽车的人员和机构作为责任人。
但目前,这种法律责任的认定并不明确,德国规定如果人工智能系统引发事故,将由汽车制造商承担责任,但美国并未明确规定。
自动驾驶像人类驾驶一样,都会出错。问题是,事故出现的概率有多大。从某种意义上来看,事故是无法完全避免的,不怕出事故,就怕出事故后没有人负责。所以,全球都在关注这次自动汽车事故的调查结果以及责任如何承担。