福布斯分析:存在严重问题或使无人驾驶技术进入“寒冬”

业界
2019
04/03
11:35
凤凰网科技
分享
评论

北京时间4月3日消息,据福布斯网站报道,科恩实验室研究人员日前成功入侵特斯拉自动驾驶系统Autopilot这一事件表明,当前在事故发生后给漏洞打补丁的方式对自动驾驶 来说并不足够安全。从波音防失速系统出现漏洞而暴露出问题的严重性,不难看出自动驾驶 的可靠性是其关键核心。

通过在路上贴上几乎难以察觉的小贴纸,科恩实验室研究人员诱导特斯拉Autopilot将这些贴纸误判为车道标记,从而控制车辆转入反向车道。因此,对于自动驾驶 而言,在大部分情形下,在问题发生后进行漏洞修补显然不是可靠的最佳方式,因为这关系到人的生命,而这也正是 行业的安全和可靠性标准高于硅谷的大多数产品的原因之一。

这也突出了使用 学习模型驾驶 的主要问题之一。 学习更擅长处理数据集有限且稳定的情况,在此前提下可以确保模型能够真实地显示每个数据点,并且这些数据点不会改变。然而,实际路况并不具备这样的条件,这意味着仅依靠 学习算法推动自动驾驶 达到足够高的安全标准的可能性不高。

按照传统的硅谷思维模式“打地鼠”(whack-a-mole),这意味着每次系统崩溃时都要对其进行修补,但自动驾驶意味着系统漏洞或将以生命为代价,“打地鼠”显然不是确保自动驾驶安全可靠性的最佳方式。这与一些人员研究的观点不谋而合,该研究强调了 学习的局限性,并可能导致人工智能出现第三个“寒冬”。

最终的结果是,当前需要用一种不同的方法来实现自动驾驶,而重新思考这个系统将需要时间。虽然美国Radio Free Moblile机构目前仍坚持自动驾驶 到2028基本可以进入商业应用阶段,但能否成为现实还有待时间来验证

【来源:凤凰网科技

THE END
广告、内容合作请点击这里 寻求合作
福布斯 无人驾驶技术
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

相关推荐

1
3
Baidu
map