在一个不太遥远的未来,自主汽车主要由AI系统驱动,将在大量的道路上击中道路。

但是在道路上的自治车辆只有一半的战斗。就是因为,即使在车内出现后,系统运营商也需要经常更新他们的软件模型并将更新部署到他们的船队。虽然我们只需每隔几个月更新智能手机应用程序即可获得一次乐趣,但自动汽车不是生气的鸟类,并且他们的软件需要经常更新,以便保持乘客安全。

在董事会上,汽车制造商同意持续培训和部署更新的软件模型,他们的舰队是他们最大的挑战。深入学习AI技术平台,物流,令人惊讶的是,人类都会在最终解决方案中发挥作用。

完全自主汽车的生产释放可能至少五年距离,因为这些机器对广泛的消费者使用几乎是安全的。谷歌的自动驾驶汽车仍然犯错误,就像在停车牌时被固定齿轮自行车上的骑自行车者混淆。在当地的街道而不是高速公路时,Tesla的Autopilot遇到了麻烦。事实上,有一个无限数量的这样的角色案例,即自动车辆必须响应,并且许多仍然需要被发现和考虑。只有当已经解决了足够数量的情况时,自主车将被视为“足够的安全”。作为Tesla最近博成:

“获得[自主车]为99%正确相对容易,但达到99.9999%的正确,这是它最终需要的地方,是更困难的。70英里/小时的错误是非常有问题的。“

连续更新挑战

虽然我们永远不会获得100%的准确性,但是当人类生活在危险时,我们必须继续尝试。这正是为什么在这些汽车成为大众现实之后,为自主车辆中的“大脑”连续更新“大脑”将是标准的做法。这就是新兴技术和人类的结合将会发挥作用的地方。

要了解为什么持续更新造成此类挑战 - 以及技术和人类如何共同努力解决它 - 了解一下自主汽车如何工作以及“教”他们驾驶所需的东西是有用的。让我们假设这一年是2025年,一个名为Hooli的虚构公司是其全自治车辆的商业释放的几年。在路上的每个百万左右的HOOLI自主车内有一个板载计算机,收集来自所有汽车的传感器的输入,并提供汽车所需的所有操作。这台计算机被编程为深入学习的神经网络模型,已经高度准确,使汽车能够执行数百个动作非常好 - 诸如停止在停止标志时停止,当光线为黄色时,避免人行横道中的行人,等等但正如我们所讨论的那样,Hooli希望定期更新此模型,以使其汽车更加安全,他们的目标是每周推出一次更新。

为简单起见,让我们假设Hooli试图提高汽车的行动之一的性能 - 车道变化。每周,Hooli的自治车辆进行超过1亿车道,在此期间,汽车收集并采取关于附近车辆的地理空间位置信息。附近车辆的地理空间位置由由板载相机捕获的图像中的3D“边界框”表示。(图像来源:多伦多大学。)

获得一个人类的循环

这些边界框中的一些肯定是由深度学习模型 - 可能证明灾难性的错误绘制的!例如,如果模型估计附近的汽车速度较长,那么事实上是15英尺长,那么自主车可以在改变车道时夹住另一辆车的保险杠,导致事故和伤害。幸运的是,可以通过将人类插入反馈循环来避免这种灾难。人类可以查看模型绘制的边界框,并通过重绘框来纠正任何错误。然后可以通过校正更新滚板模型。

当然,人类审查每周审查1000万车道更改视频并不实用,寻找错误的边界盒。但是,对于Hooli而幸运的是,有一种方法可以简化问题。边界框从深度学习模型伴随着置信水平,表示模型是界限框是正确的,且低置信水平通常伴随着错误绘制的边界框。因此,如果Hooli具有人类专注于仅审查那些具有低信心边界框的视频,他们仍然可以合理地确定他们将捕获最令人震惊的错误。

让我们说Hooli是为了让人类审查包含限定框的视频,置信水平为30%或更低。事实证明,只有大约5,000个视频符合这个标准 - 这显然是一个更具易行的数量超过1亿!假设平均需要一分钟才能观察,并且如有必要,请在单个视频中纠正边界框,然后在不到一个小时内完成100人审查和纠正最多5,000个视频的项目,给出了HoLi时间每周更新深度学习模型的时间。

一旦纠正了误判边界框,就可以将更新的图像馈入培训过程以生成更新的模型。为了验证更新的模型比旧的模型更好,Hooli针对验证数据集测试新模型和先前的模型(例如,使用人为验证的边界框的一个小时视频)并测量整体“闭合”将预测的边界框对人验证的框。然后将改进的模型在运行中部署到一百万个Hooli汽车,类似于Tesla如何将软件更新推向今天的汽车。

在一些关于AI的前景自动化一切,窃取工作,一般推动人类的前景很容易陷入困境。尽管令人难以置信的自动驾驶令人难以置信,但由于深度学习和其他技术,它可能会令人欣慰的是,它仍然需要很多生活呼吸人类,以识别自动驾驶系统中的错误,并开发和管理纠正它们所需的过程。简而言之,我们仍然需要人们教车来思考。

Naveen Rao是Nervana Systems的首席执行官。他也是一个神经科学家和处理器建筑师,并花了他的学术生活和职业生涯,以弄清楚如何使计算机模仿人类大脑。