自动驾驶AI产生的偏差可能会影响人类安全

标签:自动驾驶
分享到:

人工智能在如今生活中起着越来越重要的作用,有的公共部门已经开始使用这类系统。很多融入人工智能的系统都基于一个称为「机器学习」的方法,它是从大型的数据集中发掘学习特定的模式,并在输入新的数据时做出合适的判决。虽然在人工智能协助下人们工作压力得到了缓解,但是它们做出的决策也可能对人们生活带来不利影响,如何才可以确定一个系统好坏,如何评价其决策是否带有偏见呢?

人工智能有潜力让我们更安全,但它做出的每一项决策都公平吗?

我们相信人工智能(AI)有潜力让每个人都更安全。例如,在未来,自动驾驶汽车中人工智能不会分散的注意力和超人的反应力会大幅降低事故率,但要全面超越人类驾驶员并不容易。因为人工智能不能在各种驾驶条件下都保持安全可靠。

偏差或系统错误是对人工智能安全的严重挑战。如今,在人工智能驱动的产品中可以发现各种偏差,比如面部识别软件,它对白人男性的识别比对女性和有色人种的识别更准确,偏差渗入一个人工智能有很多原因,一个性能不佳的相机可能不适合深色皮肤,也许训练数据全是公司员工,而这些员工大多是白人和男性。

识别

这是从一个开源的行人检测器训练过程中得到的例子,你能发现什么问题? (来源: Edge Case Research)

由于人工智能被用于一些关乎人类安全的应用程序,因此很容易看出偏差带来的风险。自动驾驶汽车使用人工智能(AI)探测行人,就像人脸识别一样,我们不希望无人驾驶汽车忽视头发较长、肤色较深或身材较矮的人,从而发生事故,人的外表不应该对安全产生影响。

用于举例的行人检测器可以简单地被认为是在通过和不通过之间做权衡,这种权衡的本质表现为通过测量探测器处理分析数千或数百万张人类图像的来构建的函数。但这种分析可能忽略了重要的安全风险,虽然我们的探测器可以在所有行人中运行良好,但它遇到坐在轮椅上的人仍然可能频繁地错过,这种偏差显然是不可接受的。

偏差来自机器学习本身

比如专门针对成年人的探测器可能会漏掉比较矮的孩子。在某些场景和光照条件下,AI的训练可能也会没有很好的表现,比如穿深色衣服的人在深色背景下拍照或者被阳光照射的人。

人工智能的偏差可能会令人大吃一惊,因为机器学习与人类学习是不同的。我们可以看到人工智能未能正确检测到身穿反光背心的建筑工人。虽然训练者期望这些背心可以提高正确率,但是请从统计的角度考虑这个问题,只有一小部分行人会穿黄色背心,所以明亮的反光背心与人本事存在无关。奇怪的例子不胜枚举,又比如神经网络可能会对站在垂直边缘附近的人失去追踪,就像杆子一样,完全出乎了训练者的意料。

误报

误报率(来源:Edge Case Research)

这就导致了一个鸡生蛋还是蛋生鸡的问题:你可以在AI训练中测量偏差,但前提是你知道要寻找到每种特定的偏差。这就是为什么构建安全自主产品的标准不仅应该要求制造商对已知的偏差进行测试,而且还应该仔细监测新的、意想不到的偏差,而这些偏差可能在产品广泛使用之前不会显现出来。

将本来模仿人类大脑学习功能的人工智能黑盒「打开」是一个棘手的问题,因为我们对于自己的思考和学习模式仍未探索清楚。人工智能在研究和商业开发是注重点是不同的,商业更偏向于 "make it work",而研究则需要弄明白 "how it work",但在巨量数据集的推动下,使得模型越来越难以理解,业界对于模型的可解释性并给予重视,作为研究者更有责任揭开其面纱。

 

继续阅读
高清地图对自动驾驶有没有帮助?

特斯拉的CEO马斯克,认为自动驾驶汽车使用高精度GPS地图是个糟糕的方案。马斯克明确表示,过于依赖高清地图会让自动驾驶汽车变成一个极其脆弱的系统,更难适应复杂的路况。而汽车行业的其他公司几乎都认为自动驾驶汽车至少可以使用高清地图作为备用系统。那么高清地图对自动驾驶到底有没有帮助呢?

发挥想象力,在自动驾驶汽车畅聊你的想法

完全自动驾驶情况下,人类的驾驶时间减少到零。人类在车中扮演的角色将只是乘客,不再是汽车司机。他们要以乘客的身份来度过原来在驾驶任务上花费的700亿小时。与小R聊聊,你想怎么利用这些空出来的时间呢?

“脱离”报告不应该成为自动驾驶测试的标准

一年多以前,亚利桑那州发生了一起由自动驾驶测试用车引发的致命事故,给这项热门的技术蒙上了一层阴影。在日新月异的科技世界里,Elaine Herzberg被一辆优步的自动驾驶测试车撞倒的消息似乎已经成为旧闻,大多数人也已经淡忘了。即使事故后媒体疯狂报道,相关企业进行了道歉,但自动驾驶开发公司真的吸取了正确的教训吗?

自动驾驶AI产生的偏差可能会影响人类安全

人工智能在如今生活中起着越来越重要的作用,有的公共部门已经开始使用这类系统。很多融入人工智能的系统都基于一个称为「机器学习」的方法,它是从大型的数据集中发掘学习特定的模式,并在输入新的数据时做出合适的判决。虽然在人工智能协助下人们工作压力得到了缓解,但是它们做出的决策也可能对人们生活带来不利影响,如何才可以确定一个系统好坏,如何评价其决策是否带有偏见呢?

无人驾驶能为人们带来便利吗?

当下现实已经深入人心,自动驾驶的未来并不像许多科技公司和汽车制造商最初承诺的那样,在2020年或2021年就会到来。我们只能面对现实,自动驾驶汽车技术是非常困难的。无论自动驾驶技术搭载的是货物还是人,构建合适的的人与机器交互界面同样很困难。