人工智能可能出错——但我们怎么知道呢?

你现在还不必担心我们的机器人霸主,但人工智能会让你陷入麻烦,除非我们遵循一些最佳实践。

肖像历史

Every time we hear that “artificial intelligence” was behind something – from creating images to inventing recipes to writing a description of a photo – we thought was uniquely human, you’ll see someone worrying about the dangers of AI either making humans redundant, or deciding to do away with us altogether. But the real danger isn’t a true artificial intelligence that’s a threat to humanity – because despite all our advances, it isn't likely we’ll create that.

我们需要担心的是创造出设计糟糕的人工智能,并毫无疑问地依赖它,因此我们最终会信任我们不理解的“智能”计算机系统,也没有建立起负责任甚至解释自己的系统。

自学成才的专家系统

你读到的大多数智能系统都使用机器学习。这只是人工智能的一个领域——但它是你听到的最多的,因为它是我们正在取得很大进展的领域。这要感谢互联网上的元数据信息;像Mechanical Turk这样的服务,你可以以低廉的成本雇佣员工来添加更多的元数据并检查你的结果;能很好地处理高速大量数据块的硬件(显卡);云计算和存储;很多聪明的人注意到把他们的研究带出大学进入市场可以赚钱。

机器学习是寻找模式并使用这些模式识别、分类或预测事物的理想方法。它已经提供了购物推荐、金融欺诈分析、预测分析、语音识别和机器翻译、天气预报等功能,至少还支持你已经在使用的几十项其他服务的一部分。

在实验室之外,机器学习系统不会自学;人类设计师告诉它们要学什么。尽管研究项目取得了令人印象深刻的成果,但机器学习仍只是计算机系统整合的一部分。但与大多数算法相比,它更像是一个黑盒子,甚至对开发人员也是如此——尤其是当你使用卷积神经网络(通常被称为“深度学习”系统)时。

[相关:机器人真的会偷走你的工作吗?]

“深度学习产生丰富、多层次的交涉,他们的开发人员可能不清楚地理解,”微软杰出的科学家埃里克·霍维茨说,他支持一项100年的研究在斯坦福人工智能将如何影响他人和社会,看看为什么我们不是已经越来越受益于人工智能,以及担忧AI可能难以控制。

深度学习的力量产生了“高深莫测”的系统,这些系统无法向使用该系统的用户或稍后审核该决策的人解释它们为什么做出决策。也很难知道如何提高它们。霍维茨解释道:“从糟糕的结果转而考虑‘是什么导致了问题,我应该把努力放在哪里,我应该在哪里改进我的系统,什么才是真正失败的,我该如何责备任务’,这并不是一个微不足道的问题。”他在MSR的众多项目之一就是研究这个。

在某些方面,这并不是什么新鲜事。Horvitz说:“自从工业革命开始以来,自动化系统就已经建立起来了,在这些系统中有一个嵌入式的、难以理解的操作原理。”“嵌入式的效用函数和设计决策总是有权衡的。”

使用AI,这些可以更明确。“我们可以有代表实用功能的模块,这样就有一个声明,有人对汽车应该以多快的速度行驶,或者它应该什么时候减速,或者它应该什么时候警告你,做出了权衡。这是我的设计决定:你可以审查它并质疑它。”他设想自动驾驶汽车警告你们这些权衡,或者让你改变,只要你接受责任。

让人们更容易理解系统,或者能够解释自己的系统,将是从人工智能中获益的关键。

歧视和监管

指望机器自动做出更公平的决定是幼稚的。决策算法是由人类设计的,并且可以内置偏见。当一个约会网站的算法只匹配比自己矮的女人时,它就会延续对关系的看法和期望。有了机器学习和大数据,你就可以在你学习的数据中自动重复历史偏见。

CMU的一项研究发现广告定位算法向男性展示的高薪职位广告多于向女性展示的在美国,这可能是出于经济原因,而非假设;如果更多的广告买家瞄准女性,汽车公司或美容产品的出价可能会超过招聘人员。但除非系统能解释原因,否则这看起来像是歧视。

美国公民自由联盟已经对在线广告跟踪是否违反了《平等信用机会法》和《公平住房法》提出了质疑。霍维茨指出机器学习可以避开医疗信息隐私保护的美国残疾法案和遗传信息非歧视行为,防止它被用于决定就业、信贷或住房,因为它可以使“category-jumping从非医学数据推断疾病。”

他表示,这在欧洲更是一个问题。“欧盟法律的一条主线是,当涉及到自动化决策以及与人相关的自动化时,人们需要能够理解决策,而算法需要解释自己。算法需要透明。“纯自动处理目前有一些例外,但即将出台的欧盟数据隐私法规可能会要求企业披露用于这种处理的逻辑。”

机器学习服务公司SkyTree的CTO Alex Gray说,金融行业已经不得不开始处理这些问题了,因为他们已经使用机器学习很多年了,特别是在信用卡和保险方面。

“他们已经到了影响人类生活的地步,比如拒绝给某人贷款。有规定强制信用卡公司向信用申请人解释他们被拒绝的原因。因此,根据法律,机器学习必须能够解释给每个人。监管只存在于金融业,但我们的预测是,你将在任何地方看到这种情况,因为机器学习不可避免地、迅速地进入人类社会的每一个关键问题。”

解释在医学中显然是至关重要的。IBM Watson首席技术官罗布高指出“这是非常重要的我们对我们的推理的基本原理是透明的。当我们为一个问题提供答案时,我们就为一个治疗建议提供了支持性证据。对接受这些答案的人来说,能够挑战这个系统,揭示为什么它相信它所建议的治疗选择,这是非常重要的。”

但他认为,重要的是展示系统从中学到的原始数据,而不是它用来做决定的具体模型。“一般人并不能很好地理解为什么不同的算法或多或少是相关的,”他说,“但他们可以通过它们产生的结果快速地测试它们。”我们必须以该领域专家能够识别的形式进行解释,而不是用系统中的数学来证明它是合理的。”

医学专家通常不会接受对他们没有意义的系统。霍维茨通过一个建议病理学家进行何种测试的系统发现了这一点。如果这个系统不局限于我们用来分类疾病但用户不喜欢它的层级,直到它以一种更容易解释的方式工作,它可能会更有效率。“它不会那么强大,它会问更多的问题,做更多的测试,但医生会说,‘我明白了,我能理解这个,它能真正解释它在做什么。’”

[相关:人工智能可能会帮助人类更好地完成工作,而不是让机器人抢走工作]

格雷表示,自动驾驶汽车还将给人工智能带来更多监管。“如今,一些(自动驾驶系统)是神经网络,无法解释。最终,当一辆车撞了人,需要进行调查时,这个问题就会出现。同样的情况也会发生在任何高价值的地方,这会影响人们或他们的生意;必须要有那种解释。”

相关:
12 第1页
第1页共2页
工资调查:结果在