人工智能可能出错 - 但我们如何知道?

你不必担心我们的机器人霸王,但艾没有让你进入一个麻烦的世界,除非我们观察一些最佳做法。

12 第2页
第2页,共2页

解释自己

将来,格雷说机器学习系统可能需要展示如何编写数据以及为什么选择特定机器学习模型。“在特定情况下,您必须解释模型的表现及其预测准确性。”

这可能意味着模型的透明度以及它有多强大之间的透明度之间的妥协。“这种情况并非总是这种情况更强大的方法透明度更不明显,但我们看到这些权衡,”霍尔维茨说。“如果你非常努力地获得透明度,你通常会削弱系统。”

除此之外,制造系统更可说明,还可以使用一台机器学习系统来解释另一个机器。这就是系统orvitz的基础,曾在叫做quad msr。“当它生成一个答案时,它可以说这是它是正确的概率,”他说 - 这也是一个技巧沃特森使用。“在一个Mearmevel,你正在进行机器学习一个复杂的过程,你无法直接看,以表征它要做的程度。”

建立了基于AI的预测分析的冰灯首席执行官Ryan Caplan建议系统可能会询问他们在给您答案之前需要解释多少。“通过询问”让人类控制“您是否需要合法解释模型,或者您需要最好的结果吗?”有时对解释性具有准确性更为重要。如果我在机场的不同区域设置温度,也许我不需要解释我如何决定。但在许多行业,如金融,人类必须能够解释决定,那么系统可能必须被缩减到某些算法。“

可访问性不脆弱

在汇集到Airbnb之前,在Google的AI项目上工作的Hector Yee,坚持认为“机器学习应该涉及人类在某处。”当他开始在Airbnb的预测系统上工作时,他要求同事,如果他们想要一个简单的模型,他们可以理解或他们不会更强大的模型。“我们提前提出了对人类可解释的模型的权衡,”他说,因为它使得在数据中的错误和异常值更加容易地处理。

“即使是最完美的神经网也不知道它不知道什么。我们在人类和机器学习之间有反馈回路;我们可以查看机器已经完成了什么以及我们需要做些什么来添加改进模型的功能。我们知道我们有哪些数据。我们可以做出明智的决定下一步做什么。当你这样做时,突然你的弱模型变得更强壮。“

Microsoft Research的Patrice Simard相信,适用于今天的PHD级机器学习专家。他的目标是“向民主化机器学习,使其如此易于使用我的母亲可以建立一个没有先验的机器学习知识的分类器。”

鉴于机器学习专家数量有限,他说,改善机器学习系统的最佳方式是让他们更容易发展。“您可以构建一个超级智能系统,了解一切,或者您可以将其分解为大量多个任务,如果这些任务中的每一个都可以在一个正常专业知识的一个小时内完成,我们可以讨论缩放的数量贡献者而不是制作一个特定的算法智能。“

当他正在运行Bing Ad Center时,他放弃了一种复杂但强大的算法,以实现更简单的东西。“使用20台机器培训了一周的时间来训练500万个参数,每次出现错误的人都指出了算法,我们必须证明它是计算正确的事情 - 然后一周后,同样的事情会再次发生。我用一个非常简单的算法替换了它的性能,但可以在几分钟或几小时训练。“更容易理解,更容易开发,并且没有更多的时间浪费算法是错误的争论。

能够迅速恢复是保持机器学习系统电流的关键,因为进入机器学习系统的数据会随着时间的推移而变化,这将影响它们所做的预测的准确性。Simard Warns的系统太复杂了,Simard Warns“您将被困住,您将陷入您不理解的算法。如果没有人可以告诉您它是否仍然有效,您将不会知道您是否可以保留系统。或者您可能有一个依赖于另一个系统,其中一个系统被迁退。你还能依靠它吗?“

如果AI真的有效,它将让我们的世界变得足够改变,以至于它必须发展来跟上,Horvitz指出。一种识别患者在医院入院风险的患者将它们脱离急诊室,将改变它必须评估的患者的混合。

一方面,AI系统需要了解他们的局限性。“当你采取一个系统并在真正的开放世界中熄灭时,通常存在许多未经某些情况下出现的情况。你如何设计一个明确了解他们在开放世界中的系统,并明确了解世界比他们的信息更大?“

但是,另一方面,他们也需要了解自己的影响。“AI系统本身就像我们构建它们一样,必须了解他们随着时间的推移,他们在世界中所做的影响,并且某种方式跟踪它们。他们必须表现良好,即使他们正在改变他们行为的世界。“

这个故事,“人工智能可以出错 - 但我们将如何了解?”最初是发表的CIO.

加入网络世界社区有个足球雷竞技appFacebooklinkedin.评论是最重要的主题。
有关的:

版权所有©2015.Raybet2

12 第2页
第2页,共2页
IT薪水调查:结果是