预犯罪,算法,人工智能和道德

我们尝试过基于统计的算法正义,但效果并不好。人工智能能做得更好吗?

我只是狂欢听了一个优秀的播客,LifeAfter,其中,没有给太多了,是关于人工智能及其对人们的影响。以下是该节目的简介:

当您在数字时代死了,你个生活永远。在您的电子邮件,你的社交媒体帖子和上传,在文本和视频你传递消息,而对于一些 - 甚至在少数人甚至知道他们的秘密网上生活。但是,如果这是什么数字化生存了它自己的生命?罗斯,低水平FBI员工,面对这个问题了,因为他开始花了几天网上说他的妻子查理,谁死了8个月前...

这期播客提出的道德问题非常吸引人,并且反复提到了一些我们开始重视的人工智能相关问题。

其中一个在我们刚刚交手谎言的方式我们人类现实世界的重大问题创建智能系统,因为谁做的设计和编码带来了自己的世界观,偏见,误解,以及最关键的是,偏见派对。

这种问题在当前AI产品的一个很好的例子最近的石英文章中讨论的那样,我们测试了Siri和Alexa等机器人,看谁能勇敢面对性骚扰。这项测试的结果很吸引人,而且在某种程度上是可以预测的:

苹果Siri,亚马逊亚莉克莎,微软的Cortana和谷歌的谷歌回家女贩定型俯首帖耳,这使他们的“进步”母公司在一个道德困境......信息是明确的:与其对抗滥用回来的,每个机器人通过他们的消极有助于巩固性别歧视比喻。

现在一些AI辩护者可能会认为,我们在早期的技术和所需要的范围提供一个通用的交互式数字助理仍在探索所以弱点和疏忽是可以预料到的,固定的,所有美好的时光。事实上,考虑到工作的严重性,这个论点没有,从表面上看,似乎不合理,但长期问题是在多大程度上这些不足将成为“常用”这些产品,他们永远无法完全固定和微妙的偏见对一个主题或位置通常是更有效地加强信念和行为比显式的支持。此外,考虑到人们更喜欢自己的偏见得到肯定和支持,而且数字助理要想真正发挥作用,就必须了解主人的需求和期望,因此存在自我强化反馈的风险。

在智能助理中,这种根深蒂固的接受甚至支持性别歧视的危险显然是不好的,但当人工智能应用于改变生活的现实问题时,最微妙的内在偏见就会变得危险。有多危险?考虑一下非人工智能、基于统计的算法,如Pro Publica的文章中所述,这些算法多年来一直被用来得出罪犯的“风险评估”机偏差,去年出版。这些算法的评估 - 是什么,本质上,“预测警务”(需要我提到的“预罪”?) - 确定一切从一个人是否能获得保释,并为多少,他们的判决将多么恶劣是。

[Pro Publica]获得了2013年和2014年在佛罗里达州布劳沃德县被捕的7000多人的风险评分,并查看了在接下来的两年里有多少人被控犯有新罪使用相同的基准由算法的创造者创造。

在预测暴力犯罪方面,这个分数被证明是非常不可靠的:只有20%被预测会犯下暴力犯罪的人最终会这样做。

当犯罪的全方位中考虑到 - 包括过失如用过期的许可证驱动 - 算法有点比抛硬币更准确。那些有可能被视为再跌倒,61%被逮捕两年内的任何后续的罪行。

这已经够糟,但可悲的是一个可预见的内置偏置透露:

在预测谁会再次犯罪时,该算法对黑人和白人被告犯的错误大致相同,但方式截然不同。

  • 这个公式尤其可能错误地将黑人被告标记为未来的罪犯,错误地以几乎两倍于白人被告的速度将他们标记为未来的罪犯。
  • 白人被告比黑人被告更容易被误认为低风险。

动力使用算法来处理复杂、昂贵的问题服务,如资金短缺的法院系统是显而易见的,即使严重缺陷识别在这些系统中,有大量反对停止他们的使用,因为这些算法给出的幻想解决高级系统问题(判断的一致性、成本尽管对个人的后果(不成比例的自由丧失)对每个人都是清楚的,而且对那些受到影响的人来说,生活也会发生改变。

尽管风险评估算法,这些众所周知的问题,但绝对没有疑问的是AI-基础的解决方案依赖于大数据和深度学习注定将成为必须和偏见和成见烤入这些系统会更难点。

将这些AI系统会比量化风险并确定结果的人类更客观?是否公平使用的将是外星智能决定人们生活的过程中?

我担心的是,不可测知的AI系统,缺乏理解的那些使用它们,和人工智能的“哇因素”将采用不是一个“如果”,但一个“当”,将比我们想象的更近,结果将是一个巨大的道德空虚,将支持更大的歧视,不公平的待遇,和私利已经漏洞百出的司法体系。

我们知道这是一个极有可能的未来。我们要怎么做呢?

注释?思考?给我留言那么按照我的推特Facebook的报名参加我的通讯!

加入网络世界社区吧有个足球雷竞技appFacebook的LinkedIn对那些顶级心态的话题发表评论。

版权©2017Raybet2

工资调查:结果在