一个为期两天的人工智能(AI)会议可能会忽视相反的观点,尤其是在旧金山——技术创新的中心和被过度炒作的技术中心。
但通过添加Gary Marcus致演讲嘉宾名单麻省理工科技评论的EmTech数字会议,我们对人工智能有一个平衡的看法,包括对人工智能的工作领域进行批评以及为什么马库斯说,人工智能领域的研发方向不会导致人工一般智能(AGI)。AGI是一种理论上等同于人类智能的机器智能。
马库斯是纽约大学(New York University)神经科学教授,也是人工智能领域的领军人物,他作为批评者有着特殊的可信度,因为他刚刚将自己成立两年的人工智能初创公司几何智能(Geometric Intelligence)出售给了优步(Uber)。
人工智能可以做三件事:
- 语音识别
- 图像识别,当图像中的物体数量有限时
- 在有限领域的自然语言理解
人工智能不能做的6件事:
- 对话界面——向Siri提出超出脚本的问题,它就会崩溃
- 自动化科学发现
- 自动化的医学诊断
- 为盲人提供的自动场景理解
- 家用机器人
- 安全可靠的无人驾驶汽车
Marcus的一些观点是有争议的,比如使用图像理解来阅读放射图表来诊断疾病,或者通过阅读视网膜图像来诊断糖尿病视网膜病变,在某些情况下,其准确性与人类临床医生相当,甚至更高。但总的来说,他是正确的。他选择了这六个方面来进行比较:对于机器智能的这些问题,机器必须像孩子学习语言那样学习,而不是像现在这样训练机器。
马库斯以他将近3岁的女儿克洛伊的常识为例,解释了人工智能做不到的事情,而儿童能做什么。他描述了一次与女儿的谈话,他告诉她,他将把她的艺术作品放进妈妈的衣橱里。克洛伊推断——妈妈看不到艺术品,但当她打开衣橱时,她可以看到——这是机器智能局限性的一个例子。他断言,克洛伊无需像今天大多数人工智能系统那样,在1000万次类似情况下接受训练,就可以用几个词推断出他的意思。
基于机器学习的人工智能
除了一些强化学习的例子,如Libratus pokerbot和谷歌的alphago机器人,大多数人工智能都是基于机器学习,利用神经网络预测结果。
图像识别就是一个很好的例子。数以百万计的图像被展示给神经网络,神经网络将这些图像分类,以训练计算机模型。然后,将一组正确分类的图像展示给计算机模型,该模型使用梯度下降(一种复杂的平均误差减少形式)在数学上纠正神经网络产生的错误,以提高模型的精度,正确预测图像中的目标。
为了达到戏剧效果,马科斯引用了人工智能大师吴恩达分类机器智能模仿人类智能的能力。
麻省理工科技评论和加里·马库斯
马库斯对吴恩达的说法进行了反驳,他说,如今,人们在一秒钟内能做的任何事情都可以通过神经网络和机器学习实现自动化。但是,只有当有大量的训练数据来创建模型来理解图像等主题,将一种语言翻译成另一种语言,或识别自然语言的含义时,这才有可能。但是,如果要使模型具有较高的精度,则应该将模型应用于相当狭窄的应用程序,这些应用程序也不会受到太多变化的影响,不需要频繁的再培训,而且模型的应用程序必须具有容错能力,尽管有时错误率非常低。马库斯断言,这些系统并没有真正理解,而是预测了最有可能的含义。
目前机器学习预测的技术水平约为98%。马库斯表示,这种精度对于亚马逊的机器学习推荐系统来说是可以接受的,因为它可能会向购买了他的另一本书的人推荐他的另一本书。如果这个建议在2%的时间里没有带来令人满意的阅读,那么相应的成本仅为20美元。不过,他对自动驾驶汽车的行人探测器的准确率高达98%,或老年人护理机器人的准确率仅为2%的结果提出了质疑。
谈话并不全是批评。马库斯说,总有一天,智能机器将能够执行复杂的任务,比如阅读有关膀胱癌等疾病的研究论文,并提出一种新的治疗方法,但现在还不是时候,也许在他的有生之年也不是时候。
Marcus建议像CERN这样的全球政府资助的人工智能研究项目,专注于创造AGI所需的长期人工智能研究。欧洲核子研究中心运营着一个耗资46亿美元的核子加速器,并由研究粒子物理学的研究人员共享。
在AGI被创造出来之前,需要回答一些基础科学问题,这些问题可能需要十年或二十年的研究才能产生结果。从事人工智能基础研究的“蓝天”研究人员在预算和计算资源上都很有限。私营部门的研究过于专注于实现短期财务目标的技术,Marcus说,这将不会导致具有常识和AGI的机器。