人工智能和心理学领域的两位顶尖研究者,纽约大学 Yann LeCun 和 Gary Marcus 就 AI 是否需要类似人类和动物的内置的认知机制,以实现类似人类的智能这一问题,展开了激烈的辩论。辩论的关键在于无监督学习算法最终是否需要内置的认知结构,如果在不需要这类结构的情况下取得成功,那么 LeCun 将被证明是正确的。

1.png

  一辆由AI技术驱动的自动驾驶汽车,可能需要在虚拟仿真环境中撞到树上5万次,然后才会学到这不是个明智的选择。但是,一只幼年野山羊在陡峭的山坡上学习攀爬,并不需要摔死几百万次。同样,一个三岁小孩也不需要练习无数次,才能想出如何穿过椅子爬到后面去。

  在强大的计算资源的支持下,现在,最先进的AI技术几乎可以从零开始学习有关世界的任何内容。相比之下,人类和动物似乎是本能地理解某些概念——对象、地点和相关事物的集合——这让他们能够快速了解世界是如何运作的。这就引出了一个重要的“先天vs后天”的问题:AI 的学习是否需要像人类和动物拥有的先天认知机制那样的某种内置机制,才能达到类似的一般智能水平?

  近日,纽约大学心理、大脑和意识中心举办的一场活动中,人工智能和心理学领域的两位顶尖研究者在这一问题上进行了针锋相对的辩论。

  纽约大学计算机科学家、Facebook人工智能研究主管 Yann LeCun说:“我们目前所拥有的AI技术,无论通过结构还是通过学习,都无法构建世界的表象,而这是我们观察到的动物和人类所拥有的能力。”

  LeCun 是人工智能领域深度学习技术的开拓者,深度学习技术帮助科技巨头们实现了许多热门服务的自动化,比如 Facebook 的人脸识别功能,谷歌的中英互译,等等。尽管缺乏类似人类和动物的先天认知机制,深度学习算法使得AI能够实现所有这些任务了。

  深度学习算法在过滤大量数据的同时,逐渐学会识别有关世界的一些特定模式——当你拥有Facebook、谷歌或微软的大量计算资源的话,它就能在某些感知任务上工作,比如图像识别。

  人们一致认为,目前的AI技术,比如深度学习,仍然不能让AI具有与动物或人类相当的智能水平。尽管如此,LeCun认为无监督深度学习可以让AI在通用智能方面取得进展。无监督学习消除了需要人类提供人工标记的数据的许多要求,这些数据用于让机器学习。

  LeCun 指出,现代人工智能的成功很大程度上不是依赖于构建有关世界如何运作的假设或结构化概念。从这个意义上说,他倾向于最小化AI算法的结构,以保持这种简单性。他认为这样做不需要利用人类语言学家,心理学家或认知科学家的知识。他说:“我追求的是尽量减少先天机制的部分,利用我们现有的数据去学习。”

  不过,纽约大学研究型心理学家、Geometric Intelligence公司(现在属于Uber的AI团队)的创始人 Gary Marcus 认为 LeCun 的追求不会那么快实现。

  他认同无监督深度学习有成功的机会,但他也认为,算法只有具备了“更丰富的原语(primitives)和表达方式(epresentations),而不仅仅有像素”,才能在理解世界方面取得成功。

  Marcus 说:“我们希望AI具备为理解对象、实体的行为和物理现象而构建的表达方式和原语,就像人类婴儿先天拥有的那样。”

  Marcus 希望看到AI研究人员“更多地借鉴认知科学的知识”,构建更加结构化的算法来表示对象、集合、位置和时空连续性等认知概念。他引用了自己的工作,以及哈佛大学认知心理学家 Elizabeth Spelke 等人的研究,展示了人类儿童如何能够在幼儿时期具备感知人、物体、集合和位置等概念。他提出一个建议:为什么不在AI中利用类似的方法,把一些结构映射到类似的概念?

  尽管 LeCun 自己在卷积神经网络上的开创性工作就是一个很好的例子,说明使用更结构化的方法来约束AI必须处理的信息量,可以帮助它更好地理解世界。

  Marcus说:“我认为,我们真正需要的是系统的思考和分析,假如我们将不同量的先天机制嵌入到机器学习中时,会发生什么。”

  LeCun 赞同AI需要一些结构来帮助它理解世界,但他对在生物大脑中是否存在“单一学习算法、原则或程序”存疑,还是说它更像是一种没有基本的组织原则的无意义的“黑客”(hacks)集合。在他看来,人工智能可以从单一的学习原则或这种学习原则的集合中获益,不管是否具有内在的先天认知机制的结构模块,这些原则都会产生。

  “缺乏的是一个原则,这个原则可以让我们的机器通过观察世界和与世界互动来了解世界是如何运作的,”LeCun说。“我们现在所缺少的是一种学习预测世界的模型,在我看来,这是人工智能领域取得突破性进展的最大障碍。”

  LeCun说,智能的本质是预测的能力,因为预测未来是一个非常特殊的“填空”的场景。常识使人类和动物能够根据他们对世界运作的认知来填补缺失的信息。这就是为什么人类驾驶员不需要撞5万次树才能意识到撞树是错误的行为;人类具备的常识让他们知道,如果车撞到树会发生什么事。

  LeCun 希望无监督学习能够引导AI最终发展出一种理解世界运作方式的“感觉”(sense),如果不是某种原始的“常识”的话,那么就从物理学的角度。“如果在我的职业生涯结束之前,人工智能系统能像猫一样聪明,我会很开心,”LeCun说,“再不然,像老鼠一样聪明也行。”

  关于AI学习“先天还是后天”的争论还远未结束。但是,LeCun 和 Marcus 都认同可以根据一些关键性能指标来看哪一方更为合理。如果无监督学习算法最终需要更多类似对象、集合、位置等等的认知表征(cognitive representations)的结构,那么Marcus就是这场辩论的胜方。如果无监督学习在不需要这类结构的情况下取得成功,那么LeCun将被证明是正确的。( 新智元编译 来源:spectrum.ieee.org 编译:刘小芹)

  原文地址:https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-and-psychology-researchers-debate-the-future-of-deep-learning