人工智能的未来将依赖于先天结构还是后天学习?

2017-11-02阅读
http://5b0988e595225.cdn.sohucs.com/images/20171102/c23057f0595941d5b668a344918a8741.jpeg

作者| Jeremy Hsu

编辑|Emily

译者 | 马卓奇

纽约大学的 Yann LeCun 和 Gary Marcus 近日针对 AI 是否需要更多的类似于人类和动物的内置认知机制才能达到近似的智能水平展开了一场辩论。

一辆由先进的人工智能技术驱动的自动驾驶汽车可能需要在虚拟模拟中 50000 次撞到树上,才能知道这是个坏主意。但是野山羊羊羔在陡峭的山坡上攀爬时,在学习到如何找到稳定的立脚点使自己不会掉下去之前,无从奢求从几百次致命的试验中复活。一个心理学家 3 岁的女儿也不需要无数次的练习,才能突然想到如何从椅子后面的一个开口爬上去。

今天最强大的人工智能技术借助丰富的计算资源,从零开始学习世界上的一切内容。相比之下,人类和动物似乎能从直觉上理解某些概念,例如物体、地点以及一系列相关的事物,使他们能够快速了解世界是如何运作的。这就引出了一个重要的“天性与教养”的问题:人工智能的学习是不是需要内置人类和动物所拥有的这种先天认知机制,才能达到类似的一般智力水平?

两位 AI 和心理学的顶尖研究人员在昨晚纽约大学思想、大脑和意识中心主办的活动中对该话题进行了针锋相对的争论。

“无论是通过结构或通过学习,我们所拥有的 AI 技术中没有一种可以构造出类似动物和人类所构造的对这个世界的表述,” Yann LeCun 说。他是纽约大学的计算机科学家,以及 Facebook 的人工智能研究所主任。

LeCun 是人工智能领域深度学习的开辟者,帮助科技巨头打造流行的自动化服务。例如在 Facebook 上过滤朋友的面孔,或者通过 Google 翻译进行英语和汉语之间的翻译。深度学习算法使人工智能在没有人类和动物的认知机制的情况下,能够执行所有这些任务。并且,当拥有 Facebook,Google 或微软等公司的巨大的计算资源时,深度学习算法在过滤大量数据的过程中逐渐学会了识别世界的某些模式,这也是某些特定感知类型的任务所需的步骤,例如图像识别。

每个人都认同,目前的人工智能技术,如深度学习,依然无法使通用人工智能拥有与动物或人相媲美的智力。不过,LeCun 认为,基于无监督的深度学习,AI 可以在开发一般智力的道路上取得进步,无监督学习是一项最近发展的技术,消除了机器对人类提供手动标注数据的依赖。

LeCun 指出,现代人工智能的成功在很大程度上并不是依赖于内置假设,或结构化的关于世界是如何运行的概念。从这个意义来说,他倾向于用极简的 AI 算法结构来维持这种简单性。并且他认为这样做时可以不用考虑人类语言学家、心理学家或认知科学家的真知灼见。“我的任务是在我们所拥有的数据量的前提下,尽量减少学习过程所需的固有认知机制,”LeCun 说。

Gary Marcus 却认为没有这么快。Marcus 是初创公司“几何智能”(Geometric Intelligence,已被 Uber 的 AI 团队收购)的一名心理学研究员。他承认无监督深度学习有成功的机会。但他认为,只有这些算法用“更丰富的原语和表示形式,而不仅仅是像素”来理解世界时,才能成功。

Marcus 说:“我们想要的是孩子们也拥有的那种东西,那种用来理解物体的行为,以及世界的实体和物理学原理的表示和原语。”。

Marcus 希望看到 AI 研究者“从认知科学中大方采纳经验”,通过构建更多的可以代表认知概念的结构化算法,例如目标、集、位置,和时空连续性。他引用了他自己的工作,以及同事 Elizabeth Spelke——哈佛大学的认知心理学家的工作,来展示人类的孩子很早就具有能察觉到某些概念的能力,例如人、物体、集和位置。他建议:为什么不在 AI 中采用类似的方法,使用一些能映射到相似的概念的结构?

即使 LeCun 自己的开创性工作——卷积神经网络,它可以在物体识别任务中进行更有效的计算和处理,也是证明使用更具结构化的方法来约束 AI 必须过滤的信息量,可以帮助 AI 更好的理解世界的一个很好的例子,Marcus 说。

Marcus 说:“我认为,我们真正需要的是系统地思考和分析当我们在机器学习中嵌入不同数量的固有机制时会发生什么。”

LeCun 认为,AI 需要一定的结构来帮助它理解世界。但他想知道生物大脑中是否有“单一的学习算法、原理或程序”,或者是否更像是一个无组织原则的无意义的“黑客”集合。在他看来,人工智能可以大大受益于单一的学习原则,或这类的原则的集合,不管有没有内置的先天认知机制的结构模型。

“现在缺少的是一个可以让我们的机器通过观察,以及与世界互动,来学习世界是如何运作的原则,”LeCun 说。“我们目前缺少的,是一个学习预测世界的模型,在我看来,这是人工智能取得重大进展的道路上的最大障碍。”

LeCun 认为,智能的本质是预测的能力,因为预测未来是对世界的状态进行“填空”的一种非常特殊的情况。常识使得人类和动物能够根据他们所具有的世界如何运作的知识,来填补丢失的信息。这就是为什么人类司机不需要在 50000 次撞到树之后才能意识到这是一个坏主意,人类可以直接意识到如果他们把车撞到树上会发生什么。

LeCun 希望无监督学习可以使 AI 最终从物理角度对世界是如何运作的形成一种意识,而不是一些低级的常识。“如果在我的职业生涯结束时候我们有一个像猫,或者老鼠一样聪明的机器,我就很满意了,”LeCun 说。

关于 AI 学习最终将更多地证明“先天机制”还是“后天学习”的争论还远未解决。但 LeCun 和 Marcus 对于判断哪一个是正确的关键表现指标达成了一致。如果无监督学习算法最终需要更多的类似于对象、集合、位置等的认知表示的结构,Marcus 便可以宣称获胜。如果无监督学习不需要这样的结构就能成功,那么 LeCun 的理论将被证明是正确的。

Marcus 说:“一点点固有认知结构可能会帮助你朝着这个目标前进一大步。”

LeCun 澄清:“一点点,没错。”

查看英文原文

https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-and-psychology-researchers-debate-the-future-of-deep-learning