9月26日消息,Facebook母公司Meta的首席AI科学家雅恩·勒昆(Yann LeCun)认为,目前大多数AI方法永远不会带来真正的智能,他对当今 学习领域许多最成功的研究方法持怀疑态度。
这位图灵奖得主表示,同行们的追求是必要的,但还远远不够。其中包括大型语言模型的研究,如基于Transformer的GPT-3。正如勒昆所描述的那样,Transformer的支持者们相信:“我们将所有东西标记化,并训练巨型模型进行离散预测,AI由此脱颖而出。”
勒昆解释称:“他们没有错。从这个意义上说,这可能是未来智能系统的一个重要组成部分,但我认为它缺少必要的部分。”勒昆完善了卷积神经网络的使用,该技术在 学习项目中取得了令人难以置信的成效。
勒昆还看到了该学科许多其他高度成功领域的缺陷和局限性。他坚持认为,强化学习永远也不够。像DeepMind的大卫·西尔弗(David Silver)这样的研究人员,尽管他们开发出了AlphaZero程序,掌握了国际象棋和围棋,但他们关注的是“非常注重行动的”程序,而勒昆观察到,“我们的大部分学习并不是通过采取实际行动来完成的,而是通过观察来完成的”。
现年62岁的勒昆有很强的紧迫性,他必须直面自己认为许多人可能正在奔向的死胡同,并试图引导其所在领域朝着他认为应该走的方向前进。勒昆说:“我们看到了很多关于我们应该做些什么来推动AI达到人类智能水平的说法,我认为有些想法是错误的。我们的智能机器甚至还没有达到猫的智能水平。那么,我们为什么不从这里开始呢?”
勒昆认为,不仅是学术界,AI行业也需要深刻的反思。他说,自动驾驶 群体,如Wayve这样的初创公司,认为他们只要向大型神经网络“抛出数据,就可以学到几乎任何东西”,这似乎“有点儿过于乐观了”。
勒昆称:“你知道,我认为我们完全有可能在没有常识的情况下拥有L5级自动驾驶 ,但你必须在设计方面做出努力。” 他认为,这种过度设计的自动驾驶技术将会像所有被 学习淘汰的计算机视觉程序一样,变得脆弱不堪。他说:“归根结底,将会有一种更令人满意、可能也更好的解决方案,它涉及到更好地理解世界运行方式的系统。”
勒昆希望促使人们重新思考有关AI的基本概念,他说: “你必须后退一步,然后说:‘好吧,我们建造了梯子,但我们想去月球,而这个梯子不可能把我们带到那里。’我要说的是,这就像制造火箭,我不能告诉你我们如何制造火箭的细节,但我可以提供基本原则。”
勒昆认为,AI系统需要能够推理,而他所提倡的过程是将某些潜在的变量最小化。这使得系统能够计划和推理。此外,勒昆认为应该放弃概率框架,因为当我们想要做些事情,比如捕捉高维连续变量之间的依赖性时,这很难处理。勒昆还主张放弃生成模型,因为系统将不得不投入太多的资源去预测那些很难预测的事情,可能会消耗太多的资源。
【来源:网易科技】