大语言模型并非AI“尽头”?Meta首席科学家:仍无法企及人类智慧

周子意2024-05-25 08:37

Meta的首席人工智能(AI)科学家杨立昆(Yann LeCun)认为,现有的大型语言模型(LLM)永远无法实现像人类一样的推理和计划能力。杨立昆表示,大型语言模型“对逻辑的理解非常有限,它不了解物质世界,没有持久的记忆,不能以任何合理的术语定义来推理,也不能进行分层规划”。

在一次最新采访中,他认为并不能依靠现有的先进大型语言模型来创造出媲美人类智慧的通用人工智能(AGI),因为这些模型只有在获得了正确的训练数据的情况下才能准确回答提示,因此“本质上是不安全的”。

具体来说就是,杨立昆认为,目前的大型语言模型尽管在自然语言处理、对话理解、对话交互、文本创作上有着出色的表现,但其仍然只是一种“统计建模”技术,通过学习数据中的统计规律来完成相关任务,本质上并非真正拥有理解和推理能力

而杨立昆本人则在努力开发全新一代的人工智能系统,他希望该系统将为具有人类智能水平的机器提供动力,在机器中创造“超级智能”。不过他指出,这一愿景可能需要10年才能实现。

“世界建模”方法

杨立昆在Meta的基础人工智能研究(Fair)实验室管理着一个约500人的团队。他们正致力于创造一种能够形成“常识”的人工智能,并以与人类相似的方式观察和体验、并学习世界的运作方式,并最终实现通用人工智能(AGI),这种方法被称为“世界建模”

2022年,杨立昆首次发表了一篇关于“世界建模”愿景的论文,此后Meta基于该方法发布了两个研究模型。

杨立昆最新指出,Fair实验室正在测试各种想法,希望让人工智能最终能达到人类的智力水平,然而“这其中有很多不确定性和探索,我们也无法判断哪个会成功,哪个最终会被选中”。

此外,他还坚定认为,“我们正处于下一代人工智能系统的风口浪尖。”

内部矛盾

然而,这位科学家的实验性愿景对Meta公司来说是一场代价高昂的赌博,因为目前的投资者更希望看到人工智能投资的快速回报。

也因此,Meta公司内部也出现了关于“短期收入”和“长期价值”之间的观念分歧。这一点分歧从去年GenAI团队的成立便可看出。

Meta于2013年成立了Fair实验室,以开拓人工智能研究领域,并聘请了该领域的顶尖学者。然而在2023年,Meta单独划出了一个新的GenAI团队,由首席产品官Chris Cox领导,该团队从Fair实验室挖来了许多人工智能研究人员和工程师,并领导了Llama 3模型的工作,并将其整合到其新的人工智能助手和图像生成工具等产品中。

一些内部人士认为,GenAI团队的成立,或许因为杨立昆和Meta首席行政官扎克伯格两者在理念上存在某种矛盾。在投资者的压力以及盈利压力下,扎克伯格一直在推动人工智能的更多的商业化应用;而Fair实验室内部的学院派文化却让Meta在生成式人工智能热潮中稍显“弱势”。

在杨立昆发表这一观点之际,Meta及其竞争对手正在推进更多增强版本的大型语言模型,包括OpenAI上周发布的更快的GPT-4o模型;谷歌推出了一款新的“多模态”AI助理Project Astra;Meta上月还推出了最新的 Llama 3模型。

对于这些最新的大型语言模型,杨立昆是不屑的,他认为,“大型语言模型的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。”这也相当于在打自家Llama模型的脸。

尽管观念上存有矛盾,不过有知情人士透露,杨立昆依旧是扎克伯格的核心顾问之一,因为他在人工智能领域享有极大声誉。


来源:财联社 作者:周子意

版权与免责:以上作品(包括文、图、音视频)版权归发布者【周子意】所有。本App为发布者提供信息发布平台服务,不代表经观的观点和构成投资等建议
Baidu
map