188体育app官网_188体育投注

返回首页
您的位置:首页 > 新闻 > 188体育app官网:

以通专融合方式构建AGI——路径与关键问题探索|CNCC2024

阅读量:202 2024-12-04 收藏本文


周伯文,上海人工智能实验室主任、首席科学家,清华大学惠妍讲席教授、电子工程系长聘教授,IEEE/CAAI Fellow,国家新一代人工智能治理专业委员会委员、新一代人工智能发展研究中心专家委员会委员,科技创新2030-“新一代人工智能”重大项目首席科学家。曾任IBM Research人工智能基础研究院院长、IBM Watson Group首席科学家、IBM杰出工程师;京东集团高级副总裁、集团技术委员会主席、云与AI总裁。





导语

自2016年以来,周伯文教授及其团队持续深入研究AGI的实现路径。面对当前大语言模型在Scaling Law与架构等方面的技术瓶颈,不仅提出了完整的AGI实现路径,更创新性地从应用价值出发,探索更高效发挥AGI潜力的场景与方法。本文详细介绍了这一原创性路径及其技术研究,旨在为AGI的未来发展提供新的纵深视角和实践指导。

本文内容整理自周伯文教授在CNCC2024大会的特邀报告。





人工智能突破从哪里来,未来向何处发展?


前沿学者们对大语言模型的能力边界进行了持续讨论。例如,图灵奖得主Yann LeCun常提及,机器学习目前存在诸多短板,他的研究偏重泛化性,关注如何尽量达到人类的智能。而DeepMind强化学习团队负责人David Silver提到,要做到Superhuman Intelligence(超人类人工智能)以及发现更多新知,大语言模型尚且存在局限,仍有许多工作有待完成。然而他强调的是如何在一些专业领域实现Superhuman Intelligence,并不是具备更强的通用能力。


因此,在当下这一时间节点,探讨AGI的实现方向及其关键问题,具有重要的意义。


我最早对AGI发展路径的思考作公开分享是在2016年,当时我正担任IBM总部的人工智能基础研究院负责人。在那一年的Town Hall Meeting上,我提出人工智能的发展会经历三个阶段,分别为狭义人工智能(ANI)、广义人工智能(ABI),以及通用人工智能(AGI)。


图片

周伯文教授在2016年提出,人工智能的发展会经过ANI、ABI、AGI三个阶段


当时我的判断是,基于深度学习的监督算法仅能实现狭义人工智能,因其在任务间的迁移和泛化能力极为有限,并且需要大量标注数据。另一方面,2016年AGI还是非常模糊的愿景,全世界只有极少数研究者谈论,我个人当时给出AGI的定义是比人类更聪明,会独立自主学习,并且一定需要更好地治理和监管——这点非常明确。但怎样从狭义人工智能走向AGI,我判断中间有一个必经阶段,并将其称之为ABI,即广义人工智能。


这应该是ABI概念被首次提出,因此我也给出了三个必备要素的定义:自监督学习能力、端到端能力,以及从判别式走向生成式。尽管2016年狭义人工智能进展明显,但因为预判其能力存在上限,我当时呼吁AI研究者尽快从狭义人工智能,转向探索广义人工智能。


回过头看2022年底出现的ChatGPT,以上三个要素基本都已具备,所以可以认为预训练大模型较好地实现了广义人工智能。但当时我本人未曾预料其具备如此强大的涌现与零样本学习能力,尽管我曾提到ABI应该具备优秀的少样本学习能力。


认知决定行动,行动取得结果,有了上述判断,我的团队在2016年转向广义人工智能研究,开始思考如何让模型更好地泛化,随后在2016年底提出了多头自注意力机制的原型(A Structured Self-attentive Sentence Embedding, https://arxiv.org/abs/1703.03130),并首先应用在与下游任务无关的自然语言表征预训练中。


图片


Transformer完善了多头自注意力架构,但其价值的放大,来自于OpenAI的研判。OpenAI发现并认为,基于多头自注意力架构用于预测下一个词,由此训练出来的大语言模型是目前最好的世界知识压缩器。站在2019-2022年的视角,这个认知非常前沿,是实现压缩智能的基础。我们可以认为Transformer和GPT代表的压缩智能是AGI的重要里程碑。


但毫无疑问,仅靠压缩智能远远不能实现AGI。Google DeepMind发表于2023年的论文(Levels of AGI: Operationalizing Progress on the Path to AGI. 2023),将AGI进行了分级。一方面借用了我们提出的从狭义人工智能到通用人工智能对比的概念,另一方面在专业性上将人工智能分成了6个级别,从不具备AI能力即纯粹编程,到Superhuman Level(“超人类”水平)。


图片

Google DeepMind把AGI分为6个等级


可以看出,ChatGPT虽然有很好的泛化性,但在智力水平只属于第一级Emerging Level(“初现”),还达不到第二级Competent Level(“和人类相当”)——后者的定义是超过50%的人类。再往上为Expert(专家级),是指超过90%人类的水平;Virtuoso(魔术师级)是指超过99%人类;而所谓Superhuman(超人类)是指在该领域可以超越所有人类——如同最新版的AlphaFold一样,人类无法在蛋白质折叠这个领域再击败AI了。


图片


但类似AlphaFold这种专业性极强的AI,其泛化性往往较为有限。若将泛化性与专业性结合考虑,可以形成一个二维概念框架。我们注意到,ChatGPT和Sora在泛化性方面取得了显著进展,但在专业性方面仅达到人类15%-20%的水平。即便运用Scaling Law(规模律)进一步增加模型参数,其专业性的提升效果并不显著,而成本却显著增加。专业性不足不仅限制了创新,还会导致大量事实错误的出现。


回顾人工智能七十余年的发展历程,我认为实现通用人工智能的路径可被视为一张二维路线图:横轴代表专业性,从IBM的深蓝到DeepMind的AlphaGo,在横轴方向(专业性)上取得了显著进展;但这些工作的泛化性一直较为薄弱,限制了AI技术的进一步普及。


图片


而从2016年多头自注意力,到Transformer、ChatGPT出现,压缩智能代表的是泛化性狂飙。但可以看出,它在专业性上的水平进展极其缓慢,Scaling Law很明显不足以延伸它的专业性,能力长期停留在level 1的左侧。


未来人工智能应当如何发展,并推动更大的价值创造?从2022年底,我在多个场合讲过,存在一个高价值区域,这个区域在横轴应达到或超过90%以上专业人士的水平。同时又具备能达到广义人工智能级以上的泛化能力,以极低成本在不同任务之间进行迁移。这个区域,即是AGI路线图中的“高价值区域”。


这个区域离这张路线图出发最近的点,我称之为通专融合引爆点。是否存在一种路线,从当前技术出发,能更快地接近通专融合引爆点?我认为存在这样的路线,并将其称为通专融合技术路线


虽然我们看到此前OpenAI一直都是在Scaling Law的泛化性上持续推动,但今年也开始朝专业性方向迭代。从GPT-4o之后,OpenAI将很多精力投入“草莓”系统的研究,开始沿着与通专融合相似的方向发展。


回到通专融合的目标:一方面,随着合成数据飞轮效应的加速,过去一年基础模型获取通用能力的难度显著降低;另一方面,在世界知识的压缩能力上,开源模型的性能已无限逼近闭源模型。然而,不管是开源还是闭源模型,在专业化能力方面仍存在显著瓶颈。例如,在实际的软件工程环境中,GPT-4仅能解决GitHub中1.74%的人类提出的问题。即便通过引入大量工具、结合基础模型与工具型Agent的方式,这一比例也仅提升至13.85%。


可以看到,目前对于世界知识进行压缩的智能发展路径正在自然演进,但我们认为在这之上的专业能力,才是现阶段AGI皇冠上的明珠。


图片





通专融合AGI实现路径


我们提出的通专融合,不仅需要同时具备专业性和通用泛化性,还必须解决任务可持续性的问题,来让人工智能高效地可持续发展,它们形成了通专融合技术挑战的三个顶点。


图片