
“AI教父”辛顿WAIC演讲:我们正在养一头老虎,别指望能“关掉它”
"AI教父"辛顿在WAIC上的演讲指出,人工智能的发展就像正在饲养一头强大的老虎,我们不能期望能够轻易地“关掉它”,需要谨慎对待这一技术的快速发展,辛顿强调了人工智能的潜力和风险,呼吁行业内外共同努力,确保人工智能的发展能够带来积极的影响,并避免潜在的风险和危害,辛顿在WAIC演讲中警告,人工智能的发展如养虎,难以轻易控制,需慎重对待其潜力与风险,呼吁共同努力确保AI的积极影响。
7月26日上午,2025世界人工智能大会(WAIC)在上海拉开帷幕。
在大会主论坛上,图灵奖得主、诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)出席并作演讲,这也是辛顿首次以线下形式在中国公开亮相。
辛顿本次演讲以《数字智能是否会取代生物智能》为主题,他深刻剖析了数字智能与生物智能的根本差异,并分别用乐高积木和养老虎打比方说明了AI的思维逻辑以及人与AI的关系。
在对AI前景方面,辛顿感到警惕。他直言,我们正创造比自己更聪明的AI,这就像在家里养一头老虎当宠物,指望“消除它”是不现实的。
以下是辛顿的核心观点:
- AI发展有两种范式,一是逻辑型范式,认为智能本质在于推理,通过符号规则操作符号表达式;二是生物学基础范式,认为智能基础在于学习和联结网络,理解先于学习。
- 大语言模型理解语言的方式与人类基本相同。人类有可能就是大语言模型,也会像大语言模型一样产生幻觉,创造出许多幻觉性语言。
- 如果用乐高积木类比看,每个词都是多维度的积木,可以根据上下文调整形状,词与词之间需要“恰当握手”来产生含义。这种动态的特征整合过程,正是人脑和神经网络理解语言的根本方法。
- 数字智能具有两大优势:一是软硬件分离带来的“永恒性”,知识可以永久保存和复制;二是知识传播效率极高,数字智能可以通过参数共享瞬间传递万亿比特信息。相比之下,生物智能虽然耗能更少,但知识分享困难。
- 当能源足够廉价、可以复制成千上万同样聪明的AI大脑的时候,数字智能将不可逆地超越生物智能。因为它们能以直接拷贝大脑知识的方式在群体中瞬时传播知识。
- 我们正在创造比人类更聪明的AI,而这些智能体具有生存欲望和获取控制权的动机。
- 当前人类与AI的关系,恰似饲养一只老虎——它长大后可能轻易超越人类。为了生存,要么摆脱它,要么找到永久保护自身的方法。
- AI已无法消除,它能大幅提升几乎所有行业的效率,即便有国家想消除,其他国家也不会认同。
- 辛顿建议,我们应当建立国际AI安全机构网络,研究如何训练超级AI向善,让它们愿意做辅助工作而不是消灭人类。
- 如何训练比人类更聪明的“好AI”,将是全人类的长期课题。好消息是在这个问题上,所有国家都有合作的动机和可能性。
以下为演讲全文纪要:
各位同事、各位领导、女士们先生们,感谢大家给我这个机会,与各位分享我对AI历史和未来的个人观点。
60多年来,AI发展呈现出两种不同的范式和路径。第一种是逻辑型范式,过去一个世纪都以此为主导。这种观点认为智能的本质在于推理,通过符号规则对符号表达式进行操作来实现推理,从而帮助我们更好地理解知识的表达方式。
另一种是以生物学为基础的AI理解方式,这也是图灵和冯诺依曼所相信的观点。他们认为智能的基础在于更好地学习和了解学习网络中的连接,在这个过程中理解是第一位的,然后才能实现学习。与这两种理论相对应的,一个是符号型AI原理,另一个则是完全不同的数字化理论。数字的本质实际上是一系列语义学特征的集合。
1985年,我创建了一个小型模型,试图将这两个理论结合起来,更好地理解人们如何理解词汇。我为每个词设置了多个不同特征,记录前一个数字的特征后,就可以预测下一个数字或下一个词,然后继续预测后续词汇。在这个过程中,我们没有存储任何句子,而是生成句子并预测下一个词。这些关联性知识取决于不同词汇特征之间的语义互动。
接下来的30年发生了什么呢?
十年后,Bengio采用了类似的建模方式,但将规模大幅扩展,使其成为自然语言的真实模拟。20年后,计算语言学家开始接受特征向量嵌入来表达词汇含义。又过了30年,谷歌发明了Transformer,OpenAI的研究人员也向大家展示了这一技术的能力。
这就是我们今天所拥有的成果。
因此,我将今天的大语言模型视为早期微型语言模型的后代,它们拥有了更丰富的词汇量。
1985年以后,大语言模型开始使用更多词汇作为输入,采用更多层的神经元结构。由于需要处理大量模糊的数字,学习特征之间建立了更加复杂的交互模式。大语言模型与人类理解语言的方式相同,基本理解过程是将语言转化为特征,然后以完美的方式整合这些特征。这正是大语言模型各个层次所做的工作。因此,大语言模型真正理解人类如何理解问题,与人类理解语言的方式一致。
传统符号AI的做法是将语言转化为不模糊的符号,但实际情况并非如此,人类不是这样理解语言的。可以用乐高积木来比喻理解过程:通过乐高积木可以搭建任何3D模型,比如制作车子的小模型。将每个词视为一个多维度的乐高积木,可能包含几千个不同维度。这种多维度的积木可以进行建模,创造多种不同内容,语言因此变成了一个建模工具,能够随时与人沟通,只需要给每个积木命名即可,每个积木就是一个词。
语言和乐高积木存在许多差异。乐高积木有多种不同类型,数量达到成千上万块。乐高积木的造型是固定的,但词的符号形状可以进行设定,也可以根据不同情况进行调整。乐高积木通过塑料圆柱体插入塑料孔,或将正方形插入正方形孔来连接,相对确定。
语言却不同,每个词可以想象成有很多只手。要更好地理解词汇,需要让词与词之间恰当地握手。一旦词的造型发生变形,它与另一个词的握手方式就会改变。这涉及优化问题:一个词变形后意思发生变化,如何与下一个词握手以产生更好的含义。这就是人脑理解意思的本质,也是神经网络理解意思的根本方法,类似于蛋白质与蛋白质之间的组合过程。
蛋白质通过将氨基酸进行不同模型整合融合,结合后能产生更有意义的内容。这正是人脑理解词汇和语言的方式。因此我认为,人类理解语言的方式和大语言模型理解语言的方式几乎相同,人类有可能就是大语言模型,也会像大语言模型一样产生幻觉,创造出许多幻觉性语言。
但在一些重要的根本性方面,大语言模型与人类不同,甚至比人类更强大。计算机科学的一个基础原则是将软件和硬件分离,这使得同样的软件可以在不同硬件上运行,这与人类存在根本差异,也是计算机科学存在的基础。
程序中的知识是永恒存在的,软件和程序可以永久保存。即使所有硬件都被摧毁,只要软件继续存在,就可以随时复活。从这个意义上说,计算机程序的知识具有永恒性和不朽性。
要实现这种永恒性,需要晶体管在高功率运行时仍能产生可靠的二进制行为,这个过程成本很高。我们无法利用硬件中丰富的模拟特性,因为这些特性不够稳定可靠,每次都是模拟型的,每次计算结果都不相同。人脑是模拟的而非数字的,每次神经元激发过程都是模拟型的,不会完全相同。我无法将自己大脑中的神经元结构转移到他人大脑中,因为每个人的神经元连接方式都不同,我的神经元连接方式只适合我的大脑神经结构。知识传播在硬件中的方式与在人脑中的方式不同,这正是问题所在。
如果我们做不到永生,硬件的优势在于它不依赖于特定条件,因此具有永生特性,能带来两大好处。
我们可以使用功耗极低的模拟硬件。仅用很小的功率和电能就能实现功能,人脑只需要30瓦特就足够运行,而我们有几万亿个神经元连接。这种发展硬件的情况与电子管的发展类似。
我们能够做到极其精确的模拟,不需要花费大量资金去制造完全相同的硬件。
但是我们现在面临一个较大的问题:从一个模拟模型转换到另一个模型,将知识进行迁移是非常低效和困难的。就像我无法直接将脑中的想法展示给你一样,我只能通过解释的方式向你说明已经学到的内容。
解决这个问题的最佳方法是蒸馏技术。DeepSeek就采用了这种方法,将大型神经网络的知识转移到小型神经网络中。这个想法基于教师和学生的关系模型,在某些情况下,教师将相关概念联系起来,生成下一个输出单元。
他将词汇与词汇在上下文中相互连接,通过修改连接来建立联系。学生也可以表达相同的意思,但他需要调整表达方式来传达相同含义。
我们训练模型的方式与人类知识传递的方式相似,即将一个人的知识传递给另一个人,但这种方式效率很低。
一句话可能包含大约一百比特的信息,这个信息量并不算特别多。这种从一个人到另一个人的传递方式限制了我们转移知识的数量。通过缓慢讲话的方式将知识传递给他人,每秒钟最多也就能传递100个比特左右的信息。即使对方完全理解了所说的内容,传递效率仍然不高。但如果与数字智能之间的知识转化效率相比,两者存在巨大差别。
如果我们拥有同一个神经网络软件的多个副本,将这些副本分别部署在不同的硬件设备上,由于它们都采用数字化方式,它们能够以相同的方式使用各自的参数,并通过平均化位置参数的方式来实现知识共享,最终通过互联网进行传播。
我们可以创建成千上万的拷贝,它们能够自主改变权重并取平均数,从而实现知识转移。
这种转移速度取决于连接点的数量。每次能够分享万亿个比特的信息,比人类分享知识的速度快几十亿倍。GPT-4就是很好的例子,它有许多不同的拷贝在不同硬件上运转,能够分享各自从网络上学到的不同信息。
当智能体在现实世界中运行时,这一点更加重要,因为它们能够不断加速和拷贝。多个智能体比单个智能体学得更多,它们能够分享权重,而模拟软件或模拟硬件无法做到这一点。
我们认为,数字计算虽然需要大量能源,但智能体可以方便地获取相同权重,分享从不同经验中学到的知识。相比之下,生物计算耗能更少,但分享知识却很困难。如我刚才所展示的,如果能源很便宜,数字计算就会更具优势,这也让我感到担忧。
几乎所有专家都认为我们将生产出比人类更智能的AI。我们习惯了成为最智能的生物,所以很多人难以想象当AI在世界中比人类更智能时会发生什么。如果想要了解人类不再是最智能物种时会怎样,我们可以问问鸡的感受。
我们正在创建AI智能体,它们能够帮助我们完成任务。这些智能体已经具备了一定的能力,可以进行自我复制,能够为自己的子目标评级。它们会想做两件事情:第一是生存,第二是实现我们赋予它们的目标。
为了完成我们给它们的目标,它们也希望能够获得更多的控制权。所以这些智能体既想要生存,也想要更多的控制。
我认为我们没办法轻易改变或关闭它们。我们不能简单地把它们一关了事,因为它们会很方便地操纵使用它们的人。到时候我们就像三岁的孩子,而它们像成年人一样,操纵三岁的人是很容易的。
有人觉得当它们变得比我们更聪明时,我们就把它们关掉,但这是不现实的。它们会操纵和劝说操控机器的人不要把它们关掉。
我觉得我们现在的情况就像有人把老虎当宠物。老虎幼崽确实可以是很可爱的宠物,但如果一直养这个宠物,那么你要确保它长大的时候不会把你杀掉。
一般来说,养老虎当宠物不是一个好想法。但如果你养了老虎,只有两个选择。要么把它训练好让它不攻击你,要么把它消灭掉。而对于AI,我们没有办法把它消灭掉。
AI在很多方面都表现出色,包括医疗、教育、气候变化、新材料等领域,几乎能够帮助所有行业变得更有效率。我们无法消除AI,即使一个国家消除了AI,别的国家也不会这么做,所以这不是一个选项。这意味着如果我们想要人类生存,就必须找到办法来训练AI,让它们不要消灭人类。
我需要强调的是,我是以个人身份发言,发表个人观点。我觉得各个国家在某些方面可能不会合作,比如网络攻击、致命武器,或者操纵公众意见的虚假视频。不同国家的利益并不一致,他们有着不同的看法。在这些方面不会有有效的国际合作。我们可以防止一些人制造病毒,但在这些方面不会有什么国际合作。不过有一个方面我们是会进行合作的,我觉得这也是最重要的问题。
如果你看一下50年代冷战巅峰时期,美国和苏联一起合作来预防全球核战争。大家都不希望打核战争,尽管他们在很多方面都是对抗的,但在这一点上可以合作。我们现在的局面是,没有一个国家希望AI统治世界,每个国家都希望人类能够掌控世界。如果有一个国家找到办法来防止AI操纵事件,那么这个国家肯定会很乐意告诉其他国家。
所以我们希望国际社会能够有一个AI安全机构组成的国际社群,来研究技能,培训AI,让它们向善。我们的希望是,训练AI向善的技术与训练AI变得聪明的技术是不同的。因此,每个国家都可以进行自己的研究来让AI向善,可以在自己的主权AI上进行这项研究。虽然不能对其他国家保密,但可以与大家分享结果,即如何训练AI向善。
这是我的提议:全球或世界主要国家,或者主要的AI国家应该考虑建立一个网络,包括来自各国的机构来研究这些问题,研究如何训练一个已经非常聪明的AI,使这个AI不想消灭人类,不想统治世界,并且乐意做辅助工作,即使AI比人类聪明得多。我们还不知道如何做到这一点。
从长期来说,这可以说是人类面临的最重要问题。好消息是在这个问题上,所有国家都可以一起合作。谢谢。