摘要
7月26日在上海举行的2025世界人工智能大会上,下午五点,辛顿压轴出场时,整个会场瞬间沸腾,全场观众不约而同地起立,用热烈的掌声欢迎这位传奇人物
在与周伯文教授17分钟的对话中,Hinton教授阐述了当今的多模态聊天『机器人』️可能已经有了意识和主观体验,辛顿还用“水平和垂直杆/盘”的例子,阐述了人们对词语理解的错误认知,并类比到对“主观经验”的理解也可能存在偏差,还提及了训练AI“智能”与“善良”的不同技术,通过分离训练实现AI安全。最后他还给了年轻科学家们一个建议,如果你想做真正原创性的研究,就应该去寻找那些你认为"所有人都搞错了"的领域,提出了坚持己见、不轻易放弃。
杰弗里·辛顿(Geoffrey Hinton)被誉为"深度学习之父"和"AI教父",是当今人工智能领域最具影响力的科学家之一。这位1947年出生的英国人,如今已经77岁,却依然站在AI发展的最前沿。
从心理学到AI巨匠的跨界传奇
辛顿的求学经历颇为有趣。他在剑桥大学本科时学的是生理学和物理学,中途还转向过哲学,最终却拿到了心理学学位。1978年在爱丁堡大学获得人工智能博士学位后,他开启了自己的学术生涯。这种跨学科的背景,或许正是他能够在AI领域取得突破性成就的重要原因。
改变世界的技术发明
辛顿最大的贡献是发明了一系列至今仍在广泛使用的深度学习核心技术。其中最著名的包括反向传播算法、玻尔兹曼机(Boltzmann Machine),以及让神经网络训练更稳定的Dropout技术。2012年,他带领团队开发的AlexNet在国际图像识别竞赛中一举夺冠,标志着深度学习时代的正式到来。
双料顶级大奖得主
辛顿的学术成就得到了最高级别的认可。2018年,他与另外两位AI大师一起获得了计算机界的最高荣誉——图灵奖。2024年,他又凭借在人工神经网络方面的贡献获得了诺贝尔物理学奖,成为极少数同时获得这两项顶级大奖的科学家。
从Google离职,专注AI安全
值得关注的是,2023年5月,辛顿选择从工作多年的Google离职。他坦言,离职是为了能够"自由地谈论AI风险"。作为AI技术的创造者之一,他对AI可能带来的风险有着深刻的思考和担忧。
与中国的深厚渊源
辛顿与中国学术界联系密切,经常来华进行学术交流,培养了大量中国博士生和访问学者。他的深度学习技术也深刻影响了中国AI产业的发展,可以说是中国AI崛起的重要推动者之一。
周伯文:中国AI新生代领军者
如果说杰弗里·辛顿是深度学习的奠基者,那么周伯文就是新一代AI技术的重要推动者。这位出身中科大少年班的学者,正在用自己的方式诠释着中国AI的力量。
从IBM到中国AI前沿
周伯文拥有令人瞩目的国际背景——在IBM纽约总部工作近15年,曾担任Watson人工智能首席科学家。2017年,他选择回国加盟京东,从零开始组建世界一流的AI团队。2024年5月,他接替因病去世的汤晓鸥,担任上海人工智能实验室主任,成为中国AI研究的新旗手。
Transformer核心贡献者
很多人不知道,现在大火的ChatGPT背后的Transformer技术,周伯文是其核心思想的提出者之一。他在自注意力融合多头机制方面的研究,为今天的『大语言模型』奠定了重要基础。他已发表论文百余篇,被引用超过2万次,这在AI学术界是相当亮眼的成绩。
对AGI的前瞻洞察
周伯文对人工智能发展有着独到的理论见解。他提出了通往AGI(通用人工智能)的路径理论,认为ChatGPT的出现标志着我们在2022年底就已经进入了ABI(广义人工智能)时代。他的"通专融合"理论,为AI技术的未来发展指明了方向。
作为连接国际前沿技术与中国AI发展的桥梁,周伯文代表着新一代中国AI科学家的崛起。在辛顿等前辈奠定的基础上,像周伯文这样的学者正在推动AI技术走向更广阔的应用前景。
Geoffrey Hinton对话实录:AI意识、风险与科学前沿本次对话由周伯文主持,与AI教父Geoffrey Hinton就当前AI发展的核心问题进行深度探讨
周伯文:杰夫,我们所有人都非常荣幸您能亲自来到这里,谢谢您。我想开始提一个问题,您本周早些时候对此有所阐述,但今天早上在台上没有时间谈论,那就是关于多模态神经网络模型的主观体验。您认为即使是当今的多模态神经网络模型也能发展出它们自己的主观体验,您能详细说明一下吗?
AI的主观体验:一个关于认知误区的启发性讨论
Hinton:我认为关于它们是否拥有意识、主观体验或感知的问题,这并非一个严格意义上的科学问题,而是关于您如何定义主观体验或意识的问题。我们大多数人持有的一个模型,我认为是严重错误的。
很多人没有意识到,即便你能正确地运用词语,并且拥有一套关于词语如何运作的观点,这套观点也可能完全是错的,哪怕是对于最常用的词。
一个颠覆认知的思想实验
Hinton:让我举一个最常用词的例子。想想“水平”和“垂直”这两个词。大多数人认为他们知道水平和垂直的含义,但他们的理论是不正确的。我将通过一个人们几乎总是答错的问题来向您证明您的理论是错误的。
假设我手里有许多小铝棒,它们朝向各种方向,有成千上万根。我把它们扔到空中,它们翻滚、旋转、相互碰撞,然后我突然冻结时间。所有这些铝棒都在空中,问题是:是垂直方向上在一度范围内的更多,还是水平方向上在一度范围内的更多,还是差不多一样多?
几乎所有人都回答"差不多",这个例子说明我们对词语运作方式的理解可能是完全错误的。同样,几乎每个人都对「主观体验」这类术语有着强烈但完全错误的理论。
对于这些小铝棒来说,处于水平方向一度范围内的数量,大约是处于垂直方向一度范围内数量的114倍。原因在于,"垂直"就是这样(指一个方向),这也是垂直,仅此一个方向。但"水平"是这样,这也是水平,凡围绕地平面的,都是水平。因此,水平的"杆状物"远比垂直的要多。"垂直"是非常特殊的。
思维的进一步延伸
Hinton:现在换个问题。我手里有一把小铝盘,它们都处于随机方向。我把它们扔到空中,它们翻滚、旋转,我突然冻结时间。是垂直方向上在一度范围内的更多,还是水平方向上在一度范围内的更多,还是差不多一样多?
这次情形反转,与垂直方向1度以内的圆盘数量,是水平方向的大约114倍。因为对于圆盘或平面来说,"水平"就是这样,只能如此。而"垂直"是这样,这也是垂直,任何垂直于地面的面,都算垂直。
所以在三维空间里,垂直的"杆"很特殊,而水平的"杆"很普遍;但水平的"面"很特殊,而垂直的"面"却很普遍。当你形成关于这些词的理解时,你常常取一个平均化的概念,认为水平和垂直差不多,但这完全是错的。
对AI意识的惊人结论
Hinton:他们对这些问题给出了错误的答案。我的观点是,几乎每个人对“主观体验”之类的术语如何运作都持有一个完全错误的理论。他们有一个非常强烈且完全错误的理论。所以这并不是一个真正的科学问题,而是我们一开始就用错了“心智”和“意识”这些词的说明书。模型错了,预测自然翻车。
所以我的观点是,目前的多模态聊天『机器人』️已经有意识了
从数据学习到经验学习:智能体的进化之路
周伯文:这个观点可能会让在座的许多研究者感到讶异。在早些时候,我听到了另一位加拿大科学家理查德·萨顿(Richard Sutton)也进行了演讲,主题是"欢迎来到经验的时代"。我认为他的意思是,当人类数据耗尽时,模型可以从自身的经验中学习。而您似乎从另一个角度阐述了这个问题:智能体或多模态大模型不仅能从经验中学习,还能发展出它们自己的主观经验。理查德今天没有过多提及这种从主观经验中学习的潜在风险。您可以多谈谈这方面吗?这种智能体能够学习主观经验的事实、以及它可能隐藏的潜在风险,谈谈您的看法?
Hinton:是的,目前大型语言模型确实是从我们输入给它们的文件中学习的,它们正在学习预测一个人会说的下一个词。但是,一旦您有了像『机器人』️那样存在于世界中的智能体,它们就可以从自己的经验中学习。
而且我认为它们最终会比我们学到更多,而且我认为它们会拥有经验。但是经验不是实体,经验不像一张照片;经验是您与一个客体之间的关系。
AI安全的新思路:分离"智能"与"善良"
周伯文:几天前,当我们讨论潜在的风险时,您提到一个可能的解决方案是,将AI的不同能力分别训练。
Hinton:我其实不是那个意思。我的意思是,你将会有一个既聪明又善良的AI。但如何训练它变得聪明和如何训练它变得善良是两个不同的问题。
所以你可以有让它变得善良的技术也有让它变得聪明的技术,这会是同一个AI,但使用了不同的技术。因此,即使各国不愿意分享使其聪明的技术,它们也可以分享使其善良的技术。
对解决方案的理性质疑
周伯文:我对此有一些疑虑,我的意思是,这个想法是善意的,我真的很喜欢这个想法。但是,我对我们能走多远有一些疑虑。您认为这种训练人工智能变得善良的通用方法可以应用于不同智能水平的任何人工智能模型吗?
Hinton:这是我的希望。它可能无法实现,但这是一个值得我们去深究的可能性。
周伯文:是的。但是我想在这里做一个类比,我提出这个问题是为了引起更多人对您提到的方向进行研究。我的类比来自物理学:当物体以低速运动时,牛顿定律适用。但是当物体以接近光速的高速运动时,牛顿定律就不适用了。所以我们必须转向爱因斯坦寻求更好的解决方案。
顺便说一句,这有点讽刺,我在对一位诺贝尔物理学奖获得者谈论物理101
诺贝尔奖获得者的幽默时刻
Hinton:哦不,(他们给我颁奖)原本就是个错误。其实他们(组委会)就是想要有一个给AI的诺贝尔奖,只好就把物理学奖借出来用了。
周伯文:哈哈哈,他们没错!您绝对值得这项表彰
不过这个类比或许说明,对于"善良"的要求,可能需要根据智能系统的不同层级进行调整和改变。我不知道这是否正确,但我希望在座或在线的聪明的年轻人们能找到实现它的方法。
Hinton:是的,很有可能随着系统变得越来越智能,使其善良的技术会发生变化。我们不知道,这就是为什么我们现在需要大量研究的原因之一。
AI与科学的相互促进
周伯文:您作为一位成就卓著的学者,经常说“我不知道,我只是不知道”印象深刻。我认为这非常非常诚实,保持开放的心态,我认为这是我们都需要向您学习的东西。
除了人工智能问题,我们会场里有一半的人来自不同的科学领域。他们是量子物理学、生物学、细胞研究等领域的顶尖科学家。我们今天聚集在这里的原因是,我们相信无论是人工智能领域,还是人工智能与科学的交叉点上,都有无尽的前沿正在发生。人工智能可以帮助推动科学发展。您能否谈谈如何利用人工智能来改进科学,或者反之,如何利用科学来帮助推动下一代人工智能。
Hinton:我认为AI将极大地助推科学发展,这一点非常明确。目前最令人印象深刻的例子莫过于蛋白质折叠,DeepMind创始人Demis Hassabis和John Jumper(DeepMind科学家)等人通过明智地运用AI并投入巨大努力,极大地提升了预测的准确性。我认为这是一个早期的标志,表明现在在许多许多领域,人工智能将改进科学。我听说了上海AI实验室的例子,在预测台风登陆地点和天气预报方面,人工智能可以做得更好一些。
周伯文:是的,我们用AI模型做出来的结果,比基于PDE(偏微分方程系统)的传统物理模型表现更胜一筹。
给年轻学者的人生智慧
周伯文:在您杰出的学术生涯中,您不仅推动了人工智能技术的界限,而且深刻影响了下一代研究员,比如Yoshua Bengio和许多更年轻的后辈。在上海AI实验室,我们的研究人员平均年龄约为30岁,这清晰地表明AI的未来属于年轻一代。看着这些年轻的面孔,您有什么建议想与他们分享,帮助他们更快地成长吗?
寻找"所有人都搞错了"的领域
Hinton:我想我只有一个建议:如果你想做真正原创性的研究,就应该去寻找那些你认为"所有人都搞错了"的领域。通常,当你有这种想法并开始研究自己的方法时,最终你可能会发现大家那样做是有原因的,而你的方法是错的。但关键是,在你亲身领悟到它为什么错之前,绝不要放弃。
不要因为你的导师说这是一个愚蠢的方法就放弃它。忽略导师的建议,坚持你所笃信的,直到你自己弄明白它错在哪里。
坚持的哲学
Hinton:偶尔,你会发现自己坚持的东西并没有错,而这正是重大进步的来源。但它们不会属于浅尝辄止的人。即便别人都不同意你的看法,你也必须坚持下去。
现在,有一个逻辑支持这种方法。那就是要么您有好的直觉,要么您有坏的直觉。如果您有好的直觉,您显然应该坚持您的直觉。如果您有坏的直觉,那么您做什么都无关紧要,所以您应该坚持您的直觉。
对话尾声
周伯文:咱们可以就此畅谈一整天,但我知道您需要休息了。最后我请在座的每一位与我一起感谢杰夫,感谢他与我们度过的美好时光。非常感谢您
对话总结
这次深度访谈展现了Geoffrey Hinton作为AI领域先驱的深刻洞察:
- 颠覆性观点:当前AI已具备某种形式的意识
- 建设性方案:通过分离训练实现AI安全
- 科学愿景:AI将显著推动各领域科学进步
- 教育智慧:坚持原创思维,敢于质疑权威
正如周伯文所说,今天与Hinton的相遇是一段珍贵的经历,这些思想将继续启发新一代AI研究者。