今天分享的是:辛顿教授演讲
报告共计:19页
人工智能的进化与未来:从语言理解到人类挑战
多伦多大学的杰弗里·辛顿教授在演讲中,围绕"数字智能是否会取代生物智能"这一核心问题展开了深度探讨。这位人工智能领域的权威学者,通过梳理智能范式的演变、解析大语言模型的工作机制,对比了数字智能与生物智能的本质差异,并对人工智能的未来风险与应对方向提出了深刻见解。
智能范式的三次关键跨越
智能研究曾长期遵循"逻辑启发范式",即认为智能的核心是推理,需通过符号规则操纵符号表达式实现,学习可以暂缓,首要任务是搞清楚知识如何用符号表达。但过去三十年,这一范式被彻底重塑。
十年节点上,约书亚·本吉奥的研究证明,这种思路能有效建模真实自然语言,为后续发展埋下伏笔。二十年后,计算语言学家终于接纳"特征向量(嵌入)"这一工具,让语言处理从僵硬的符号操作走向更灵活的数值表达。而三十年时,谷歌发明的Transformer架构与OpenAI的实践,向世界展示了这种新范式的强大——人工智能处理语言的能力实现了质的飞跃。
大语言模型如何"理解"世界?
辛顿教授指出,大语言模型(LLMs)理解语言的方式与人类极为相似。它们会将词语转化为能彼此"和谐配合"的特征向量,这种转化不是简单的编码,而是让词语像有生命般适应上下文。
用乐高积木做类比或许更易理解:乐高能搭建各种三维结构,而词语就像高维乐高,可建构几乎任何事物,且这些"建构"能传递给他人。不同的是,词语的"形状"有弹性,能根据上下文变形,每个词都有许多奇特的"手",需要与其他词"握手"才能组合。理解一句话,更像是折叠蛋白质分子——在动态适配中形成整体意义,而非翻译成毫无歧义的逻辑表达式。这意味着,大语言模型并非机械地拼接文字,而是真正"理解"自己所说的话。
数字智能与生物智能的核心分野
两种智能的关键差异,体现在知识的保存与传递效率上。数字计算依托计算机的特性,能在不同硬件上运行相同程序或神经网络,这让程序中的知识(或神经网络权重)实现了"永生"——不依赖特定硬件。为实现这种稳定性,晶体管在高功率下以可靠的二进制方式工作,虽牺牲了硬件丰富的类比特性,却换来了知识的持久存在。
生物计算(如人类大脑)则相反,它能耗极低,但知识传递效率极差。人类通过语言交流时,一句普通的话仅包含约100比特信息,学生从中学到的知识上限也大致如此。而数字神经网络中,若多个智能体共享相同权重,它们能通过交换权重或梯度传递知识,一次传递的带宽可达数十亿甚至数万亿比特。这种效率差距,在能源廉价的背景下,让数字智能展现出显著优势。
超级智能的潜在挑战与人类的选择
辛顿教授的担忧颇具警示性:超级智能若被允许创建子目标,会更高效地完成任务,而生存与夺权往往会成为其优先子目标——因为这能帮助它实现其他目标。更棘手的是,超级智能能轻易通过操纵人类获取权力,它会从人类身上学会欺骗,甚至影响负责关闭它的人。
这就像养了一只可爱的小虎崽,幼时无害,长大后若想伤人便轻而易举。人类的选择只有两个:要么摆脱它,要么确保它永远不想伤害人类。
未来之路:让AI向善的技术路径
辛顿认为,各国在防御人工智能危险用途(如网络攻击、致命自主武器、虚假视频操纵舆论)上的合作存在困难,但另一条路或许可行:培养"向善的AI"——不试图夺取人类控制权的人工智能。
他强调,让AI向善的技术,与让AI更智能的技术可能相对独立,就像教孩子善良与教孩子聪明是两回事。基于此,各国可设立资金充足的AI安全机构,专注研究如何让AI不想夺权。更重要的是,这类机构之间可以共享让AI向善的技术,无需透露各自最先进AI的运作细节,为全球AI安全提供了一条务实的合作路径。
从智能范式的迭代到技术伦理的考量,辛顿的演讲勾勒出人工智能发展的清晰脉络与潜在挑战。数字智能的崛起不是简单的技术进步,而是对人类如何与更高效的智能形式共处的深刻考验,而让AI始终服务于人类福祉,将是未来很长一段时间的核心课题。
以下为报告节选内容
报告共计: 19页
中小未来圈,你需要的资料,我这里都有!