这是我《认知重塑36讲》的第10篇,给那些非技术出身,想学AI又迷茫、不知路径的人。
前言你最大的敌人,不是AI,而是你的“专业”!
如果你也关注AI,是不是和我一样,每天被自媒体上各种AI颠覆的新闻轰炸?
“GPT-5要来了,世界又要变了。”
“Sora一出,影视行业要完蛋了。”
“非程序员,即将沦为数字时代的无用阶级。”
这些声音每天都轰炸我们的眼球,给我们大脑制造噪音。
作为一个非程序员,我也曾焦虑,想在AI时代占据先机,补齐所谓“技术短板”。
但我喜欢思考本质,思考什么能穿越周期?
跟程序员比赛学AI技术,那就是龟兔赛跑,你就是那只龟。
乌龟要想获胜,要么兔子躺平,要么就要另辟蹊径。
我想告诉你一个反常识的观点:
在AGI时代,最先被“淘汰”的,可能不是我们这些文科生、非程序猿,而是那些只懂技术的“专家”。
这不是鸡汤,而是正在顶尖AI公司里发生的现实。
洞察|顶尖AI公司的“秘密战争”你可能听说了最近硅谷的AI抢人大战--小扎的meta1亿美金1个人从Open AI挖了4个华人小伙。
但你有没有听说OpenAI在招古典文学博士?Anthropic的伦理团队里60%是人文专业学者 ?
为什么?
难道这些顶尖科技公司钱太多了?想搞艺术团慰问码农吗?
不,我们有个根本性误解:我们以为AI的核心是技术,是代码。
错!
这一代的AI,本质上是一场关于“语言”和“意义”的重构工程。
大语言模型,本质上不是在“计算”,而是在庞大的语料库中,用概率寻找最合适的下一个词。
举个例子:大模型的输出,就像我们小时候玩文字接龙游戏。哪些词组高频共同出现,哪些就高概率被组合在一起。
语言巴别塔陷阱
传闻OpenAI在招募古典学博士,用古希腊的辩证法去优化ChatGPT的对话逻辑,训练它如何规避逻辑谬误 (虽然无法在公开渠道证实,但这则传闻揭示了AI发展的核心秘密)。
为什么要研究苏格拉底如何提问?
有一个致命问题:
如果喂给AI的资料本身就充满了偏见、谬误和逻辑陷阱,那它输出的就是“精致的胡说八道”,这就是“AI幻觉”的由来。
反过来,我们可以给AI“投毒”--喂养错误的数据。
当OpenAI训练模型时,据说他们利用了古希腊的“苏格拉底辩证法”。
他们不是简单地告诉AI“你错了”,而是像苏格拉底一样,通过一系列追问,引导AI自己发现回答中的逻辑矛盾。
比如,AI给出一个观点,训练师会问:
“这个观点的前提是什么?”
“它在什么情况下不成立?”
“它和你的另一个回答是否矛盾?”
这是在做什么?
这是在为AI注入人类的思维工具--批判性思维和逻辑思辨。这不是编程,这是语言学和符号学的应用。
程序员搭建了巴别塔的砖瓦,而人文学者确保它不会因为内部的逻辑混乱而崩塌。
认知语言学家乔治·莱考夫有个概念隐喻理论--人类的思维和语言充满了隐喻。我们常说“争论是一场战争”、“人生是一场旅行”,3岁的孩子能理解这种隐喻吗?
AI要真正理解人类,就必须理解这些语言背后的深层文化和认知框架。
谁最懂这些?
历史学家、语言学家、哲学家。
伦理算法
如果说语言和逻辑是AI的“智商”,那伦理和价值观就是它的“情商”和“德商”。
一个只有智商的超级AI,会成为人类最危险的发明。
就像我在《为什么愚蠢的好人比恶人更危险?》那篇里所讲的--只有智商的蠢人就像一头失控的驴,他也不知道自己会撞谁,不知道会造成多大损失。
因为他的行为不可预测!
只有智商的AI也是这样,不可预测的行为,就会造成不可预测的危害。
Anthropic,Cluade的母公司,也是OpenAI最强的对手,其核心理念就是“AI安全”。
他们是怎么做的?
不是靠更多的代码,而是靠一部“宪法”。Anthropic开创了“宪法AI”技术。
简单说,他们不靠人力去标注哪些回答是“好”、哪些是“坏”,而是先制定一部“AI宪法”。
里面包含了来自《世界人权宣言》和一些哲学思想(比如约翰·罗尔斯《正义论》 中“无知之幕”思想)的原则。
然后,让AI自己根据这部“宪法”来判断和修正自己的行为。
这背后藏着一个颠覆性的洞见:
在AI时代,价值观不再是空洞的口号,而是一种可以被设计、被执行的“新型操作系统”。
而设计这个操作系统的,不会是程序员,是那些一生都在研究“价值观”是如何运作的--哲学家、伦理学家、社会学家。
他们正在为AI绘制一幅“道德等高线图”,告诉AI哪里可以自由探索,哪里必须止步。
这需要对人类社会复杂性的深刻洞察,以及对不同文化价值观的理解和权衡,
而这恰恰是程序猿的盲区。
技术专家的“知识诅咒”VS文科生的“跨界优势”
为什么说技术专家反而可能更危险?
因为心理学上有一个现象叫 “知识诅咒” --当一个人对某领域懂得太多,他就很难用小白的视角去思考问题了。
程序员通常会陷入对技术最优解的痴迷,追求模型的参数、算法的效率,却可能忽略了这个技术在真实、混乱的人类社会中会引发什么后果。他们很容易陷入“局部最优解”的陷阱。
而文科生学的东西,本质上是一种 “认知反脆弱训练”。
- 历史学让你在巨大的时间尺度上理解因果的复杂性,知道很多短期的“最优解”在长远看是灾难。
- 哲学让你不断追问“为什么”,解构一切看似理所当然的前提。
- 文学和艺术让你拥有共情能力,能代入不同人群的感受,理解一个冰冷决策对具体的人意味着什么。
这种批判性思维是终极的“抗过拟合”工具。
AI模型会对训练数据过拟合,技术专家会对自己的专业知识过拟合。
而一个优秀的人文学者,他的思维模型是开放的、多元的、能随时跳出系统看系统的。
这在充满不确定性的AI时代,是一种黄金般的生存能力。
回答一下那些困惑:
AI会加剧阶层分化吗?
是的,如果技术被纯粹的技术思维主导,一定会。
但如果人文思想深度介入,AI就有可能成为打破“信息茧房”、促进教育平权的工具。
关键在于“谁”来设计和引导它。
人的核心竞争力在哪?
当3岁小孩都能用AI画画时,你的竞争力,不在于“使用”工具的能力。
而在于提出一个好问题、定义一个好目标、鉴赏一个好结果的能力。
是你的审美、品味、价值观和创造性想象力。
这些,恰恰是人文教育的核心。
凯文·凯利太乐观?还是赫拉利太悲观?
我很喜欢凯文凯利,但我感觉他对未来的预言太乐观,我更赞同《人类简史》作者赫拉利的判断--
人类不再平等,不死就在眼前。
未来99%的人会变成无用阶层。
从进化论看,人本质上还是动物。
有部追踪黑猩猩族群权力斗争的纪录片《贡贝战争》。
一个黑猩猩族群分裂出两个族群,
两个血缘族群经历了4年的残酷战争,以一支族群全灭而告终。
这期间黑猩猩展现的权力算计、背叛复仇、战略协作,与人类惊人相似。
我们经历文明太久了,忘了我们人类的外号“恐怖直立猿”,我们的祖先智人,消灭了除智人外的其他人种,也让众多物种在地球消失。
人性从未改变,而技术是人性的放大器。大刘的《三体》其实是个很好的警示。
所以,我们是手握技术缰绳的“骑手”。这个骑手,需要技术,但更需要人文智慧。
行动|文科生AI学习的三级进阶游戏所以,文科生们不必焦虑。
你不需要当二流程序员,而是要想办法成为一流的“AI驯化师”。
大模型能力日新月异,大把不懂算法的人把AI用的风生水起。
我初学AI的时候,最初是让AI教我如何学习AI:“我是一个小白,告诉我该如何学习AI?”
通过反复去聊天、去实践,知道了一些知识。AI当时给我的路径是:工具层、策略层、哲学层。
我在公众号的个人主页就这样设定的。
其实,很多人用不着学搭建智能体,只需要打破信息差,知道一些可以直接上手用的工具,就可以解决日常99%的问题。
哲学这个词用在学AI上太高大上了。
我把它改进成一个三级进阶游戏:认知层、工具层、实践层。
Level 1:认知层--驯服“AI”
目标:破除AI的神秘感,和AI交朋友,摸清它的脾气。这是地基,决定了你的天花板。不要不了解清楚就一头扎进工具海洋里。
Level 2:工具层--多用、多练
目标:精通一两个,胜过了解一百个。
Level 3:实践层--跨界实战
目标:知识不用,等于没有。将AI与你本身的专业领域深度结合,创造独一无二的价值,成为你所在领域的AI赋能者。
写在最后我们害怕被AI淘汰,本质上是害怕在未来世界失去自己的位置和价值。
但今天,人类文明正驶入一个新的十字路口。
技术专家已经把车造好,但车的方向盘,仍然需人来把握。
握住它的人,需要能洞察人性的复杂,懂审美,知道伦理边界。
与其焦虑,不如现在加入。
不妨先把它当做一场游戏,开始投入你的角色。
如果你觉得文章内容让你有所触动,别忘了点个赞呦,谢谢。
我是Asher ,不装B、不空谈;用文字链接思想,用AI“知化”自我。
END我正在更新《认知重塑36讲》,不追热点,只讲深度!把我曾经历的困惑痛苦、经验教训系统化呈现出来,给过去的我、现在的你。