王涵
AI减轻了很多人写作的压力,但从结果来看,批量生成的大多是些平淡而又无趣的文章。不仅如此,今年6月,麻省理工(MIT)发布了全球首份通过脑扫描评估『大语言模型』对人类认知影响的研究报告。结果证实:当人类依赖ChatGPT写作时,大脑关键区域的神经连接会系统性萎缩,记忆编码能力断崖式下跌。写作不是写出文字来就可以,其本质是思考的过程,从观察到结论,从头脑中的结论到纸面上的文章,这是一种必然结果,因而对自动化有一种天然的排斥。现成的答案不是思想的结果,文本自动生成不是真正的写作,也就不会写出人们心中的好文章。
在MIT的实验中,教师评审们虽无法明确识别AI生成文本,却本能感觉到异常:“语法完美但毫无灵魂”“语言流畅却空洞无物”。这就引出一个问题,既然读者能够明显感受到文章异常,为什么依然有作者宁愿冒着被人识破的风险,锲而不舍地运用AI批量生产内容?除了技术能够做到“又快又好”外,还在于这些作者满足于平庸的评价结果。在他们眼中,文章不独特、不出彩都没关系,只要观点不出格、不引起异议就行。提前预设观点的边界,也就提前透支了思考的能力。在写作与思考中间强行画一道分割线,会让我们失去立足未来的资本。
写作是不可轻易被说服或为机器所取代的。也许有人对此有异议,因为应用文看上去是个例外。例如,新闻报道要在短时间内传递更多有效信息,因此要尽可能避免记者主观看法的影响。不过即便如此,所谓的信息也不是铁板一块,它们依然有赖于记者判断哪些是有效信息,以及如何以更加简洁、明快的方式传递。AI可以写出一篇看上去很像新闻稿的文章,但如果内容的真实性和客观性无从保证,那这篇文章就没有价值。因此,在实际书写中,即便是像“润色稿件”这样的工作也理应由记者本人完成,这既是职业要求,也是因为记者在现场能够进行更为直接的观察,后者具有不可替代的价值。
一个人的写作能力不会超过自身的思考能力,因此观察本身比给出结论更重要。一方面,观察能够为新问题、新发现带来更多可能性;另一方面,由观察得来的结果能够减少因缺少必要信息而轻信甚至迷信他人发言的情况,从而为我们驱逐思想的迷云。简言之,并非有了眼睛才能观察,而是观察使我们变得心明眼亮。任何试图跨越观察而直达结论的写作,不过是把写作当成一个竞争性目的,让人类站在文本生成的竞技场中,与机器展开虚无的赛跑。
AI提供了大量现成的答案,一定程度上满足了人类旺盛的求知欲,但一旦涉及对现实的观察,AI的大脑就一片空白。在描述万有引力是什么、满足什么条件成立时,机器可以说得头头是道,但是我们不能指望它像牛顿一样,当有苹果掉落在它脑袋上时,它能够联想到为什么月亮没有像苹果一样受到重力影响,进而沿着头脑中的想法计算月球和地球的距离、地球的引力,直到证明万有引力。也就是说,即便是那些已经得到证明的理论和法则,一旦经由机器的转述,就变得像不知从哪儿来的预言一样,成为灵光一现的碎片。
问题在于,我们不可能通过这些碎片获得对现实的了解。AI提供的文案多种多样,只要指令给到位,它总是迫不及待地给出“一种框架、三种理论、五个要点”,把问题拆解个七七八八。然而,问题时常不在于是否有现成的答案,而在于发生的到底是什么——前者让我们对什么都要一知半解,而后者需要我们承认自己的无知,随时准备好根据实际情况的变化思考既有观点的适用性,并为寻找新发现、论证新观点付出大量的心血和努力。经验告诉我们,在得出结论前,在真正下笔前,作者不得不独自一人默默思索这些问题,所有的作者都需要承受这种沉默,哪怕它时常让人感到无法忍受。
换言之,机器学习像极了人类心智尚不成熟的早年,自以为了解一切,知道答案。对于所有经历过同样困局的人来说,答案是现成的,往往意味着再没有别的事情需要考虑,长此以往,我们的思想只会变得简单、封闭。正如那些时常对世界感到不快、难容他人存在的个人主义者一样,桎梏常常是由于眼光局限于前人的看法和想象导致的。
成熟的思想者不会勉强自己顺应任何既有的尺度,哪怕声称它们正确的人不计其数。