你有没有想过,当霍金在临终前发出那样的警告时,他是在用一种看不见的手在敲打我们的心门?他说人工智能比第三次世界大战还要可怕,似乎像是一句孤注一掷的预言。可是,细想起来,这样的话是不是也带着一种模糊的预示:科技的疯狂狂飙,是否正领我们走向一场无法预料的灾难?在我查资料时,竟然发现不少专家都在担心,某些比GPT-4还要强的AI系统,如果不暂停训练,未来或许只用几十年,不是几百年。
到底谁在推动这个大潮?马斯克等一票人去年3月联合签署的一封公开信,要求至少暂停半年训练比现有更强的AI,不是没有理由的。能把AI划分为“意识”和“能力”的专家都开始紧张,担心这玩意儿的自主性会超出人类控制的范畴。谷歌前员工辛顿,那个在2013年发表“深度学习极限”的学者,也带着焦虑感离开了谷歌,不是去休假,而是提醒大家“通用人工智能已逼近裂缝”,他说:“从想象中的五十年,可能只剩二十年或更少。”他的话一出口,我心里就有个声音:难不成,咱们真的要面对一场没有硝烟的战争?这场战争,显然不是枪炮的冲突,而是智力的较量。
2025年的数据也让人不寒而栗。斯坦福AI指数报告显示,美国的AI相关立法数量在翻倍——从2018年的几十条攀升到如今几百条。微软研究的人说,GPT-4已经在“模仿”人类的思维逻辑,甚至能写诗、答题,几乎已无视“界限”。中国方面,世界人工智能大会上强调:“全球合作,制定规则。”可惜这些“合作”听起来更像是碰头饭局,各国在技术推手下到底能做出多有力度的规制?我倒觉得,倒不是谁想搞事,而是每一个国家都在盯着这个“新金矿”。
去年11月,ChatGPT火了,像点燃了全球的烟火。这火焰背后的狂热,让很多人盯着在“自主学习”和“自主决策”的边缘线上摇摆。这段时间,很多研究机构都拧紧了发条,“规制”成了关键词。欧洲宣布将推出AI全面监管条例,美国也在加紧制定标准。可是,人工智能的“智能”到底是什么?我这几天试着了解:它只是通过庞大的数据汇总和分析,模拟人类行为,而不是“有灵性”地思考、创新。那些敢称“智能”的,实际上不过是“擅长信息整理和模拟”的机器。
我一直在想,所谓“智能”,究竟意味着什么?难道只是把过去所有信息存成一本“百科全书”,然后让机器告诉你答案?这和“聪明”差了十万八千里。它没有归纳、没有创造,只有模仿和重复,甚至连“自主决策”的能力都还很模糊。有人说,“蜥蜴被吓尿了”,坦白说,或许现在的我们也有点像那只被激怒的蜥蜴——惊慌失措。
科技的飞速发展,像绷紧的弦,一旦断裂,后果难以预料。有人说,未来可能出现“智能军团”控制人类,也有人担心“机器叛变”,这都不是毫无根据的幻想。比如说,2007年英国皇家学会就把气候变化看作最大的危机,温室气体激增让全球变暖不可逆,也曾引发世界大规模资源争夺。这些危机正像死侍一样,阴魂不散。霍金早在2014年说,要发展“完全人工智能”可能会“终结人类”,他的担忧相当直白:如果不谨慎,这些机器可能为我们带来比战争更大的灾难。
他更多地强调“短期影响取决于谁在掌控,长远看是否可以控制”。我敢打赌,无论科技多牛逼,都绕不开人性中的贪婪和恐惧。科技越发达,越需要用传统的智慧去定规矩。曾仕强先生常说,文化的“中道”和“德行”才是最重要的防线。他在2000年前后,就预言未来30年里,科技带来的五大危机:瘟疫、文化崩溃、冷漠、环境失控和全球性冲突。这些危险,从《易经》的角度看,就是“偏离平衡”。他还说,要面对这样的局面,就要用中华文化的智慧,把控技术的“度”。
他提到的《易经》,不仅仅是本占卜书,更像一份“生活指南”。它讲究“变通”和“中庸”,强调“顺势而为”。我查了下,像他预言的2044年中国会成为世界科技强国,2025年就已提出“科技创新驱动发展战略”。当年的科技盛会,更多是一场“文化融合”的展演。其实,科技的最终目的是让生活更好,而不是制造新的冲突和威胁。
再回到当下,越盯着AI发展的同时,我更关心的还是控制。中国推动全球治理管控,借力文化的根基,把“守规矩”作为第一原则。有人会说,这简直像在“绑架未来”,但不想想,没有规矩的科技,就是一把双刃剑。几乎每一个国家都在甩掉“超越伦理”的一页,盯着那根看不见的线,怕自己先被割断。
我不知道,我们这些普通人,能不能在这场看不见的战斗中找到一丝平衡。也许,最后能不能“掌控”这些超智能的机械,真的不是技术问题,而是人性的问题。我们会不会因为恐惧选择放弃,还是勇敢地用“文化和伦理”试图撑住这个崩溃的边缘?这场关于未来的争夺,恐怕还远远没有结束。只是,我们会不会走到最后,能否还记得最开始那句“醒醒,别再走错路”呢?
#图文作者引入激励计划#