拥抱概率真相——AI时代谣言套路拆解与防御指南(拥抱有啥用)

拥抱概率真相——AI时代谣言套路拆解与防御指南(拥抱有啥用)

文末扫码,即可获取PDF版报告全文

腾讯公司作为技术创新的核心参与者,在信息真实性保障和虚假信息管控方面多年来持续采取了多重有力举措,为营造清朗网络空间、维护健康信息生态和社会信任奠定了坚实基础。AI时代到来,腾讯研究院算法治理研究小组联合腾讯新闻较真平台撰写的《拥抱概率真相——AI时代谣言套路拆解与防御指南》(下称《指南》)是助力构建安全的信息传播机制、履行科技企业的社会责任的又一力作。

传统虚假谣言依赖人工编造,传播范围有限。借助AI生成的虚假信息具有高度逼真性、批量生产能力和精准定向传播优势,其迷惑性与破坏力远超前者。《指南》对AI时代信息环境新特征、AI介入虚假信息差异及个体自处之道的探究,将技术洞察与现实需求深度结合,为理解信息生态变革提供了独特视角,对理解AI时代的信息生态、提升社会抗风险能力具有深远意义,同时为国家层面的信息安全战略、公众媒介素养提升计划提供实践导向的参考。

在AI技术深度渗透的信息时代,信息的真假边界正变得愈发模糊,纯粹的真实与彻底的虚假不再是泾渭分明,更多信息呈现出真假交织的复杂面貌——或许以客观事实为基底,却在细节描述中掺杂主观歪曲;或许引用权威数据,却通过断章取义制造误导。这种混沌状态看似增加了信息接收的难度,实则暗藏认知升级的契机。

谣言的传播力不仅取决于推广力度的强弱,更与公众辨识力的高低密切相关。当推广力度一定时,公众辨识力的提升会直接削弱谣言的影响力。真假交织的信息环境,本质上是在持续“训练”公众的辨识能力,使其在反复的思辨与验证中形成更敏锐的判断力。当大众不再能轻易判定信息真伪时,被动接受的惯性会被打破,迫使人们调动理性思维,追问信息来源是否可靠,分析逻辑链条是否完整,验证核心事实是否可追溯。这种主动思辨的过程,恰恰是培养深度思考能力的最佳实践,长期来看将有利于推动公众网络素养的整体提升。

因此,与其担忧信息真假难辨的困境,不如正视其作为认知训练场的价值。在此过程中,大众将逐渐养成理性追问的习惯,最终构建起抵御虚假信息的内在防线。《指南》正是为公众提供了在该训练场中的具体行动方向,助力个体在复杂信息环境中明辨是非、站稳脚跟,进而与企业举措协同,共筑信息安全防线。

雷霞

中国社会科学院新闻与传播研究所网络信息与智能传播研究室主任

前言|从确定性走向概率性:AI时代真相的重构

第一章 AI时代的信息环境透视

1.1 技术赋能信息聚合和个性化体验

1.2 AI作为内容生产主体进入大众视野

1.3 “真实”正面临的两种挑战

第二章 AI虚假信息的结构性特征与传播新机制

2.1 内容层面:从文本为主到多模态造假

2.2 传播层面:热点驱动搭配情绪调动

2.3 危害层面:经济、文化、健康与社会稳定的系统性冲击

案例一:嫁接真实灾情 编造矛盾煽动情绪

案例二:模糊指向名人 诱导网民人肉猜谜

案例三:盗用素材嫁接 制造弱势群体恐慌

案例四:伪造名人爆料 挑起分配焦虑对立

案例五:夸大灾情危害 虚构视觉冲击图片

案例六:打造悲情英雄 激活群体身份认同

案例七:制造视觉“核爆” 合成文化地标毁灭

案例八:假借专业术语 包装反常识噱头

案例九:杜撰医疗事故 触发公众安全焦虑

案例十:炮制稀缺“首例” 放大司法责任争议

第四章 概率真相时代的个体应对之道

4.1 用工具对抗AI虚假信息

4.2 遇到这四类高危信号,养成判断三连问的习惯

4.3 传播要三思,转发要三查

4.4 训练“概率思维”习惯

结语 拥抱概率真相:构建信任 共塑未来

前言|从确定性走向概率性:AI时代真相的重构

生成式人工智能(AIGC)的广泛应用,一方面使得信息的生产变得空前高效和智能,但另一方面也带来一个新问题:内容的真实性,不再是非黑即白的绝对判断,更像是根据大量数据推测出来的概率结果。真相失去了以往那种唯一、固定的特性,转而成为一种需要根据各种线索和概率,不断进行动态调整的“信任评估”。

这或许标志着,世界正迈入一个“概率真相”时代。传统意义上的真与假,不再以权威媒体、专家结论或唯一事实作为判定依据,而是被大量由AI(人工智能)生成的、看似合理的信息包围,迫使每一个信息接收者都必须具备更强的辨别力和判断力。信息的可信度,正被重新定义为一种动态、情境化、需要验证的合理性评分过程,而非一次性的真伪结论。

在这一背景下,一些谣言制造者也开始借助AI工具,生成文本、图像、音频与视频,大大提升了虚假信息的生产与传播效率。一些谣言内容甚至制作精良,高度逼真,而且传播速度快,渗透范围广,不仅冲击了当前的信息生态,也对现有的技术伦理与治理体系提出挑战。

不过也应该看到,AI虚假信息看似凶猛,其关键依然是背后的“人”,即虚假信息生产者。对2023—2025年的“AI虚假信息”进行内容分析可以发现:AI虚假信息虽然披上了新技术的外衣,但其本质依然是造谣者的“嘴替”,背后的行为动机、利益诉求和传播规律,与传统谣言有很多共通之处。

“概率真相”时代的到来,并非意味着真相的消亡,而是预示着我们获取和理解真相的方式正在发生重大变革。这既是挑战,也蕴含着机遇。如何以确定的制度设计、技术工具与公共意识来应对不确定的海量信息,是一个关乎信任体系重建的长期命题,也促使我们重新思考信息、信任与社会的关系,并推动技术、伦理和治理的全面创新。

在这篇报告中,我们想着重回答以下三个问题:

第一,AI 时代的信息环境有什么新特征?

第二,相较于传统谣言,有 AI 介入的虚假信息有哪些不同之处?

第三,个人在概率真相时代应当如何自处?

这三个问题分别对应本报告的三个章节,此外,我们还将在专门的一章“典型案例分析”中,通过对2025年度十大AI虚假信息的梳理,拆解AI生产虚假信息过程中常见的套路模板。

一、AI时代的信息环境透视

AI技术正在重塑信息传播模式,开启了一个全新的信息技术时代。AI的能力超越了单纯的信息获取,它能够进行总结、编码、推理、对话,甚至做出决策,从而降低技能门槛,实现知识的普及。AI的普遍融入,使得信息的创建、共享和感知方式发生了实质性变化,AI时代的信息环境呈现出创作体验个性化、生产主体多元化、事实真相概率化等新特征。

1.1 技术赋能信息聚合和个性化体验

我们正置身于一个信息高度富集的时代,在人工智能强大数据处理能力的加持下,几乎任何问题都能迅速找到相关信息,无论是全球新闻动态、专业研究报告、个性化娱乐内容,还是那些曾经在搜索引擎上翻找几十页都难以寻觅的各种数据,大多都会被悉数呈现。这种即时、广泛的信息可得性,带来了前所未有的便捷,极大地拓展了我们获取知识和了解世界的边界。

AI在这个过程中扮演的角色远不止于汇聚,其核心价值还在于对用户需求的深度洞察和智能响应。算法能够细致分析用户的历史行为、兴趣偏好、互动模式乃至潜在意图,如同一个无形的“信息管家”。基于这些深刻的理解,AI系统能够智能聚合并定制化推送最相关的内容。这种高度个性化的信息供给模式,提升了用户的信息获取效率和体验,以用户为中心的信息生态系统逐渐巩固。

不止于信息获取,AI带来的个体化体验还体现在内容生产和传播层面。AIGC工具降低了创作门槛,用户可通过简单指令生成高质量内容,激活微粒个体权利1,即个体用户拥有了更大的行动自由度和更多的传播资源。这意味着用户也不再仅仅是信息的接收者,而是可以主动参与到信息的创作和传播当中。

过去,制作高质量的图片和视频是遥不可及的任务,但现在通过AIGC工具,用户只需输入提示词(prompt),AI就能生成风格各异的图片,甚至能将文字转化为短视频,这让普通用户也能轻松创作图片或视频作品。比如“腾讯智影”平台,通过为内容创作者提供一系列的智能创作工具,帮助创作者在内容创作时提质增效,为创作者提供了更多的创意空间和自由度。

图1.1 腾讯智影平台操作界面

内容创作的量身定制与高效产出在推动个性化体验的同时,也在提升品牌效应。可口可乐曾推出“Create Real Magic”活动,邀请消费者使用AI工具生成带有可口可乐品牌元素的数字艺术作品。用户可以输入文字描述,让AI创作出包含经典可乐瓶、复古广告或红白漩涡图案的独特图像。这极大地降低了消费者参与品牌内容创作的门槛,每位消费者都能生成自己独一无二的“可口可乐艺术品”,这些个性化内容不仅增强了用户的参与感和品牌归属感,还有效提升了品牌在数字时代的活力和创新形象。

图1.2 可口可乐发起“Create Real Magic”活动,邀请消费者创作带有品牌元素的AI艺术作品

AIGC工具不仅让内容创作变得触手可及,更重要的是,它使得内容能够进行个性化定制,满足了多元、细分的用户需求。AI就像一个拥有无限产能的工厂,高效制造着各种“信息产品”,这也无疑增加了用户获取真正有价值信息的难度,带来了新的挑战。

1.2 AI作为内容生产主体进入大众视野

传统信息生产以新闻媒体、出版社等专业机构和KOL(关键意见领袖)为主导,他们或凭借专业的采编团队、严格的审校流程以及深厚的行业影响力,持续产出高质量的内容,或以独特的视角、个人魅力和知识储备,在社交媒体平台发布爆款作品。

随着技术的发展,AI逐步成为一个独立且高效的内容生产主体,而不再仅仅是信息生产的辅助工具。从自动化新闻稿件的生成、数据报告的撰写,到创意文案的构思、艺术作品的创作,AI在内容生产方面展现出一定的潜力。

生成式人工智能可以独立完成部分新闻写作、视频生成、报告产出等任务。AI通过预训练数据自动生成符合用户需求的个性化内容,甚至直接从结构化数据中生成常规新闻文章,从而最大限度地减少了人工转录错误。2014年7月,美国联合通讯社 (The Associated Press)宣布将采用AI公司开发的Wordsmith程序进行财经新闻的自动化写作。Wordsmith平台除了基本的信息采集功能外,还能够深度挖掘和提炼数据,用自然语言对分析结果进行故事化叙述,最终按照实际需要生成不同体例、不同结构的可视化新闻文本,全面提高了新闻生产的规范性和精准性。

图1.3 早在2014年,美联社便已采用AI程序WordSmith进行财经新闻的写作

不仅如此,在创作领域,AI也以其出色的表现水平,赢得了认可。AI作为一种增强工具,简化重复性工作并提供灵感,为人类创作者留下了更多发挥空间。2022年6月,《经济学人》杂志(The Economist)封面主视觉首次用AI绘制,图片描绘了一个由电路板和芯片组成的复杂大脑,象征了人工智能的崛起,与封面故事「AI新境界」(AI’s New Frontier)相得益彰。封面设计使用Midjourney完成,只要输入文字,Midjourney就能画出AI“认为”与指令相符的图片,封面图片展现了AI创作的视觉冲击力,不仅是AIGC技术成熟的标志,也是主流媒体接受AI艺术的里程碑。

图1.4 《经济学人》杂志使用Midjourney描绘了2022年6月一期杂志的封面图片

AI在内容生产中的应用,使得人类在信息生态系统中的角色发生了转变。人类不再仅仅是内容的直接生产者,而更多成为了AI工具的协调者和监督者,将重心放在了更高层次的任务上,比如战略规划、原创性构思、伦理考量以及对AI生成内容的分析和评估等等。

1.3 “真实”正面临的两种挑战

深度合成(Deepfake)、AI换脸等技术降低虚假信息制作成本,模糊了人类生成内容与机器生成内容之间的界限。对真实性的挑战并非源于AI固有的生成能力,而是源于人类滥用这些工具制造和传播错误信息或虚假信息的意图。从“谣言”这一世界最古老的传媒切入,不难发现,在AI时代的“真实”正面临着两种挑战。

由AI促生的谣言可分为两类:一种是从生产端来看,内容农场利用新技术提升效率、输出信息的特点,在缺乏规范和行业伦理的情况下滥用工具;另一种是AI本身存在的“幻觉”现象,在使用者未充分校验的情况下,AI无意间生成的虚假信息。

与之对应,可以将有AI参与生产的谣言分别归类为Disinformation(虚假信息,由人故意制造)和Misinformation(错误信息,由人无意为之)。人为滥用AI的部分,如同一个加工厂和加速器,批量生产虚假内容并加剧谣言“疯传”,其本质与传统网络谣言一致,具有情绪化、碎片化及“故意制造”的属性。而大模型幻觉导致的谣言,则类似于传统谣言中由人类传播的无意为之的Misinformation。

AI技术助推错误信息出现,主要表现为非专业用户在缺乏事实核查能力或知识背景时,与生成式工具的“幻觉输出”形成反馈循环。尤其在公共健康、灾难救援、金融政策等重点领域,用户可能将AI生成的未经验证的内容误作权威信息转发扩散,造成“知识误植”。这类信息因看似中立、逻辑通顺,往往逃避了传统内容审查机制的注意,甚至被媒体转载、社群引用,加剧误导。

在虚假信息的AI演化路径中,技术被用作系统性操控工具:包括自动生成攻击性话语、制造“假证据”图文、伪造视频音频以污名化特定群体或操纵群体情绪等。一些个体或组织利用多模态生成技术,构建完整的“信息战”剧本——设定人物身份、编造事件情节、匹配视觉素材,增强叙事感染力,通过更高超的讲故事技巧让虚构内容带有几分情理交融的色彩。

因此,AI延伸下的两类谣言路径,不仅在生成方式上呈现趋同性,更在交互与混合的过程中导致谣言真实性难以判定、传播路径难以追踪。事实上,错误信息与虚假信息并非泾渭分明的二元对立,而是在语义诱导、情绪动员与传播策略中高度融合的灰色谱系。

二、AI虚假信息的结构性特征与传播新机制

在了解AI时代的信息环境过后,腾讯研究院和腾讯新闻较真平台根据公开资料,从2023—2025年网络流行的诸多谣言中,挑选了100条典型AI虚假信息,使用内容分析法2,系统分析了AI虚假信息在内容结构、传播机制与危害方面呈现出的新特征,以揭示其背后隐藏的风险变异与应对挑战。

2.1 内容层面:从文本为主到多模态造假

AI虚假信息在内容呈现上,逐渐实现了从传统文本为主的表达形式,向图像、音频、视频等多模态形态并存的方向跃迁。尽管在整体数量上,文字伪造仍然占据主导地位,约占所有AI谣言的52%,但视频与图像伪造增长迅速,分别达到27%与18%。

文本虚假信息之所以占比较高,其根源在于不当使用高度成熟且成本低廉的大语言模型技术。当有人意图制造谣言时,AI工具能够被快速用于生成语义连贯、语法精良、风格灵活的文字内容,并轻易模仿官方媒体、专家或学者的口吻,炮制出“以假乱真”的声明、评论或报道。特别是在医疗、财经等专业领域,利用AI生成的虚假内容披上专业术语的外衣,制造虚假的专业感与权威感,极大地提升了欺骗性,放大了公众误判的风险。

与此同时,技术滥用者正越来越多地借助多模态生成工具(文生图、图生视频、音频合成、人脸替换等)来制造虚假信息,使得眼见为实的传统认知面临严峻挑战。例如,不法分子可以运用这些工具伪造灾害现场照片、捏造人物采访画面、生成仿真名人演讲视频,甚至模拟特定人物语音,这种恶意应用显著增强了虚假信息的沉浸感与感官冲击力。

与传统谣言相比,AI虚假信息更倾向于从无到有的完全虚构,而非基于真实信息的部分篡改。这种趋势使得谣言检测工作面临更大挑战,因为完全虚构的内容往往缺乏可供比对的真实参照物。

统计数据显示,在利用AI技术生成的虚假内容中,完全虚构的内容占比高达85%。当技术被用于制造比真实更逼真的“超真实”虚假内容时,人们辨别真伪的难度剧增,导致普遍的认知混乱。这种信任危机是技术被恶意使用后的恶果,可能从根本上动摇人们对客观现实的认知。

由于恶意行为者可以轻易利用低成本、高仿真的AI生成工具制造虚假信息,而普通受众缺乏足够的专业知识和技术手段进行辨别,信息验证由此演变成一场高度不对称的战争。尤其当虚假信息被人为披上专业外衣,且刻意规避真实参照物时,验证的难度会指数级上升。这导致辟谣工作变得异常艰难且耗时,往往难以企及恶意信息借助现代传播渠道的扩散速度。

2.2 传播层面:热点驱动搭配情绪调动

在传播层面,AI虚假信息呈现明显的时效性特征,会随着社会热点的变化而迅速调整主题与内容,这一点与传统谣言并无二致。在针对传统网络谣言的研究当中,政治型、军事型、经济型、社会生活型、自然型3五分类是最常见的划分方式,随着科技的发展和公共议题的充分讨论,本报告将AI虚假信息分为社会热点、自然灾害、医疗健康、涉官涉政、企业经济、科技前沿、文娱明星、性别议题八个类别。

社会热点议题在AI虚假信息中的占比高达49%,成为造谣者最为青睐的载体。这些谣言往往以社会广泛关注的事件为背景,搭乘社会关注的“热点快车”,通过AI技术生成似是而非的内容,混淆公众视听。

AI虚假信息的传播动机呈现出复杂多元的特点,相关部门的处置也较为及时和详细。根据官方通报文件,本报告将谣言传播背后的动机分为经济利益、挑起对立、制造恐惧和情绪宣泄四类。

经济利益(71%)是AI虚假信息传播的首要目标。经济利益驱动的高比例,表明AI虚假信息已形成明显的产业化趋势,这类谣言背后通常存在明确的经济目的,官方通报文件中“博取流量”频频出现,也反映出一些专业的“谣言工厂”应运而生,绝大多数的AI虚假信息都是用于获取流量变现、广告收益或其他直接经济利益。

挑起对立(13%)也是隐藏在虚假信息背后的意图之一,包括国际关系恶化、资源分配焦虑、技术伦理争议等多种类型。这类谣言往往源于现实社会中的不满情绪或分配不公感知,通过AI技术放大和扩散。例如,2024年引发高度关注的一则信息“目前重庆市80%的工厂已处于饱和状态,均已暂停招聘”,后经重庆市人力资源和社会保障局核实为谣言,但此类内容因契合了部分群体的资源分配焦虑而获得广泛传播。

制造恐惧(11%)和情绪宣泄(5%)相伴相生,反映了AI谣言与社会心理状态的密切关联。这类谣言往往针对公众普遍关心的话题,如公共安全、健康风险或经济危机等,利用人们对未知风险的天然恐惧心理,引发集体性恐慌。在这类谣言的传播当中,AI生成内容以情绪为核心,紧随热点,且在传播过程中,情绪化、争议性的内容更容易引发互动,从而被扩散到更广泛的用户群体。

AI虚假信息背后意图的多元化趋势,提示我们,专业化、精细化生产的谣言,某种程度上已经具备了一定的信息操控的能力。在这一背景下,谣言不再是简单的虚假信息,而是可以演化为精心设计的情绪与认知操控工具,针对特定人群实施有组织的影响力行动。

2.3 危害层面:经济、文化、健康与社会稳定的系统性冲击

谣言造成的危害历来是系统性的,对经济、文化、个人健康乃至社会稳定都构成显著冲击,虽然并不是AI工具带来的新影响,但以其有较大的辐射范围,同样需要警惕。既有研究表明,谣言在文化传承、民族精神和政治引领方面具有危害4,本篇报告在宏观危害的基础上,引入微观层面的指标,将编码维度分为社会稳定、文化认同、经济信息和个人健康四种类型。

社会稳定(37%)是AI谣言造成的最主要危害,文化认同领域的损害(29%)是AI谣言的另一个重要影响。这类谣言往往通过篡改历史事实或制造价值观冲突,动摇社会的文化基础和集体认同。例如,2025年年初,美国加利福尼亚州南部山火肆虐期间,海外社交媒体上出现部分账户发布声称是马斯克“自己录制在媒体播出”的、对比中美救灾效率的视频,但经查证,相关视频系AI在过往访谈视频基础上伪造。

经济信心受损(22%)是AI谣言造成的又一危害。这类谣言通过虚构行业崩溃、散布市场恐慌等方式,直接影响投资者信心和消费者行为。AI技术的应用使得这类经济谣言更加逼真,如伪造的企业内部文件、精心制作的财务报表分析或虚构的市场研究报告等,都可能在短时间内引发市场剧烈波动。

个人健康领域(12%)的危害尤为直接且严重。具有较高核查门槛的虚假医疗信息,如未经证实的治疗方法、虚构的药物副作用或伪造的疾病暴发报告等,可能直接误导公众的健康决策,甚至造成生命危险。特别是在重大公共卫生事件期间,这类谣言的危害性更为突出,不仅影响个人健康,还可能干扰公共卫生应对措施。

谣言的危害呈现出“多米诺骨牌”效应,对社会信任造成连锁反应。从文化认同到经济信息,再到个人健康,虚假信息的扩散会层层递进地侵蚀社会信任和凝聚力。

在总结归纳2023—2025年100条AI虚假信息特征的基础之上,我们也对比了其与传统谣言的不同之处(见表2.1)。

当AI开始介入真相生产,谣言不仅数量剧增,更呈现出结构化、工业化与拟真化特征。通过样本数量统计和分析不难发现,AI虚假信息的数量呈现明显的快速增长趋势。

案例一:嫁接真实灾情 编造矛盾煽动情绪

谣言产生:2025年2月,在四川宜宾山体滑坡灾害期间,部分网友为蹭热点,赚取流量收益,使用AI技术炮制不实文章,捏造灾害发生时间、地点、救灾情况等不实内容,形成“四川凉山发生山体滑坡灾害”系列谣言。

要素组合:文字+图片。

标题:“四川滑坡事件中有一名男子笑的那么开心”“与时间赛跑,为生命护航——四川山体滑坡救援72小时全记录”等标题,以“四川凉山山体滑坡”(真实地域)+“男子笑的开心”(矛盾冲突)形成情绪张力。

内容:借势四川宜宾山体滑坡的真实热点事件,在真实灾害发生后的信息真空期,虚构四川凉山山体滑坡、紧急救援作业、当地民众受灾不悲反笑系自家独善其身等信息,搭配不相关的灾情现场图片,制造对立矛盾,迎合并激发受众填补信息缺口、灾害同情、道德批判等心理认知,加剧谣言传播。

谣言传播分析:

  • 传播主体与场景

    重庆周某、广东许某鑫等普通网民基于投机心态,利用低门槛的AI技术在灾情资讯流通窗口期炮制谣言发布在信息网站,未作事实核查的网民、自媒体在短视频平台、社媒平台辅助扩散,算法推荐加剧传播。

  • 传播形式

    系列谣言以文字为主,辅以少量图片,伪造灾情、使用反直觉而挑动情绪对立的文字,配合受灾图片的直观视觉,引起公众关注。

  • 受众心理

    其一,认知偏差与同情心利用,受众倾向于相信符合预期的负面信息,并对灾情予以同情关注,而忽略逻辑漏洞;其二,受灾群众大笑的反常识画面,激发猎奇心理与道德审判欲,挑起公众对受灾者的质疑与批判。

案例二:模糊指向名人 诱导网民人肉猜谜

谣言产生:2025年3月,某自媒体账号发帖称,某超一线男星在澳门永利赌场7天赌输10亿元。文章以爆料方式,详述了事件发生的完整链路,指涉赌款交付去向、经纪公司声明、知情人士透露赌后损失等兼具真实感与模糊性事实细节,迅速引起网民关注热议与搜查,并牵引出多位明星,谣言话题扩散变异。

要素组合:文字。

标题:典型的“耸动标题”——“某超一线男星澳门豪赌输光10亿”。标题中涉及光环人物、豪赌、巨额赌博损失等刺激性关键词以博取关注。同时,不明确主体,模糊指向,留有悬念,利用网民好奇心、窥探欲,诱导网民猜测、讨论、追查。

内容:其一,造谣者设计了完整的叙事结构,起因(赌博)、发展(资产转移)、转折(曝光)、结局(品牌方解约)齐全,较强的新闻故事性更易被网民接受与分享。其二,伪造权威性,造谣者引用诸如国际金融机构“Global Financial Watch”“澳门金融监管局”“反洗钱”等专业术语,伪造专业调查背景,增强其谣言可信度;其三,虚构丰富但无法验证的细节,文本提供“离岸公司转账8.6亿”“地下钱庄1.7亿港元现金筹码”等精确数据与细节,制造真实感,同时又使用“知情人士透露”“涉及五家品牌方”等模糊信息源,让人难以查证,强化网民“真实的泄密感知”。此外,明星八卦轶事天然带有热点关注度,而明星赌博话题在网民记忆与心态中有历史的事件与情绪锚点,谣言议题激活网民旧有认知,而“豪赌”“输光”“抵押”“高利贷”“黑帮”“查封”“解约”等表达充满负面情绪与戏剧冲突,深化观者强烈的情绪冲击。

谣言传播分析:

  • 传播主体

    前期事态不明,各类营销号、市场化媒体的转发跟进扩大谣言触达范围,引起全网热议,中后期被猜疑明星、粉丝与机构团队下场辟谣互动,并激发新轮次目标寻找,进一步增加谣言生命力。最后由官方认证辟谣,议题逐渐平息。

  • 传播场景

    “某超一线男星澳门豪赌输光10亿”始于2025年3月9日,某自媒体发布的不实帖子,3月10日多家自媒体与市场媒体跟进转发进一步扩散,话题发酵后在微博等社交媒体平台引起网民猜谜狂欢,引多位明星辟谣自证清白,谣言热度攀升。

  • 传播形式

    此谣言传播形式是一张未尽的文字截图,形式简单但内容富有刺激性、断裂性、可想象性,迎合受众朴素的猎奇、批判等复杂心理,激发了阅读与分享扩散的欲望。

  • 受众心理

    此则谣言主要迎合了公众猎奇、窥私、情绪娱乐、道德批判、社交参与感、代偿性满足感等心理,在信息不对称、核查意识与能力有限情况下,助推谣言接受与传播。

案例三:盗用素材嫁接 制造弱势群体恐慌

谣言产生:2025年1月7日,西藏日喀则市定日县发生6.8级地震。一张“被压在废墟下的小男孩”的图片在短视频平台,被多个账户配文关联西藏日喀则地震进行转发,图中孩子被压在倒塌的废墟之下,全身铺满尘埃,让人心疼与担忧,引起了网民大量转发评论。而实际上,此张图片截取自某AI生成视频,原创作者因加沙战争惨象,为传递和平愿望而以AI制作视频,却被截图盗用转嫁关联西藏日喀则地震。

要素组合:图片+文字+视频。

标题:“为西藏祈福”“破碎之地,重生之光”等极富情绪调动作用的文案加上#西藏加油##中国加油#的标签,增添了几分可信性,也为虚假信息的传播赚足了热度。

内容:“被压在废墟下的小男孩”的图片为谣言的主体内容,图片整体逼真度高,灾后的废墟环境、被埋的满身是灰的小男孩,易给予观者较强的情感触动。除图之外,部分造谣者会搭配涉及对灾情感伤祈祷等具有强情绪外化的表达文字与音乐,调动视听多感官。而面对灾难,人们通常怀有强烈的同情心与道德感,这使其更倾向于相信并分享看似真实的受灾、求助信息。

谣言传播分析:

  • 传播主体

    谣言源头是博取流量关注、别有用心的网民/自媒体,盗用AI素材转用场景,误导大众。谣言扩散主要是出于同情心、未核查事实、无意传播错误信息的普通网民。后官方下场辟谣,谣言渐息。

  • 传播场景

    此张图片传播于西藏日喀则市定日县发生6.8级地震期间,某短视频平台部分网友截取AI视频中的图片,基于塌陷废墟场景与地震灾后伤害的相似性,模糊公众感知,嫁接至西藏日喀则地震事件。利用公众的同理心,特别是对被埋儿童的担忧怜惜心态,调动网友情绪激发其在社交媒体上快速转发未经验证的信息。

  • 传播形式

    谣言包括文字、图片、视频等多种形式,以“被压在废墟下的小男孩”的图片为本体,演化出文字、视频等形式。其中,图片、视频等视觉化内容为核心呈现,视觉的直观性、冲击性更易引起注意并引发共鸣。

  • 受众心理

    全身尘土、肢体掩埋的画面直接触发人类对儿童受害的本能痛感,利用“无辜者受难”的符号激发强烈同情心。许多受众留言“心都碎了”“赶紧抢救”,正是情感代入的典型表现。地震等突发灾难同样易引发公众对“生命脆弱性”的普遍焦虑,而具象化的受害者形象成为情感宣泄的载体,使受众通过关注和转发表达对灾情的关切。

案例四:伪造名人爆料 挑起分配焦虑对立

谣言产生:2025年2月8日,自媒体“史行途”发布文章称马斯克于凌晨三点发布推文,爆料世界卫生组织总干事谭德塞的年薪高达950万美元。

要素组合:图片+文字+视频。

标题:“马斯克凌晨3点发推:难以理解,世卫组织总干事谭德塞年薪950万”的标题,汇聚舆论焦点人物对官方组织领导高额年薪的质疑表述,富有煽动性,引动公众对事件的好奇心,对分配不公、高官贪腐的痛恨批判心理。

内容:造谣者深谙谣言制传之策,在内容的整体逻辑上不做闭环阐释,而仅通过碎片化、暗示引导性的信息拼接制造对立。其一,社会议题的敏感性,世界卫生组织(WHO)作为全球公共卫生治理机构,在新冠疫情等全球性卫生危机中处于舆论风口。公众对其效率、资金使用等问题的质疑时有发生;其二,符合人物基本设定与行动逻辑,目前公众对马斯克的形象以正面感知为主,而其常在X上对部分时政或社会议题直言不讳,造谣者利用其形象的正面性、话语的权威性、评论行为的可能性制造错觉,增加谣言可信性;其三,世界卫生组织总干事谭德塞的年薪高达950万美元的话题,指涉分配不公、弄权利己等敏感议题,公众对此类议题的负面情绪燃点低而强烈,易形成关注传播;其四,采取断章取义与逻辑陷阱,文章未明确医务工作者概念,进而对二者年薪进行以偏概全的失真对比。并利用 “众筹项目资金去向成谜”等暗示性表述引导读者质疑世卫组织公信力。此外,加入“不愿透露姓名的世卫组织员工”“尼日利亚护士”等采访片段,通过虚构的个体案例塑造“基层悲惨、高层贪婪”的叙事,利用读者对弱者的同情心理,掩盖整体数据的虚假性。

谣言传播分析:

  • 传播主体及场景

    在微博、微信公众号、Facebook、X等社交媒体平台,抖音、快手等短视频平台以图文、短视频形式传播,网友转发评论,形成裂变效应。论坛与圈层社群不辨真假亦转载,构成私域传播链条。

  • 传播形式

    谣言包括文字、图片、视频等多种形式,如“截图+马斯克质疑言论”的图文组合、仿冒推文界面或新闻报道等,摘取图文一般为煽动性、诱导性强的内容。

  • 受众心理

    其一,对资源分配不公、弱势者受欺压的敏感心理;其二,对精英与官方机构的系统性不信任;其三,权威依赖与信息不确证。

案例五:夸大灾情危害 虚构视觉冲击图片

谣言产生:2025年3月3日至4日早晨,强对流侵袭下,广东省8个市的16个区县出现冰雹,在抖音、小红书等社交媒体平台上,部分网民发布大量通过AI制作的虚假冰雹图片,并搭配上广东多地最近下冰雹的文字。

要素组合:文字+图片+视频。

标题:标题表述借助广东冰雹天气的真实性背书,使用夸张的灾情表述,放大恐慌与受灾感知,吸引公众了解。

内容:谣言主体是夸大冰雹灾情、由AI制作的虚假图片与动图视频,内容包括“比鸡蛋还大的冰雹、冰雹砸坏汽车、砸垮房屋顶棚等冰雹灾害情况”。此谣言伪装真实,先利用真实灾情背景预设可信立场。图像视角形似当地普通人遭灾的一线分享,更添临场信任感知。内容上伪造夸张的视觉信息,故意制造视觉冲击,夸大冰雹体积、破坏力,激发观者情绪,引起转发扩散行为。

谣言传播分析:

  • 传播主体

    部分蹭热点、博取流量关注的网民,搭蹭灾害事故话题,利用AI杜撰伪造、夸大扭曲灾情事实。普通用户出于对极端天气的震撼、焦忧等情绪,无意识转发传播。

  • 传播场景

    此次谣言主要在抖音、小红书等平台上传播扩散,在抖音等短视频平台,部分网民利用视频配图+情绪性解说文字,带上热门标签等形成传播,小红书等平台上发布混淆真实与虚构的“目击分享”或“灾情见闻”。而广东多地确实遭遇强对流天气并出现冰雹的真实灾情,为谣言提供“可信开端”。

  • 传播形式

    谣言包括文字、图片、视频等多种形式。造谣者利用AI生成图像虚构冰雹灾情场景,将AI图与真实天气信息拼接增强可信度,又在短视频中加入急促、震动性的音效与配音营造紧迫感。

  • 受众心理

案例六:打造悲情英雄 激活群体身份认同

谣言产生:2025年3月初,造谣者通过其工作室旗下自媒体账号矩阵,发布华山医院前院长张明远客死他乡的谣言故事,谣言内容炮制假名人、编造跨国就医虚假故事宣传“民族自豪”“爱国主义”,引发热议并在互联网广泛传播。

要素组合:文字+图片。

标题:文章标题以“身份+地点+凄惨结局+跨国对比”的结构呈现,利用“上海华山医院前院长、医界泰斗”等表述增强人物权威与真实性,“客死他国医院走廊”采取强画面感的悲情叙事,制造冲突爆点,挑动公众情绪。

内容:造谣者虚构权威,借“泰斗院长”张明远专业身份增强可信度;虚构跨国就医—“卧倒国外医院走廊长椅”场景,制造医疗资源分配不公的视觉联想;编造“医学泰斗因阑尾炎未及时救治死亡”的情节,制造“阑尾炎致死”vs“国内高效救治”的对比,激活民族情感与愤怒情绪,助推传播。

谣言传播分析:

  • 传播主体

    造谣者系3人,自2025年2月起,造谣者3人成立工作室,控制500余个自媒体账号利用AI软件自动生成不实帖文吸粉引流牟利,形成“素材采集—AI改写—账号分发”工业化造谣全链条。帖文发布后,其他逐利自媒体跟进转载,未辨真假的普通网友,出于朴素的爱国情感关注转发扩散。

  • 传播场景

    造谣者借助工作室旗下自媒体矩阵在部分商业信息网站、论坛传播此则谣言,随后谣言扩散,进入社媒平台与圈群私域,引发进一步传播。

  • 传播形式

    谣言包括文字、图片、视频等多种形式。造谣者基于某网络平台App搜集素材,利用AI软件编撰改写成谣言文章,同时利用AI生成或盗用他人图片作为“张明远照片”“张明远讲话视频”,借助虚构文字的悲情与民族情感叙事+图片视觉感知,消费公众同情与爱国情怀,增加传播量获取热度。

  • 受众心理

    此则谣言主要利用公众的民族情绪、同情与不平心理,同时谣言迎合部分网友“外国不如我们以为的好”的认知预设,提高接受度。此外,普通网民的事实核查意识与能力偏弱,对于强情绪内容,一般倾向转发,助推谣言扩散。

案例七:制造视觉“核爆” 合成文化地标毁灭

谣言产生:2025年1月9日,有网民使用AI合成好莱坞标志性招牌遭山火损毁的图片,并发布在X等国外社媒平台,后续以图片、视频形式扩散至中文及其他社区平台,引发全球热议。

要素组合:图片+文字+视频

标题:利用“全球文化标志”损毁引发网民震惊与惋惜情绪,吸引关注。

内容:造谣内容以图像为主导,利用AI合成好莱坞标志性招牌遭山火损毁的假象视觉,图中好莱坞字母被火焰吞噬,黑烟弥漫山顶,给予不知实情的网友强视觉冲击。搭配的文字内容为常见的伪新闻格式“据网传消息”,利用“洛杉矶确发山火”的真实信息误导公众移信谣言。

谣言传播分析:

  • 传播主体及场景

    造谣者利用AI合成造假图像,后被网民自发在全球主要社媒平台上关注转发。谣言流转至一定烈度时,当地民众上传现场图像、影像信息在社媒平台辟谣,好莱坞官方及其他媒体亦跟进辟谣。

  • 传播形式

    谣言包括文字、图片、视频等形式。造谣者利用AI图像合成“山火、浓烟、标志性字母牌”进行以假乱真的视觉造假;以图带文,凭合成图片配上几句语焉不详、缺乏新闻出处的文字诱人误信;多语言同步传播,英语、中文版几乎同时出现,形成全球范围的谣言扩散。

  • 受众心理

    灾难作为文化母题,其信息具有天然吸引力,而字母牌被山火烧的画面视觉震撼令公众信任判断标准降低。此外,作为全球文化符号之一,字母牌烧毁易引发符号毁灭的焦虑、震惊等情绪,诸多因素叠加助推谣言接受与扩散。

案例八:假借专业术语 包装反常识噱头

谣言产生:2025年3月,造谣者利用AI炮制“上海退休教授靠阳台核电池供电”的谣言,并以图文、短视频的方式在短视频平台与社媒私域圈群传播。随后自媒体跟进二创,推高谣言扩散烈度。

要素组合:文字+图片+视频。

标题:“上海退休教授在阳台上搞核发电”,以科技+民间+反常规的形式塑写标题,以教授、核能、阳台这组强反差词汇,传递猎奇荒诞性与伪科学性,形成对网民的吸引力。

内容:谣言构造了“文字截图⇄短视频”的循环引用关系,文字截图称内容源自42秒短视频,短视频简介又标注依据群聊截图整理,这种自我指涉结构增加普通受众追溯原始信源的成本,形成逻辑闭环假象。在文本上,标写上海退休教授在阳台上搞核发电,获中核集团声明、国家电网警告,将个人行为与官方机构反应捆绑,制造紧迫感。又伪造专业细节与官方背书,虚构“钍基熔盐堆微型化”等技术参数、“平安推出核能家财险”等机构信息,利用公众对核相关科技知识的薄弱认知,误导公众信任与接受。视频伪造上,利用AI生成张教授形象、阳台核电机装置、红头文件警告通知等视觉符号,触发公众联想与加深可信性。

谣言传播分析:

  • 传播主体与场景

    起先,“上海退休教授靠阳台上核电池供电”的文字截图在私域圈群扩散,同主题的短视频在抖音、快手等短视频平台涌现。随后,众多自媒体以此谣言为母本,明知虚假却仍在社交平台和短视频平台上进行续写、点评分析等二次传播,部分自媒体甚至夸大虚假内容、增加挑拨性语言煽动网友情绪。

  • 传播形式

    谣言采取文字、图片、视频等形式,包括文字截图、AI制作的涉及教授真人出镜、阳台核发电原理分析的短视频,部分短视频采用AI配音作人声播报或介绍。

  • 受众心理

    科技崇魅与权威依赖,普通网民对核能科技存在知识真空,退休教授搞核电触发专家可信认知,叠加违背常识的猎奇心态易忽略核能民用可行性。同时,谣言以电价上涨为切口,自给供电叙事挑拨公众能源成本焦虑。受众可能存在“个体突破监管”“教授违规操作”等反建制情绪,产生内容存疑但仍转发的对抗性解读心理。

案例九:杜撰医疗事故 触发公众安全焦虑

谣言产生:2025年4月5日,自媒体醉吟星河在信息网站发布“AI医生闯大祸!上海一患者被误诊肺炎险丧命”的谣言,随后被其他自媒体跟进转发,形成网络热议。

要素组合:文字。

标题:“AI医生闯大祸!上海一患者被误诊肺炎险丧命”,通过“AI误诊—患者丧命”构造技术恐慌—医疗事故的对立冲突,兼有明确地域指向、险丧命的危机话术,易触发读者自我防御性的阅读冲动。

内容:造谣者利用公众对医疗健康服务的敏感心理,以及公众对AI技术在医疗领域应用的认知真空,编造技术害人的冲突性故事,并加入虚构的“4月7日国家卫健委新闻发布会”观点、“4月6日澎湃新闻独家披露事件细节”,伪造权威与具体细节增强可信度,激化矛盾,放大焦虑,引动网民转发扩散谣言。

谣言传播分析:

  • 传播主体与场景

    自媒体造谣者先在信息网站发布谣言文章,后被其他营销号、自媒体未经证实就转载至微博等社媒平台,借助耸人听闻的标题与片段摘取引起公众注意。

  • 受众心理

    谣言涉及AI技术看病误诊,挑起受众健康焦虑、新兴技术创新的恐惧与不信任心理,普通网民易被猎奇与愤怒、焦虑等负面情绪引导,在知识真空与信息不对称下,对权威信源形成认知捷径依赖,求证意识不足,成为谣言传播的“帮凶”。

案例十:炮制稀缺“首例” 放大司法责任争议

谣言产生:2025年2月12日,微博账户@CHE车说道发布《L3级自动驾驶首例判决!车企担责70%,智驾法规全面重构》文章,闫某某为吸引流量、赚取收益,通过AI洗稿虚构车主使用小鹏汽车智能驾驶发生车祸谣言。

要素组合:文字+图片。

标题:标题采取“首例自动驾驶判决、70%、全面重构”等兼具稀缺性、冲突性与话题性的关键词制造认知冲击,挑起公众好奇心。

内容:此则谣言利用公众对L3级自动驾驶责任的关注炮制话题,仿司法文书、技术报告的文体,使用L3、“XNGP 4.0系统”等技术术语制造专业假象,将智能驾驶技术争议与司法判例结合制造冲突叙事,吸引公众注意力

谣言传播分析:

  • 传播主体与场景

    汽车领域垂直自媒体账号@CHE车说道,基于流量与变现动机,在微博发布不实文章,后金融界网站未核实信源跟进发布另一篇同主题不实文章,谣言在网站、社媒平台、今日头条等资讯平台引发广泛关注。当日下午,微博账号@小鹏汽车法务部发布消息回应辟谣,后今日霍州跟进报道,嫌疑人到案,谣言发散截阻迅速。

  • 传播形式

    此则谣言以文字为主,辅以少量图片。文字的伪权威性与煽动性,搭配直观图像,激发网民关注与讨论扩散。

  • 受众心理

    其一,自动驾驶作为新兴技术尚在发展中,公众对其有不信任的安全焦虑,代入车身份易引发共情;其二,企业—车主存在强弱立场,公众对弱势者有先入为主的同情,而对企业错误有审判的惩罚期待;其三,普通网民存在权威依赖、技术认知代偿、弱事实核查的认知捷径心态。

四、概率真相时代的个体应对之道

在信息爆炸的概率真相时代,我们每天都面临海量信息的冲击,其中不乏鱼龙混杂的虚假信息。当我们无法确定信息真伪时,或许不传播,就是最好的防御。结合前文提及的核心风险与调研数据,本章我们尝试提炼出一些实操策略,希望能帮大家在概率真相时代获得更有价值的信息。

4.1 用工具对抗AI虚假信息

随着人工智能技术的发展,虚假信息的生成成本越来越低,且更具迷惑性。因此,我们需要利用AI工具的优势,反过来对抗AI生成的虚假信息。

对于涉及个人健康、公共政策或灾情等影响重大的信息,进行严谨的验证十分必要。这类信息一旦误传,可能引发不必要的恐慌甚至造成实际伤害。建议使用可信赖的AI工具进行交叉比对。例如,可以利用ChatGPT、Gemini或者Claude等大型语言模型进行初步的信息梳理和交叉验证,但务必记住,它们只是工具,最终判断仍需依靠人工核实。

在信息甄别过程中,要至少核查三个权威信源:官方账号、权威媒体和专业机构网站。如果三个信源的信息不一致或无法找到,那么就应高度怀疑该信息的真实性。除了这三个权威信源之外,对于一些疑似谣言的内容,也可以到专业辟谣机构进行查证。像腾讯新闻旗下事实查证平台“较真”,中国互联网联合辟谣平台客户端、小程序,都会对一些虚假信息进行及时的查证和辟谣。

另外在查证信息的过程中也要避免受单个网站的制约,比如垂直阅读(只通过网站自身信息评估可信度),这在虚假信息泛滥的时代是危险的,因为虚假网站会伪装成权威,而侧向阅读法是一种高效的策略。其核心原则是:当遇到一个不熟悉的网站或信息来源时,不要深入阅读其内容,而是立即打开新的浏览器标签页,搜索关于该来源的信息,通过查看其他可信网站对该来源的评价来核实其可信度。需要考虑的问题包括:网站的资金来源或赞助商是谁?其他权威来源如何评价这个网站?作者是否曾发表过其他受质疑的文章?其他媒体或官方账号是否报道了相同的信息?如果无法找到足够多的其他来源讨论该网站,这本身可能就是一个警示信号。

4.2 遇到这四类高危信号,养成判断三连问的习惯

虚假信息,特别是AI生成或利用AI技术扩散的谣言,往往遵循一些固定的“套路模板”。虚假信息之所以能够快速传播并持续存在,即使在被辟谣后仍难以消除,在于人类处理信息时固有的动机和认知偏差。人们即倾向于寻找和相信支持自己现有信念的信息,而忽略或抵制与自己观点相悖的信息,这种确认偏误的倾向使得虚假信息更容易被接受和传播。可用性偏差也是一种常见的认知偏差,那些更容易被记住的耸人听闻的故事,往往更容易被认为是真实的。

因此,有四类高危信号需要特别警惕。首先是热点嫁接加感官刺激,谣言常常利用社会热点事件,并加入煽动性、感官刺激强烈的描述,关注官方通报或许是最简单有效的办法。另外还有权威伪造加数据陷阱,这类谣言经常冒充权威机构或专家名义,或编造看似精确却无从考证的数据,而任何声称来自“权威机构”的数据,都可在机构官方网站或公开的年报中核实。再者是情绪对立加身份捆绑,这类谣言善于挑拨群体对立情绪,面对这种情况时,不妨思考一下:抛开情感因素,这件事在理性层面是否合理?最后是技术恐慌加专业伪装,这类谣言利用大众对新兴科技的陌生感或对复杂专业知识的畏惧,通过伪装成“专业分析”来散布恐慌,权威科普账号的作品或许可以给出回答。

4.3 传播要三思,转发要三查

在数字时代,个人在信息传播中扮演着关键角色,因此培养负责任的信息分享习惯至关重要。在分享任何内容之前,不妨“三思”一下:思考其准确性、重要性和必要性。这意味着在点击分享按钮之前,都要花点时间核实信息,确保其真实无误。

警惕情绪化内容是另一项重要原则。虚假信息往往被设计用来引发强烈的愤怒、恐惧或兴奋等情绪反应,从而绕过人们的逻辑思考。如果一个故事让读者感到异常愤怒或激动,这可能是一个警示信号,提示读者应通过其他来源进行核实,以确保该信息并非故意通过误导性内容来煽动情绪并获取关注。

具体来看,在转发前,可以着重“三查”:第一,查情绪浓度,煽动情绪的标题往往是谣言的常见特征;第二,查信息源头,官方机构、权威媒体通常会有认证标识;第三,查自身知识盲区,知识盲区可能成为谣言趁虚而入的突破口。

更进一步,与长期受到谣言影响的人沟通也有一定技巧,具体而言有三种方法:第一,与其简单地说某一个人是错的,不如提供其他的解释,这些解释可以帮助人们建立新的心智模式,从而克服或覆盖他们现有的信念和思维过程;第二,在质疑之前,首先告知对方即将进行一些驳斥,正如戈尔曼指出的“疫苗是通过让人们接触少量灭活的病毒来产生免疫反应,而人们认为类似的‘接种’方式也可以揭穿错误信息”,提前预告的方式不仅不会让对方感受到威胁,反而会使其思想更加开放;第三,通过移情对话来确定对方是如何形成既有的观点,可以帮助对方更加开放地接受不同的观点。5

4.4 训练“概率思维”习惯

与“概率真相”的时代特征相对应,概率思维是一种理解和驾驭不确定性的强大工具,核心在于分析不确定情境并做出决策。

地震伤亡、突发公共卫生事件等重大事件在事发初期,信息往往是碎片化且存在误差的,这是信息收集和确认的客观规律。因此,不要期待在事件发生的第一时间就能获取到百分之百准确、完整的真相。相反,关注权威信息迭代更新,不苛求即时完美真相,理解真相是一个动态变化、逐步清晰的过程更加可行。

在“概率真相”时代,信息环境的复杂性和不确定性日益增加,个人在辨别信息、做出判断和负责任传播中的作用变得前所未有的重要。AI技术在带来便利的同时,也为虚假信息的生产和扩散提供了强大工具,使得传统的信任模式和验证方法面临严峻挑战。用工具对抗幻觉,用逻辑取代情绪,用克制守护信任。在转发前多问一句、多等一刻,便已在重构属于每个人的“真相免疫力”。

展望未来,信息技术将持续演进,新的虚假信息形式和传播手段可能不断涌现。因此,持续学习、适应新挑战,并不断提升自身的数字素养、批判性思维和概率思维,将是每个人在概率真相时代生存和发展的关键。

结语|拥抱概率真相:构建信任 共塑未来

世界经济论坛发布的《2025年全球风险报告》指出,错误与虚假信息已成为全球最严峻的五大风险之一。当下,我们正身处一个由人工智能重塑的信息新纪元——“概率真相”时代。AI技术介入真相生产带来空前挑战:信息的真实性不再是简单的黑白分明,而是有概率景观掺杂的模糊样态,真实与虚假的边界在技术催化下变得愈发朦胧。然而,挑战亦是契机。面对一个“眼见未必为实,耳听未必为真”的未来,我们需要以清醒的认知、坚定的行动和共同的智慧,穿越迷雾,构建一个更具韧性的数字社会,共塑一个值得信任的未来。

“概率真相”时代并非真相的终结,而是真相形态和验证方式的深刻演变。未来数字社会的质量,将取决于我们能否成功驾驭AI这把双刃剑,能否在无限的信息涌流中重建和维系信任。这需要我们所有人的共同努力:技术开发者应肩负责任,设计有益而非有害的AI;平台运营商应承担义务,为用户提供健康的数字环境;政府和国际组织应发挥领导作用,构建公正有效的治理框架;而作为个体,我们更应成为积极的参与者和思考者,筑牢内心抵御虚假信息的防线。

技术本身并非天然的谣言制造者。通过规范引导和合理治理,AI技术完全有可能成为守护真实的有力工具。通过公众、平台和国家三方的共同努力,有望在“概率真相”时代实现信息真实性与社会信任的有效融合,塑造健康、理性、共识主导的信息空间。

然而,技术与制度的完善并非万能,应对“概率真相”时代的挑战,还需要每个个体的积极参与。在信息洪流中,每个人都是真相的守门人。就像面对社交媒体上耸人听闻的标题,有人选择盲目转发,有人则会多方查证。提升公众的认知免疫力,是抵御虚假信息最坚实的防线。我们可以从培养“概率思维”习惯做起,不再非黑即白地看待信息,而是主动思考其真实性;时刻警惕情绪诱导,避免被煽动性内容裹挟;实践“慢信息”,不急于转发未经验证的内容;主动构建多元信息源,从不同渠道交叉验证信息;学着负责任地分享与表达,让每一次转发都成为守护真实的行动。这些看似微小的举动,实则是守护真相的长期主义,唯有坚持,方能在“概率真相”的迷雾中照亮前行之路。

报告全文获取方式

请扫码填写您的邮箱地址和单位信息

我们将及时发送👇

项目团队

项目顾问:司晓、杨健、黄晨霞

项目策划:周政华、王婧璐

撰写团队:张鸿茹、刘金松、李敏、丁阳、张伊、陈雪珂

研究支持:陆诗雨、王焕超

联系方式:evazzzhang@tencent.com

腾讯研究院“破茧”三部曲

《拥抱概率真相——AI时代谣言套路拆解与防御指南》

参考文献来源:

1. 储节旺,刘青云.AIGC环境下信息污染的形成机理及防治策略研究[J/OL].情报理论与实践,1-11.

3. 邓国峰,唐贵伍.网络谣言传播及其社会影响研究[J].求索,2005,(10):92-94.

4. 陈安安,陈继红.全媒体时代网络谣言的危害及治理——基于主流意识形态安全的视角[J].南通大学学报(社会科学版),2022,38(05):20-28.

5. Georgacopoulos, C., Mores, G., & Poché, T. Fight Fake News. [EB/OL].

faculty.lsu.edu/fakenews/protect_yourself/fight-fake-news.php. (2020-08). Retrieved July 16, 2025.

特别声明:[拥抱概率真相——AI时代谣言套路拆解与防御指南(拥抱有啥用)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

城市生命线监测预警系统如何助力智慧城市建设(城市生命线监测平台建设方案)

城市生命线监测预警系统作为连接基础设施与智慧治理的核心纽带,正通过构建城市安全监测“一张网”,为智慧城市的稳健发展提供关键支撑。 从保障居民生活安全到提升城市治理效能,城市生命线监测预警系统通过构建安全监测“…

城市生命线监测预警系统如何助力智慧城市建设(城市生命线监测平台建设方案)

安费诺申请高频线缆耦合器专利,在足够高以支持224Gbp的频率下实现具有高信号完整性的高密度信号连接(安费诺这个公司怎么样)

金融界2025年7月25日消息,国家知识产权局信息显示,安费诺公司申请一项名为“高频线缆耦合器”的专利,公开号CN120376968A,申请日期为2025年01月。这样的耦合器使得小直径线缆能够与连接器进行密…

安费诺申请高频线缆耦合器专利,在足够高以支持224Gbp的频率下实现具有高信号完整性的高密度信号连接(安费诺这个公司怎么样)

江西大余:“智能粮仓”守护“丰收粮”

7月25日,江西省赣州市大余县粮食应急储备库一派繁忙景象,满载稻谷的运粮车有序驶入登记区,智能扦样设备挥动银色机械臂,精准插入车厢进行取样。“我们向密闭粮仓充入氮气,氮气浓度充到98%并达到一定时间后,便可杀…

江西大余:“智能粮仓”守护“丰收粮”

读客文化:探索AI技术与公司业务结合方式(301025读客文化)

证券之星消息,读客文化(301025)07月24日在投资者关系平台上答复投资者关心的问题。 投资者提问:贵公司是否将AI技术应用于内容创作平台? 读客文化回复:尊敬的投资者您好!公司始终专注于主业发展,通过推…

读客文化:探索AI技术与公司业务结合方式(301025读客文化)

谢东闵享受单身生活否认情伤,称与朱智贤分手后少联系对方(谢东闵女朋友是谁)

声明中强调,未来不会有任何进一步的回应。自从与朱智贤分手后,谢东闵被传言他因情伤而大受打击,体重有明显下降。他再度强调这是由于工作太忙,并非因分手而产生的情伤。 此外,谢东闵还提到,他与朱智贤的爱犬最近去世…

谢东闵享受单身生活否认情伤,称与朱智贤分手后少联系对方(谢东闵女朋友是谁)