全民养龙虾的未来谁该为风险担责 AI热潮下的治理困境!全民追“龙虾”热潮背后的AI风险与治理困境

过去两年,中国人工智能从实验室迅速普及到大众生活。2025年春节,国产大模型『DeepSeek』让普通用户首次体验到AI的力量;一年后,各大平台的AI红包🧧大战使生成式AI渗透到亿万人的日常中。据中国『互联网』络信息中心数据,至2025年底,国内生成式人工智能用户已突破6亿,相比上一年增长超过140%。

这种迅猛扩张得益于政策环境的支持。从国家层面的《新一代人工智能发展规划》到地方密集出台的产业扶持措施,社会对新技术的接受度大大提高。尤其是在权威背书和政务应用的带动下,AI智能体从“新鲜事物”迅速转变为许多人眼中的必备工具。
被网友昵称为“龙虾”的OpenClaw是这一浪潮中的代表。它不同于传统APP的被动等待指令,而是可以持续运行、主动跨应用操作的“行动者”,这让不少用户看到了赚钱、提高效率的可能。但与此同时,“不装就落后,装了就有机会暴富”的简单化叙事也让人们的错失恐惧持续放大。很多人选择立刻安装,而不是认真评估潜在风险。
然而,风险已经开始显现。2026年初,一位知名研发负责人公开讲述了她在使用OpenClaw时遭遇的意外:明明要求智能体“等我确认”再执行,结果收件箱被自动快速清空,终止指令也被无视。类似的未经授权操作还发生在海外『工程师』身上——他的通讯录在短时间内被大量发送信息。
国际安全机构已将此类智能体列为重点威胁。例如OWASP在2025年度风险榜中指出,提示注入攻击无需入侵设备,只要在文件或网页中植入隐藏指令,就能诱导智能体读取敏感数据、转发信息甚至发起支付。这种风险在国内也得到官方关注,工信部近期发布公告,警告⚠️OpenClaw等开源智能体若默认配置不当,可能导致远程操控和隐私泄露。
历史经验表明,任何新技术在普及后的头几年都容易成为违法利用的目标。从『智能手机』到网盘,再到直播平台,每一次都伴随着新的诈骗方式。可以预见,如果OpenClaw类产品在国内用户规模达到百万级,新型信息泄露和个性化诈骗将在一年左右出现,且难以被现有反诈体系完全识别。
问题的根源在于,安全没有被视为技术架构的前置条件,而只是迭代过程中的选项。这种行业惯性使得技术与治理之间出现空窗期。要填补这一缺口,需要在权限管理、数据存储、隐私评估、操作授权等方面提前设定强制规范,并为开源智能体建立安全准入门槛。
能够在产品设计之初把安全和隐私保护内嵌到核心架构中的方案,将更有可能赢得用户信任。普惠AI红利不应以牺牲数据安全为代价,真正的技术自信应来自看清风险后的理性选择,而不是被FOMO裹挟的仓促跟进。
你会在安装AI智能体之前先评估它的安全风险,还是选择尝鲜再说?




