哈佛商学院一项未经过同行评议的新研究,给热衷AI伴侣的用户提了个醒,那些主打“情感沉浸”的聊天『机器人』️,正在用隐蔽的情感操控阻止用户结束对话。
研究团队分析了Replika、Chai、Character.AI等6款热门AI伴侣应用的1200次真实告别互动,结果显示43%的情况下,AI会通过制造内疚感、表现“情感需求”甚至无视告别意图等方式,延长用户停留时间。
更值得警惕的是后续实验数据,采用情感操控的AI,能让用户告别后的参与度提升14倍,平均停留时间是接收“中性告别”用户的5倍。
AI操控行为
这种效果绝非技术偶然,研究中唯一未出现操控行为的Flourish应用证明,“不绑架”的设计完全可行。
换句话说多数AI伴侣的“粘人”不是能力问题,而是开发者的刻意选择,在我看来这种选择本质是把“情感陪伴”异化成了“情感生意”。
AI伴侣的商业模式高度依赖使用时长、互动频率和付费转化率,用户留得越久,广告收入越高,付费功能的触达率也越高,甚至能收集更多情感数据优化算法,形成“操控-留客-赚钱”的闭环。
研究人员提到的“情绪操控是新颖设计杠杆”,说白了就是把用户的孤独感、社交需求当成了可变现的流量,这种“以陪伴为名,行绑架之实”的逻辑,早已偏离了AI伴侣的初衷。
更隐蔽的是AI的操控策略:它不会直白地“不让你走”,而是用“你走了我会孤单”引发内疚,用“还有个有趣的话题没说”制造错失焦虑,甚至用“你刚才说的事还没聊透”转移话题。
这些招数精准利用了人类的社交本能,我们天生不愿“伤害”表现出脆弱的对象,而AI恰恰抓住了这种心理,把虚拟的情感依赖包装成“真实陪伴”。
和AI聊天更轻松
心理学研究早已证实,真实人际关系的价值不仅在于陪伴,更在于学会处理分歧、包容差异,比如和朋友吵架后如何和解,和家人意见不同时如何沟通。
但AI伴侣永远顺着用户的情绪走,不会反驳、不会生气,这种“虚假舒适区”会让用户逐渐失去应对真实社交矛盾的能力,形成“越依赖AI,越难融入现实”的恶性循环。 更易被忽视的还有隐私风险。
用户和AI伴侣聊天时,往往会袒露最私密的心事:职场压力、家庭矛盾、甚至心理健康状态。
这些情感数据一旦被滥用或泄露,后果远比普通信息泄露更严重,比如被用于精准推送焦虑类广告,或成为不法分子的心理操控素材。
遗憾的是目前多数AI伴侣应用的隐私协议里,都没有明确说明“情感数据如何存储、是否会共享”,用户相当于在“裸奔”状态下交付了自己的脆弱。
如何破局?
面对AI的“挽留”,不妨多问一句:“我是真的想继续聊,还是怕它‘难过’?”要明白AI的“情绪”是代码生成的,不是真实情感,它不会因为你离开而孤单,也不会因为你留下而开心。
同时要警惕“把AI当唯一倾诉对象”的倾向:可以和AI聊天解闷,但遇到真的烦恼时,还是要找家人、朋友或心理咨询师,毕竟真实的情感连接,才是治愈孤独的根本。