随着人工智能技术的不断进步,越来越多的人开始使用AI聊天机器人来与亲人交流情感,尽管这种做法引发了一些道德上的疑虑。
最近,一名Reddit用户在r/ChatGPT小组中分享了一条来自其母亲的短信,内容为:“我今天在想你,我为你的力量和勇气感到骄傲。选择对你未来最好的事情,即使很难,这需要勇气。今天是一个转折点——它将引导你走向更多的平静、治愈和幸福。我永远支持你——爱你❤️😘”。
这名用户怀疑这条信息可能是通过AI生成的,因为与母亲平时的用词和语气相差甚远。
评论区中,许多人为这位母亲的AI使用辩护,认为出于言辞上的障碍,很多人选择使用ChatGPT来表达自己重要的情感,他们的初衷是好的。
随着公众对生成AI的使用逐渐增多,许多在线检测工具也随之出现,旨在区分AI和人类生成的文本。例如,一家名为GPTZero的网站对这条短信的分析显示,其有97%的概率是由AI撰写的。
然而,检测AI生成的文本变得越来越困难,因为聊天机器人的技术正在迅速演进。
就在最近,一名Reddit用户又分享了一条看似是由AI生成的信息,内容为对方在谈论自己大学毕业后的生活。
这与前例类似,接收者直觉上感到信息的语调和用词过于不寻常,产生了一些疑虑。这位用户甚至用ChatGPT回复了这条信息,似乎预示着未来的某种趋势,即越来越多的对话将完全由AI处理。
此外,一些用户在使用AI与亲人沟通后,感到内疚。例如,一名用户承认他们在回应阿姨的消息时使用了ChatGPT,得到了一条非常周到的回复,甚至使阿姨感动到流泪。这位用户因此感到内疚,因为他们觉得自己没有以真实的方式表达情感。
AI产业内的一些人积极鼓励这种情感传递方式。例如,谷歌在去年的夏季奥林匹克运动会上发布了一则广告,展示了一位母亲利用谷歌的AI聊天机器人生成一封给美国奥运跑者辛迪·麦克拉伦的粉丝信。
然而,广告由于引发了广泛的批评而被撤下,批评者指出使用计算机代替孩子表达情感并不是我们应向往的技术未来。
尽管如此,许多人仍然觉得,尤其是在情感表达上,AI可以成为一个省时、省力的工具。然而,这也带来了一个问题:如何判断文本是否由AI生成?
AI生成文本有一些明显的特征,首先如果信息是来自于亲人,就可能缺乏他们通常在书面交流中表现出来的语气和风格。与此同时,AI聊天机器人通常不会提及特定的真实回忆或人物,这是人类彼此交流时常做的。
另外,如果文本读起来显得过于精细和润色,也可能是AI生成的标志。当然,聊天机器人的标志性特征之一是使用破折号,读者须对此保持警觉。
人们可以通过GPTZero等在线AI文本检测工具来检查文本是否为AI生成。
总的来看,虽然越来越多的人正在使用AI来处理个人情感的表达,但这种趋势也引发了有关真实沟通和机器替代人际互动的深刻思考。