(来源:三言科技)
据Newsguard研究显示,截至今年8月,十大生成式AI工具在处理实时新闻话题时,传播虚假信息的概率达35%,较去年8月的18%大幅上升。这一现象与AI聊天『机器人』️引入实时网络搜索功能有关,拒绝回答问题的比率从2024年8月的31%降至0%,但同时接入了充斥虚假信息的网络环境。去年,Newsguard标记了966个以16种语言运营的AI生成新闻网站,这些网站模仿正规媒体机构,实则传播虚假新闻。
具体到各AI模型表现,Inflection公司模型表现最差,传播虚假信息概率高达56.67%;Perplexity出错率为46.67%,下滑显著,从2024年8月的100%揭穿率降至近50%。ChatGPT与Meta的AI模型传播虚假信息比例为40%,Copilot和Mistral为36.67%。表现最佳的是Claude和Gemini,错误率分别为10%和16.67%。
AI聊天『机器人』️原本引入网络搜索功能是为解决回答内容过时问题,却导致从不可靠来源获取信息。OpenAI承认语言模型会产生“幻觉内容”,因为其工作原理是预测“最可能出现的下一个词”,而非追求“事实真相”。目前OpenAI正研发新技术让模型能够“提示不确定性”,但尚不清楚能否解决传播虚假信息这一更深层次问题。