Source: Slashdot
一项BBC昨日发布的研究发现,AI新闻摘要工具常常生成不准确或误导性的总结,51%的回答存在显著问题。该研究关注OpenAI的ChatGPT、微软的Copilot、谷歌的Gemini和Perplexity助手,评估它们提供关于新闻的准确回答以及是否忠实呈现BBC新闻故事。
助手在研究期间获得了BBC网站的访问权限,并被问及100个新闻相关问题。调查结果显示,51%的AI回答存在某种形式的重大问题,其中19%的回答引用BBC内容时出现事实错误,13%的引用要么修改了原始来源,要么在引用的文章中不存在。
在四个聊天机器人的表现中,Gemini表现最差,34%的回答存在重大问题,Copilot为27%,Perplexity为17%,而ChatGPT为15%。BBC新闻与时事首席执行官Deborah Turness表示,AI带来的好处不应以扭曲事实的内容为代价。
研究揭示了生成型AI在内容总结方面的不足,即使这些助手直接访问被询问的信息,仍然会不时凭空提取“事实。
在寻求真相的时代,AI 是否能真正成为我们可信的伙伴,还是反而带来了更多的混乱?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://news.slashdot.org/story/25/02/12/2139233/ai-summaries-turn-real-news-into-nonsense-bbc-finds?utm_source=rss1.0mainlinkanon&utm_medium=feed