Source: The Verge
Meta的AI助手错误地表示前总统特朗普最近的刺杀未发生,该公司执行官现在将此错误归因于驱动其聊天机器人和其他技术的技术。Meta全球政策负责人乔尔·卡普兰在周二发表的一篇公司博客文章中称,该AI对于有关枪击的问题的回答“不幸。他说,Meta AI最初被设定为不回答有关刺杀的问题,但在人们开始注意到后,公司取消了这一限制。他还承认,“在少数情况下,Meta AI继续提供不正确的答案,有时甚至断言事件未发生——我们正在迅速解决这个问题。
这些类型的回应被称为幻觉,这是我们在所有生成式 AI 系统中看到的行业问题,对AI如何处理实时事件是一个不断挑战的问题,”负责Meta游说工作的卡普兰继续说道。像所有生成式 AI 系统一样,模型可能返回不准确或不当的输出,我们将继续处理这些问题,改进这些特性,随著其演变,越来越多的人分享他们的反馈。Meta AI不会提供有关拟*题的任何细节。我们正在目睹对一个最重要最具有影响力的故事之一在实时进行的压制与掩盖。
简直不可思议。pic.twitter.com/BoBLZILp5M 这不仅是Meta遇到的问题:Google周二也不得不否认其搜索自动完成功能正在对刺杀企图的搜索结果进行审查。又开始了,又有人试图操纵选举!!!”特朗普在Truth Social发帖中写道。去对抗Meta和Google。
自ChatGPT面世以来,科技行业一直在探讨如何限制生成AI倾向于提供虚假信息的问题。一些参与者,如Meta,已尝试通过高质量数据和实时搜索结果来扎实打造其聊天机器人,以弥补幻觉。但正如这个特定示例所展示的,要克服大型语言模型固有设计的特点仍然很难:编造事实。
AI技术的进步不仅带来便利,也可能产生错误,挑战人们对于真实与虚假的辨识能力。