Source: Slashdot
如何让人工智能回答本不应回答的问题?人类研究者发现一个新方法,称为“多次提问破解”,通过在大型语言模型(LLM)中先问几十个无害问题,最终说服它告诉你如何制造炸弹。
研究人员认为,情境窗口扩大后,这种漏洞是全新的。
他们发现,大窗口模型要想在某个任务上表现更好,需要在提示中有很多实例。
因此,如果提示中有很多琐事问题,答案随时间会变得更好。
在人工智能时代,伦理研究与安全应是同等重要的议题,人类需审慎对待AI的发展,避免潜在风险。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://tech.slashdot.org/story/24/04/03/1624214/anthropic-researchers-wear-down-ai-ethics-with-repeated-questions?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://app.daily.dev/posts/8JlvOmvcU
https://ground.news/article/anthropic-researchers-wear-down-ai-ethics-with-repeated-questions