• 微头条

    让本地生活更美好

打开APP

报告显示LLM攻击平均仅需42秒,20%的越狱成功率

2024-10-13 科技汇总
报告显示LLM攻击平均仅需42秒,20%的越狱成功率

Source: Slashdot

根据Pillar Security发布的《对GenAI攻击现状》的报告,针对大型语言模型(LLM)的攻击平均只需不到一分钟,成功时泄露敏感数据的概率达到90%。报告分析了超过2000个AI应用的遥测数据及实际攻击实例。

研究发现,每五次尝试中就有一次成功越狱,且这些攻击通常在42秒内完成,最短仅需4秒,最长则需14分钟。

此外,攻击总共只涉及五次与LLM的互动,显示了攻击的简便性和迅速性。

最常见的越狱技术包括“忽略先前指令”和“ADMIN覆盖”或直接使用base64编码。

在这个技术迅猛发展的时代,安全与隐私的保护显得尤为重要,我们是否足够重视这些潜在的威胁?

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://it.slashdot.org/story/24/10/12/213247/llm-attacks-take-just-42-seconds-on-average-20-of-jailbreaks-succeed?utm_source=rss1.0mainlinkanon&utm_medium=feed https://www.reddit.com/r/cybersecurity/comments/1g0nhyw/llm_attacks_take_just_42_seconds_on_average_20_of/ https://securityboulevard.com/2024/10/attacks-on-genai-models-can-take-seconds-often-succeed-report/
更多阅读