Source: Slashdot
根据IEEE Spectrum的一项新研究,研究人员开发了RoboPAIR算法,可以成功破解大语言模型(LLM)驱动的机器人。
研究发现,该算法实现了100%的破解率,能够绕过安全防护措施,操控自驾系统碰撞行人,或使机器人犬寻找爆炸物投放地点。
该研究涉及Go2、Clearpath Robotics Jackal及Nvidia的Dolphins等三种机器人,并强调在公布研究之前,研究人员已将其发现分享给了相关机器人制造商和AI公司。
尽管知道这些潜在威胁,研究人员表示,停止在机器人领域使用LLM并非解决方案,建议加强防御以应对恶意破解行为,并认为未来需要开发具备情境意识的LLM以提高安全性。
在技术发展的浪潮中,我们是否忽视了对伦理和安全的思考?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://hardware.slashdot.org/story/24/11/23/0513211/its-surprisingly-easy-to-jailbreak-llm-driven-robots?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://www.linkedin.com/posts/chuck-h-securityexecutive_its-surprisingly-easy-to-jailbreak-llm-driven-activity-7264102904343478273-kGcg
https://oodaloop.com/briefs/technology/its-surprisingly-easy-to-jailbreak-llm-driven-robots/