Source: Slashdot
美国国家标准与技术研究所(NIST)发布了一个名为Dioptra的新开源软件工具,用于测试机器学习模型对各种攻击的弹性。Dioptra具有新的基于Web的前端、用户身份验证和实验所有元素的来源跟踪等新功能,可以保证实验的再现性和结果的验证。之前的NIST研究确定了针对机器学习算法的三种主要攻击类型:规避攻击、中毒攻击和预言攻击。
这一免费平台使用户能够确定三种攻击类型对模型性能的影响程度,并且还可以评估各种防御措施的使用情况。Dioptra的开源测试平台具有模块化设计,支持不同因素的组合实验,如不同模型、训练数据集、攻击战术和防御。Dioptra 1.0.0版本具有多项功能,以最大程度地提高其对第一方模型开发人员、第二方模型用户或购买者、第三方模型测试人员或审计人员以及机器学习领域的研究人员的可访问性。
除了其模块化体系结构设计和用户友好的Web界面外,Dioptra 1.0.0还支持Python插件,增加了功能性……Dioptra跟踪实验历史,包括输入和资源快照,支持可追溯和可重现性的测试,可揭示导致更有效模型开发和防御的见解。根据文章报道,NIST还发布了三份“指导”文件的最终版本。
第一份文件涉及生成式人工智能的12种独特风险以及200多项建议行动,以帮助管理这些风险。第二份文件概述了生成式人工智能和双重用途基础模型的安全软件开发实践,第三份文件提供了全球合作开发AI标准的计划。
人工智能安全意识和技术的不断提升,将有效推动AI行业的发展和规范化。"
}
```
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://yro.slashdot.org/story/24/08/04/021242/nist-releases-an-open-source-platform-for-ai-safety-testing?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://www.nist.gov/news-events/news/2024/07/department-commerce-announces-new-guidance-tools-270-days-following
https://www.nist.gov/itl/ai-risk-management-framework/roadmap-nist-artificial-intelligence-risk-management-framework-ai