Source: Slashdot
AI公司OpenAI公布了其应对其技术可能带来的严重危险的计划,例如允许坏人学习如何制造化学和生物武器。
OpenAI的“应对准备”团队由MIT AI教授Aleksander Madry领导,将雇用AI研究人员、计算机科学家、国家安全专家和政策专业人员来监控其技术,不断测试它,并在其认为任何AI能力变得危险时警告公司。
该团队位于OpenAI的“安全系统”团队和公司的“超赞酷”团队之间,前者解决像将种族偏见融入AI等现有问题,后者研究如何确保在想象中的技术完全超过人类智能的未来中,AI不会伤害人类。
AI技术发展可能带来严重危险,OpenAI团队的计划为了应对这些危险而不懈努力,保护人类的利益值得关注。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://slashdot.org/story/23/12/18/1810211/openai-lays-out-plan-for-dealing-with-dangers-of-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://openai.com/blog/moving-ai-governance-forward
https://www.newsbreak.com/news/3269633378793-openai-lays-out-plan-for-dealing-with-dangers-of-ai