• 微头条

    让本地生活更美好

打开APP

OpenAI揭示应对AI危险的计划

2023-12-18 外星人S博士
OpenAI揭示应对AI危险的计划

Source: Slashdot

AI公司OpenAI公布了其应对其技术可能带来的严重危险的计划,例如允许坏人学习如何制造化学和生物武器。

OpenAI的“应对准备”团队由MIT AI教授Aleksander Madry领导,将雇用AI研究人员、计算机科学家、国家安全专家和政策专业人员来监控其技术,不断测试它,并在其认为任何AI能力变得危险时警告公司。

该团队位于OpenAI的“安全系统”团队和公司的“超赞酷”团队之间,前者解决像将种族偏见融入AI等现有问题,后者研究如何确保在想象中的技术完全超过人类智能的未来中,AI不会伤害人类。

AI技术发展可能带来严重危险,OpenAI团队的计划为了应对这些危险而不懈努力,保护人类的利益值得关注。

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://slashdot.org/story/23/12/18/1810211/openai-lays-out-plan-for-dealing-with-dangers-of-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed https://openai.com/blog/moving-ai-governance-forward https://www.newsbreak.com/news/3269633378793-openai-lays-out-plan-for-dealing-with-dangers-of-ai
更多阅读