Source: The Verge
OpenAI关键研究员Jan Leike本周早些时候辞职,声称公司的安全文化和流程已退居次要地位,而被关注长期人工智能风险的团队也解散。Leike曾负责Superalignment团队,该团队于去年七月成立,旨在解决OpenAI开发能像人一样推理的人工智能的核心技术挑战。
其余事宜将由OpenAI另一联合创始人John Schulman负责。
曾参与Altman的无功叛乱的Sutskever宣布离职。
Leike表示自己不断与OpenAI领导层就公司的核心优先事项存在分歧,最终导致了辞职。
在人工智能领域,安全性与创新之间的平衡一直备受关注,如何确保人工智能的发展符合整个人类的利益,是一个极具挑战性和深刻影响的议题。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://www.theverge.com/2024/5/17/24159095/openai-jan-leike-superalignment-sam-altman-ai-safety
https://ca.news.yahoo.com/job-sure-humans-safe-openais-075958115.html
https://www.techmeme.com/river