Source: The Verge
OpenAI正在组建一个新的安全团队,并由CEO Sam Altman领导,以及董事会成员Adam D'Angelo和Nicole Seligman。该团队将就“OpenAI项目和运营的重要安全和安全决策”提出建议,这是几位关键AI研究人员在本月离开公司时提出的关注。新团队的首要任务是“评估并进一步发展OpenAI的流程和保障措施。然后,该团队将向OpenAI董事会提交调查结果,安全团队的三位领导人都是董事会的成员。董事会将决定如何实施安全团队的建议。
此次成立安全团队是在OpenAI的联合创始人兼首席科学家Ilya Sutskever离职后发生的,他支持董事会去年试图罢黜Altman。他还共同领导了OpenAI的超对齐团队,该团队旨在“引导和控制比我们聪明得多的AI系统。超对齐团队的另一位共同负责人Jan Leike在Sutskever离职后不久宣布离职。在一篇文章中,Leike表示OpenAI的安全问题“已经不再是首要问题。据Wired报道,OpenAI此后解散了超对齐团队。
上周,OpenAI政策研究员Gretchen Krueger宣布辞职,原因是类似的安全顾虑。除了新的安全委员会,OpenAI宣布正在测试一个新的AI模型,但没有确认是否是GPT-5。本月早些时候,OpenAI公布了ChatGPT的新演讲者Sky,声音酷似Scarlett Johansson(甚至Altman在一篇文章中都提到了这点)。然而,Johansson随后证实拒绝了Altman提供ChatGPT声音的邀约。
Altman后来表示,OpenAI“从未打算”让Sky听起来像Johansson,并称在公司确定声音演员之后曾联系Johansson。整个事件让AI粉丝和评论家都感到担忧。OpenAI新的安全团队成员还包括预备负责人Aleksander Madry、安全负责人Lilian Weng、对齐科学负责人John Schulman、安全负责人Matt Knight和首席科学家Jakub Pachocki。但是,由两位董事会成员以及Altman本人领导新的安全委员会,OpenAI似乎并没有真正解决其前员工的担忧。
在人工智能领域,安全问题是一个永恒的话题,OpenAI的举动引发了更深入的讨论和思考。" } ```