Source: The Verge
几名前OpenAI员工在一封公开信中警告称,像OpenAI这样的先进AI公司限制了对批评和监督的声音,尤其是随着近几个月对AI安全的担忧不断增加。签署该公开信的13名前OpenAI员工(其中6人选择匿名),并得到“AI教父”、曾在谷歌工作的Geoffrey Hinton的支持,表示在缺乏有效政府监督的情况下,AI公司应该致力于公开批评原则。这些原则包括避免制定和执行诋毁条款,促进一个“可验证”的匿名举报流程,允许现任和前任员工向公众提出关切,不对举报者采取报复措施。这封信指出,虽然他们相信AI有潜力造福社会,但也看到了风险,例如不平等的巩固、操纵和误导信息,以及人类可能灭绝的可能性。
尽管人们对可能接管地球的机器存在重要的担忧,但当今的生成式AI实际面临更务实的问题,例如侵犯版权、无意分享问题和非法图片,以及担忧AI可以模仿人们的形象并误导公众。签署者声称当前的举报者保护“是不够的”,因为它们侧重于非法活动而不是大多数未受监管的关切。劳工部表示,报告工资、歧视、安全、欺诈和扣留休假时间的违规行为的工人受到举报者保护法的保护,这意味着雇主不能解雇、裁员、减少工时或降职举报者。我们中的一些人合理地担心各种形式的报复,鉴于该行业曾发生的这类案例。
我们并不是第一个遇到这些问题或谈论这些问题的人,”信中写道。AI公司,特别是OpenAI,因监督不到位而受到批评。尽管有人声称Google在搜索中使用AI概述时给人们提供了危险但滑稽的结果,该公司仍捍卫其使用AI。微软也因其Copilot Designer生成“以暴力场景中的女性为主题的性感图像”而受到指责。
最近,几名OpenAI研究人员在公司解散了专注于解决AI长期风险的“超级对齐”团队,并且该公司联合创始人Ilya Sutskever离职后辞职。一位前研究人员Jan Leike表示,在OpenAI,安全文化和流程已经让位于抛光产品。OpenAI确实有一个新的安全团队,由首席执行官Sam Altman领导。
在争议持续升温的人工智能领域,如何平衡技术发展和社会风险是一个值得深思的议题