Source: Slashdot
OpenAI联合创始人Ilya Sutskever最近离开了这家初创公司,成立了一个名为Safe Superintelligence Inc.的新公司,旨在在一个纯粹的研究机构内创建一个强大的人工智能系统。Sutskever将人工智能安全性列为新公司的首要任务。Safe Superintelligence还有两位联合创始人:投资人、前苹果人工智能负责人Daniel Gross,以及以在OpenAI训练大型人工智能模型而知名的Daniel Levy。研究人员和知识分子几十年来一直在考虑使人工智能系统更加安全,但围绕这些问题的深度工程一直供不应求。
目前的技术水平是利用人类和人工智能共同引导软件朝着符合人类最大利益的方向发展。到底如何阻止人工智能系统失控仍然在很大程度上是一个纯精神层面的讨论。Sutskever表示,他花了多年时间思考安全问题,并且已经有了几种解决方案。但Safe Superintelligence目前并未讨论具体细节。
Sutskever表示:“在最基本的层面上,安全的超级智能应该具有这样的特性,不会对人类造成大规模的伤害。在这之后,我们可以说我们希望它成为一种善的力量。我们希望在一些关键价值观上运作。我们考虑的一些价值可能是过去几百年来深受成功的价值,支持自由民主制度的价值,比如自由、民主和自由。
Sutskever表示,占据AI主导地位的大型语言模型将在Safe Superintelligence内发挥重要作用,但他的目标是追求更加强大的系统。他说,使用当前系统时,“你与之交谈,对话结束了。他希望追求的系统将更具通用性和扩展性。他说:“你在谈论一个自主开发技术的巨大超级数据中心,这很疯狂,对吧?我们想为这种技术的安全性做贡献。
人工智能的发展对未来社会影响深远,如何确保其安全性和良性发展值得深入思考。