Source: CNBC
周二,在首尔AI安全峰会上,包括微软、亚马逊和OpenAI在内的多家主要科技公司同意达成关于人工智能安全的里程碑国际协议。这一协议将让来自美国、中国、加拿大、英国、法国、韩国和阿联酋等国家的公司自愿承诺确保其最先进的AI模型的安全开发。在尚未这样做的情况下,AI模型制造商将分别公布安全框架,说明他们如何衡量其边界模型的风险,例如检查技术被不法分子滥用的风险。这些框架将包括对技术公司的“红线”,定义与边界AI系统相关的风险种类,这些风险将被视为“不可容忍” — 这些风险包括但不限于自动化网络攻击和生物武器威胁。
在这类极端情况下,公司表示将实施“刀关”,如果无法保证减轻这些风险,他们将停止开发他们的AI模型。世界首次拥有这么多来自全球不同地区的领先AI公司同意在AI安全上做出相同承诺,”英国首相Rishi Sunak周二在一份声明中表示。这些承诺确保世界领先的AI公司将就其安全AI发展计划提供透明度和问责制,”他补充道。周二达成的协议扩展了公司在英国布莱切利公园AI安全峰会上提供的一组早先的承诺,这些公司同意在下一个计划中的AI峰会 — 2025年初在法国举办的AI行动峰会之前,从“信任的参与者”那里获得这些阈值的意见,包括在适当时候从他们所在国家的政府那里获得意见。
周二同意的承诺仅适用于所谓的“边界”模型。这个术语指的是生成式AI系统背后的技术,比如OpenAI的GPT大型语言模型系列,它驱动着热门的ChatGPT AI聊天机器人。自ChatGPT于2022年11月首次面世以来,监管机构和科技领袖越来越担心围绕能够生成与或优于人类的文本和视觉内容的先进AI系统的风险。
欧盟试图通过其AI法案限制AI的无限发展,这一法案于周二获得了欧盟理事会的批准。然而,英国尚未提出AI的正式法律,而是选择对AI监管采取“轻 touch”方法,即监管机构将现有法律适用于技术。政府最近表示,将考虑在未来某个时候对边界模型立法,但尚未承诺制定正式法律的时间表。
AI技术的快速发展带来的潜在风险不容忽视,科技巨头们积极承担AI安全责任,但如何确保风险得到有效缓解仍是重要课题。