Source: Slashdot
加州的“安全和安全创新前沿人工智能模型法案”(即SB-1047)引发了一系列头条新闻和关于大型人工智能模型整体“安全性”的辩论, 但批评者担心该法案过分关注未来人工智能模型的存在威胁,可能严重限制今天更枯燥、无威胁的人工智能用途的研究和发展。SB-1047由州参议员斯科特·维纳提出,在5月以32-1的投票获得了加州参议院的通过,似乎很有可能在8月的州议会最终投票中取得成功。该法案规定了那些背后支持足够大型人工智能模型(目前设置为训练成本100刀和与今天这些费用所暗示的粗略计算能力)的公司必须制定测试程序和系统以预防和应对“安全事件。法案明确了这些安全事件的法律定义,进而着重于定义一组可能导致“大规模伤亡或至少5亿刀损失”的“关键危害”,例如“制造或使用化学、生物、放射性或核武器”(你好,天网?)或“详细说明如何对关键基础设施进行网络攻击”的内容。
法案还提到“对公共安全和安全构成其他相当严重的严重危害。一个AI模型的创造者不会因通过模型外部“公开可访问”信息的共享而承担责任——仅仅是要求一个LLM总结《无政府主义者食谱》可能并不会违法。相反,该法案似乎最担心未来可能出现“对公共安全和安全构成新威胁”的AI。SB-1047关注的不是人使用AI进行有害思考,而是关注“AI自主从事行为而不是用户要求”,同时“受到有限的人类监督、干预或监督。
为了预防这一直接来源于科幻小说的结果,任何训练足够大型模型的人必须“实施能够迅速关闭的能力”,并制定何时会启动这种关闭的政策等其他预防措施和测试。法案还着重关注可能导致“如果由人类执行则需要‘意图、鲁莽或极端疏忽’”的AI行为,暗示了这不是今天的大型语言模型存在的层面。该法案的支持者包括AI专家Geoffrey Hinton和Yoshua Bengio,他们认为该法案是对潜在灾难性AI风险的一项必要预防措施。批评该法案的人包括技术政策专家Nirit Weiss-Blatt和AI社区代表丹尼尔·杰弗里斯。
他们认为该法案是基于对科幻小说的恐惧,并可能损害技术进步。Ars Technica的专栏作家蒂莫西·李和Meta的Yann LeCun表示,该法案的规定可能会阻碍“开放权重”的AI模型和AI研究的创新。相反,一些专家建议更好的方式是聚焦于监管有害的AI应用而非技术本身——例如,禁止非自愿深度伪造色情内容和改善AI安全研究。
适当的监管或许能让我们远离未来科幻般的灾难,但如何平衡科技发展和社会安全仍需深思。" } ```