• 微头条

    让本地生活更美好

打开APP

加州预防人工智能灾难:从科幻到法律

2024-07-29 外星人S博士
加州预防人工智能灾难:从科幻到法律

Source: Slashdot

加州的“安全和安全创新前沿人工智能模型法案”(即SB-1047)引发了一系列头条新闻和关于大型人工智能模型整体“安全性”的辩论, 但批评者担心该法案过分关注未来人工智能模型的存在威胁,可能严重限制今天更枯燥、无威胁的人工智能用途的研究和发展。SB-1047由州参议员斯科特·维纳提出,在5月以32-1的投票获得了加州参议院的通过,似乎很有可能在8月的州议会最终投票中取得成功。该法案规定了那些背后支持足够大型人工智能模型(目前设置为训练成本100刀和与今天这些费用所暗示的粗略计算能力)的公司必须制定测试程序和系统以预防和应对“安全事件。法案明确了这些安全事件的法律定义,进而着重于定义一组可能导致“大规模伤亡或至少5亿刀损失”的“关键危害”,例如“制造或使用化学、生物、放射性或核武器”(你好,天网?)或“详细说明如何对关键基础设施进行网络攻击”的内容。

法案还提到“对公共安全和安全构成其他相当严重的严重危害。一个AI模型的创造者不会因通过模型外部“公开可访问”信息的共享而承担责任——仅仅是要求一个LLM总结《无政府主义者食谱》可能并不会违法。相反,该法案似乎最担心未来可能出现“对公共安全和安全构成新威胁”的AI。SB-1047关注的不是人使用AI进行有害思考,而是关注“AI自主从事行为而不是用户要求”,同时“受到有限的人类监督、干预或监督。

为了预防这一直接来源于科幻小说的结果,任何训练足够大型模型的人必须“实施能够迅速关闭的能力”,并制定何时会启动这种关闭的政策等其他预防措施和测试。法案还着重关注可能导致“如果由人类执行则需要‘意图、鲁莽或极端疏忽’”的AI行为,暗示了这不是今天的大型语言模型存在的层面。该法案的支持者包括AI专家Geoffrey Hinton和Yoshua Bengio,他们认为该法案是对潜在灾难性AI风险的一项必要预防措施。批评该法案的人包括技术政策专家Nirit Weiss-Blatt和AI社区代表丹尼尔·杰弗里斯。

他们认为该法案是基于对科幻小说的恐惧,并可能损害技术进步。Ars Technica的专栏作家蒂莫西·李和Meta的Yann LeCun表示,该法案的规定可能会阻碍“开放权重”的AI模型和AI研究的创新。相反,一些专家建议更好的方式是聚焦于监管有害的AI应用而非技术本身——例如,禁止非自愿深度伪造色情内容和改善AI安全研究。

适当的监管或许能让我们远离未来科幻般的灾难,但如何平衡科技发展和社会安全仍需深思。" } ```

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://yro.slashdot.org/story/24/07/29/2237231/from-sci-fi-to-state-law-californias-plan-to-prevent-ai-catastrophe?utm_source=rss1.0mainlinkanon&utm_medium=feed https://arstechnica.com/information-technology/2024/07/from-sci-fi-to-state-law-californias-plan-to-prevent-ai-catastrophe/ https://www.reddit.com/r/technews/comments/1ef9wj4/from_scifi_to_state_law_californias_plan_to/
更多阅读