• 微头条

    让本地生活更美好

打开APP

斯嘉丽·约翰逊AI风波映照硅谷旧时

2024-05-22 蒙城快讯
斯嘉丽·约翰逊AI风波映照硅谷旧时

Source: bbc.com

快速行动,打破陈规”是一句口号,20年前由年轻的马克·扎克伯格创造,至今仍在技术行业中挥之不去。这五个字象征着硅谷的最坏一面 - 无情的野心与令人惊叹的傲慢 - 以利润为导向的创新,不惧后果。当演员斯嘉丽·约翰逊与OpenAI发生冲突时,我想起了那句口号。约翰逊女士声称她和经纪人都拒绝为ChatGPT的新产品配音 - 但当产品发布时,听起来却像她。OpenAI否认这是有意的模仿。这经典地展示了创意产业担心的事情 - 被人工智能模仿并最终取代。上周,全球最大音乐出版商Sony Music写信给谷歌、微软和OpenAI,要求知晓是否有采用其艺术家歌曲开发人工智能系统,称他们未获准这样做。所有这些事情中都彰显了旧时硅谷巨头的影子。寻求宽恕而非允许作为一种非官方商业计划。2024年的科技公司极力摆脱这一声誉。OpenAI并非起初就是这样塑造的。最初创建为非营利组织,将任何额外利润投资回业务中。2019年,当其形成以盈利为目的的部门时,他们表示盈利部门将由非营利部门领导,并规定了投资者可获得的回报上限。并非每个人都对这一转变感到满意 - 有人称这是创始合伙人埃隆·马斯克决定离开的主要原因之一。当OpenAI CEO萨姆·奥尔特曼去年底突然被董事会解雇时,有一种理论认为他想要更进一步远离最初的使命。

我们从未确切找到答案。但即使OpenAI变得更为以利润为导向,它仍需面对其责任。在政策制定领域,几乎所有人都同意,需要明确界限,以在灾难发生之前使OpenAI等公司保持在规定范围内。迄今为止,人工智能巨头在文件上基本上遵循规则。在六个月前举行的全球首次人工智能安全峰会上,一群科技老板签署了自愿承诺书,承诺创建负责任的安全产品,最大限度地发挥人工智能技术的好处,最小化其风险。当时我询问关于人工智能工具对人们造成的更现实威胁,例如歧视或取代工作岗位时,我被断然告知这次聚会专注讨论最糟糕的情况 - 这是终结者、世界末日、人工智能失控并毁灭人类的领域。六个月后,当峰会再次召开时,会议标题中“安全”一词已被完全删除。上周,一份来自30名独立专家组成的英国政府草案报告得出结论称,“目前尚无证据”表明人工智能能制造生物武器或进行复杂的网络攻击。人类失控于人工智能的可能性“高度有争议”,报告称。该领域的一些人已经说了相当长时间,人工智能工具的更直接威胁是它们将取代工作或无法识别皮肤颜色。人工智能伦理专家拉曼·乔赞里表示,这才是“真正的问题。人工智能安全研究所拒绝透露他们是否对最近推出的新人工智能产品进行了安全测试;特别是OpenAI的GPT-4o和谷歌的Project Astra,两者都是我至今见过的最强大和先进的生成式人工智能系统之一。同时,微软推出了一款包含人工智能硬件的新笔记本电脑 - 这标志着人工智能工具开始在我们的设备中实体嵌入。独立调查还指出,目前没有可靠的方法来准确理解为何人工智能工具生成它们的输出 - 即便是开发者之间都有这个困难 - 而作为评估员故意试图使人工智能工具失控的常规安全测试实践“红队”也缺乏最佳实践指南。在本周由英国和韩国联合主办的后续峰会上,这些公司已承诺如果产品未达到一定的安全水平,则将搁置 - 但这些标准将要等到2025年的下次聚会才能确定。

一些人担心,所有这些承诺和保证并不够。英国独立研究机构艾达·拉威斯研究院的副总监安德鲁·斯特雷特表示,“志愿协议本质上只是公司自行改考的手段。这实际上无法取代需要激励这些技术负责任发展的具有法律约束力和可执行性的规则。OpenAI刚刚公布了自己的10点安全流程,表示承诺遵守 - 但其一个高级安全专注工程师最近辞职,在X上写道,他的部门在内部一直“逆风而行。多年来,安全文化和流程一直被华丽产品搁置一边”,珍·莱克发帖说道。当然,在OpenAI还有其他团队继续专注安全和保障。然而目前,任何一个团队的实际操作都没有官方独立监督。英国一位杰出的计算机科学家温迪·霍尔教授表示,“我们无法保证这些公司是否遵守他们的承诺。我们如何追究他们说了什么的责任,就像我们在药物公司或其他高风险行业中做的那样?”我们还可能发现,这些强大的科技领导人一旦面临压力,自愿协议可能变得更具强制性。当英国政府表示希望有权暂停大型科技公司的安全功能的推出,如果有可能危及国家安全时,苹果威胁称将撤离英国,将其描述为立法者的“前所未有的过度干预。尽管立法通过,到目前为止,苹果仍在这里。欧盟的AI法案刚刚签署成为法律,它是迄今为止最严格的立法。对未遵守规定的公司有严厉的惩罚。但这给人工智能用户带来的法律责任却多于人工智能巨头们本身,Gartner公司的副总裁分析员纳德·赫宁称。我会说大多数(人工智能开发者)高估了法案对他们的影响,”他说。

任何使用人工智能工具的公司都必须将其分类和评分 - 并且提供人工智能的公司必须提供足够的信息供他们进行评分,他解释道。但这并不意味着他们可以不负责任。我们需要随着时间推移朝着法律规范发展,但我们不能仓促行事,”霍尔教授说。建立所有人签署的全球治理原则非常困难。我们还需要确保它真正是全球范围,并不仅仅是保护西方世界和中国。参加AI首尔峰会的人士表示它非常有用。有人表示它比Bletchley更“不那么花哨”,但更多讨论,一名与会者说。有趣的是,该活动的总结声明已得到27个国家的签署,但未得到中国的签署,尽管中国有代表在场。最终问题仍然如旧,规定和政策运作速度远低于创新。霍尔教授认为政府层面的“星辰正合。问题是科技巨头是否愿意等待它们。BBC InDepth是网站和应用程序上最佳分析和专家意见的新家园。在一种独特的新品牌下,我们将为您带来挑战假设的新视角,以及关于最重要问题的深度报道,帮助您理解复杂的世界。同时,我们还将展示来自BBC Sounds和iPlayer的发人深省的内容。我们从小处着手,胸怀大志,希望知道您的看法 - 您可以通过点击下面的按钮发送反馈。

科技的发展离不开道德的约束,人工智能的崛起让我们必须更加重视安全和伦理问题,否则我们可能会面临无法承受之重。" } ```

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://www.bbc.com/news/articles/cgrr70zm41mo https://globalnews.ca/news/10513968/scarlett-johansson-chatgpt-voice-openai-her/ https://www.metafilter.com/203818/Exactly-how-stupid-was-what-OpenAI-did-to-Scarlett-Johansson
更多阅读