• 微头条

    让本地生活更美好

打开APP

艺术家可能在版权局能发布指南之前'污染' AI 模型

2023-11-03 外星人S博士
艺术家可能在版权局能发布指南之前'污染' AI 模型

Source: Slashdot

一位匿名读者写道:艺术家们过去一年一直在与那些在未经允许和补偿的情况下,将 AI 图像生成器(包括令人印象深刻的逼真图像生成器 Midjourney 和超级复杂的 DALL-E 3)训练在他们的原创作品上的公司进行斗争。现在,美国承诺终于认真解决艺术家关于 AI 引发的版权问题,乔·拜登总统在他期待已久的关于 AI 的行政命令中表示,美国版权局在过去几个月通过在11月15日截止的意见征集期中已开始征集公众的 AI 关切。拜登的行政命令明确表示,随着这一意见征集期结束,版权局将公布其研究结果。然后,在该出版物发表之日起180天内或拜登行政命令之日起270天内“以较晚者为准”,版权局局长将商谈和拜登“就与版权和 AI 相关的潜在行政行动问题向总统提出建议。建议要处理美国版权局研究中讨论的任何版权和相关问题,包括使用 AI 制作的作品的保护范围和以 AI 训练中的受版权保护作品的处理方式”,拜登的命令说道。

这意味着,在接下来的六到九个月内(或更长时间内),艺术家们可能会对一些他们最大的法律问题获得答案,包括更清晰地了解如何保护他们的作品免受用于训练 AI 模型的使用。目前,艺术家们没有太多的选择来阻止 AI 图像生成器(根据用户的文本提示生成图像)引用他们的作品。甚至连 OpenAI 这样的公司,最近开始允许艺术家选择不将他们的作品包含在 AI 训练数据中,但只允许艺术家选择不包括在未来的训练数据中。[...] 根据大西洋杂志的报道,这个选择退出的过程(艺术家需要为每一件作品提交请求,这对于许多艺术家来说可能过于繁琐)使艺术家只能保护“从现在开始创建的新作品。大西洋杂志警告说,已经无法保护在2023年之前“已被机器占有”的任何作品。

显然,这个问题是明显影响了很多人的。一位发言人告诉大西洋杂志,Stability AI 已经收到了“超过1.6亿的选择退出请求。在联邦监管机构尚未弄清楚艺术家应该保留哪些权益的情况下,目前至少有一位艺术家——卡通画家和插画家 Sarah Andersen——对 Stable Diffusion 的制造商 Stability AI 提起了直接的版权侵权诉讼,后者是另一款令人惊叹的 AI 图像合成工具。安德森提出的集体诉讼可能会影响到所有艺术家,如果她想要“起诉”中的“推论”对法庭会推论她的投诉中关于某些特定的版权受保护的图像如何被 Stable Diffusion 使用或是 AI 结果如何独立生成作品中有“更强有力的论据”,她约有一个月的时间来修改她的投诉。

换句话说,在当前的版权法下,如果安德森未能向法庭展示哪些具体受版权保护的图像用于训练 AI 模型,并证明这些模型使用了这些具体图像生成足以与她的作品完全相似的艺术品,她很可能在她的法律战争中遇到困难。一位法律专家告诉 TechCrunch,举例有具体含义,因为认为 AI 工具模仿风格可能行不通——因为“风格几乎不可能用版权进行保护。安德森的律师告诉 Ars,她的案件“复杂”,但他们对她能够获胜抱有信心,可能因为正如其他专家告诉大西洋杂志的那样,她可能能够表明“生成式 AI 程序可以在其训练数据中保留大量关于图像的信息——有时甚至足以几乎完美地再现图像。但如果法院决定使用数据来训练 AI 模型是艺术家作品的合理使用,这个法律问题仍然不明确。

艺术家们通过法律来维护他们的权益,但在 AI 技术不断发展的情况下,现有的版权法律可能无法应对AI制作的作品,这引发了一系列纠纷和问题。

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://slashdot.org/story/23/11/03/2225220/artists-may-poison-ai-models-before-copyright-office-can-issue-guidance?utm_source=rss1.0mainlinkanon&utm_medium=feed https://news.ycombinator.com/item%3Fid%3D38133073 https://arstechnica.com/tech-policy/2023/11/artists-may-poison-ai-models-before-copyright-office-can-issue-guidance/
更多阅读