Source: Slashdot
根据The Conversation的报道,一些文本到图像生成器“已经通过无节制地刮取在线图像进行训练”,其中许多图像可能具有版权。为了支持个体艺术家,研究人员最近创建了一款名为‘Nightshade’的工具来对抗未经授权的图像刮取。该工具通过微妙地改变图像的像素,在对计算机视觉造成严重破坏的同时,对人类视觉不产生影响。这可能导致算法错误地学会将图像分类为人类明显知道为不准确的事物。结果,生成器可能开始返回不可预测和意想不到的结果…[气球可能变成一个鸡蛋。
要求以莫奈的风格生成图像,却可能返回皮卡索式的图像]这些模型还可以向图像中引入其他奇怪和不合逻辑的特征,例如六条腿的狗或畸形的沙发。训练数据中[“毒害”的图像数量越多,造成的破坏就越大。由于生成型AI的工作方式,“毒害”的图像也影响相关提示关键词。例如,如果在训练数据中使用了一张关于法拉利的“毒害”图像,那么其他汽车品牌以及与汽车相关的其他术语,如车辆和汽车,的提示结果也可能受到影响。Nightshade的开发者希望该工具能够使大型科技公司更尊重版权,但用户也可能滥用该工具,故意上传“毒害”图像来干扰其服务... [技术修复]包括使用“集成建模”,在许多不同的数据子集上训练不同的模型,并进行比较以找出特定的异常值。
这种方法不仅可以用于训练,还可以用于检测和丢弃可疑的“毒害”图像。审计是另一个选择。一种审计方法是开发一个“测试数据库”——一个小巧、高度策划和标记良好的数据集,使用“保留”数据,这些数据永远不用于训练。然后可以使用该数据集来检验模型的准确性。
文章还指出,最明显的修复方法是“更加关注输入数据的来源和用途。这样做将导致更少的无差别数据收集。这种方法挑战了计算机科学家之间的一种普遍观念:在线找到的数据可以用于任何他们认为合适的目的。。
人工智能和艺术创作的碰撞,可以引发许多想象力的火花,也让我们反思数据使用和版权的重要性。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://slashdot.org/story/23/12/18/0053244/how-artists-are-sabotaging-ai-to-take-revenge-on-image-generators?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://theconversation.com/data-poisoning-how-artists-are-sabotaging-ai-to-take-revenge-on-image-generators-219335
https://www.theatlantic.com/technology/archive/2023/10/openai-dall-e-3-artists-work/675519/