Source: Slashdot
自始于生成式人工智能繁荣以来,内容创作者一直辩称他们的作品已被不经许可地用于AI模型。但迄今为止,很难知道特定文本是否被用于训练数据集。
现在他们有了一种新方法证明:由伦敦帝国学院团队开发的'版权陷阱',即隐藏文本片段,让作家和出版商巧妙地标注自己的作品,以便之后检测是否用于AI模型中。这一想法类似于版权所有者历史上使用过的陷阱策略,如在地图上包含虚假位置或词典中的假词。
生成和检测陷阱的代码目前已在GitHub上提供,但该团队还打算开发一个工具,让人们自行生成和插入版权陷阱。伦敦帝国学院应用数学和计算机科学副教授伊夫-亚历山大·德蒙扎说,陷阱并非绝对可靠,会被移除,但增加陷阱数量会使其更具挑战性和耗费更多资源。
他表示:“他们是否能清除所有陷阱尚是个悬而未决的问题,这可能是一场猫鼠游戏。。
在AI时代,如何保护创作者的版权并维护透明度,是人工智能发展中亟待解决的问题。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://tech.slashdot.org/story/24/07/27/0020221/copyright-traps-could-tell-writers-if-an-ai-has-scraped-their-work?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://getcoai.com/news/copyright-traps-helps-creators-detect-ai-training-on-their-work/
https://tagteam.harvard.edu/hub_feeds/119/feed_items/12092138