艺术家可以使用数据中毒工具来迷惑DALLE并破坏AI抓取

导读 一种名为Nightshade的新工具允许用户将其附加到他们的创意作品中,并且它会破坏(或毒害)使用该艺术的训练数据。最终,它可能会毁掉DALL-E、

一种名为Nightshade的新工具允许用户将其附加到他们的创意作品中,并且它会破坏(或毒害)使用该艺术的训练数据。最终,它可能会毁掉DALL-E、StableDiffusion和Midjourney等人工智能艺术平台的未来模型,从而消除其创建图像的能力。

Nightshade为数字艺术作品中的像素添加了无形的变化。当模型摄取该工作进行训练时,“毒药”会利用一个安全漏洞来迷惑模型,因此它不再将汽车的图像读取为汽车,而是显示出一头牛。

《麻省理工科技评论》报道称,芝加哥大学教授、Nightshade的创始人之一BenZhao希望扭转那些利用受版权保护的数据来训练模型的人工智能公司的天平。Nightshade研究论文称,文本到图像人工智能模型中使用的训练数据很容易受到该工具发起的攻击类型的影响。

“令人惊讶的是,我们发现适量的Nightshade攻击可以破坏文本到图像生成模型中一般特征的稳定性,从而有效地禁用其生成有意义图像的能力,”该论文表示。

那些有足够报复心走这条路的艺术家可以将他们的作品上传到Glaze中,这是Nightshade的创作者制作的一个工具,可以掩盖他们的艺术风格,例如,将通常写实的绘画变成立体派的东西。Nightshade将集成到Glaze中,让用户选择是要使用毒丸还是满足于模型无法模仿他们的艺术风格。

Nightshade的创建者在其论文中提议,该工具和类似工具应被用作“内容创建者抵御不承认退出规则的网络抓取工具的最后一道防线”。

在缺乏监管的情况下,围绕人工智能生成的内容和训练数据的版权问题仍然是一个灰色地带。许多针对版权侵权的诉讼仍在法庭审理中。与此同时,防止网络爬虫未经许可获取数据的方法仅限于阻止爬虫的访问。Adobe等公司计划使用标记来标记某些内容是否是人工智能生成的,同时也显示谁拥有该图像。

针对生成式人工智能平台的一些首批诉讼集中于受版权保护的材料,这些材料正在成为模型的训练数据,尤其是通过文本到图像平台。一月份,三名艺术家起诉了StableDiffusion、Midjourney和艺术网站DeviantArt,指控其模特未经许可盗用了他们的艺术作品。GettyImages在构建自己的人工智能图像生成器(对其许可图像进行训练)之前,还对StableDiffusion提起了诉讼。

谷歌和微软表示,如果一些客户在使用其生成式人工智能产品时因侵犯版权而被起诉,他们愿意承担法律责任。然而,这些产品大多数都是基于文本的。