当前位置:首页 > 经验分享 > 正文

这个工具可以欺骗图像生成AI

  

  

  美国研究人员开发了一种工具,能够“愚弄”目前用于自动图像生成的人工智能模型。这个想法是为了帮助艺术家防止他们的作品被人工智能刮掉。

  这个名为Nightshade的工具旨在让艺术家无形地改变代表他们作品的像素,以破坏人工智能模型,这些模型在学习过程中容易未经授权使用这些图像。

  它的创造者甚至将其描述为这些模型真正潜在的“毒丸”,如果这种活动变得普遍,严重的故障可能会影响训练数据,甚至使它们无法使用。

  这里提到的模型是Midjourney和DALL-E等最著名的图像生成人工智能所基于的模型。在实践中,这些图像将不再被正确解释,狗被误认为是猫,房子被误认为是蛋糕等等。

  这个工具是由芝加哥大学的一组研究人员开发的,旨在解决许多艺术家的担忧,他们发现自己的实践被人工智能打乱了,他们的作品已经被用作人工智能生成图像的“模型”。因此,我们的想法是反击这些艺术家的版权和知识产权的侵犯。

  如果该工具被推出,它将加入由同一研究人员开发的另一种解决方案Glaze,该解决方案允许对图像进行操作,使其不会被人工智能训练过的模型选中。

  当然,只有当这些模型无法检测、识别和解码这些操纵时,这些工具才会有效。当人工智能强大到足以超越它们时,就需要找到其他解决方案——否则就有可能看到艺术家的原创作品成为学习模型和人工智能生成行业的素材。-法新社新闻

有话要说...