给数据“投毒”:画师正在如何反击AI?
“龙葵”允许艺术家以肉眼不可见的方式改变作品中的像素。 Image: Pexels/Google Deepmind
- 芝加哥大学最新开发了“龙葵”数据投毒工具,通过在生成图像的人工智能程序使用的训练数据中引入误导或混淆的信息,破坏这些人工智能程序的学习过程。
- “龙葵”数据投毒工具或将成为艺术家的未来利器,帮助阻止人工智能在未经许可的情况下使用创作作品。
- 在世界经济论坛《2023年十大新兴技术报告》中,生成式人工智能位列10项2023年最有前途的新兴技术第二名。
在生物学意义上,龙葵(nightshade)一词常用来指代一种剧毒的植物。但最近,它被赋予了新的含义。芝加哥大学的计算机科学团队开发了一项名为“龙葵”的数据投毒工具,帮助艺术家反击未经授权使用其作品人工智能。这项发明发表于该团队的最新论文“文本到图像生成模型的快速特异性投毒攻击”中。
什么是“龙葵”?
“龙葵”数据投毒工具允许艺术家改变作品中的像素。这种改变非常细微精巧,肉眼无法甄别。在这种情况下,人工智能程序会受到误导,从而以与人类解读不一致的方式理解图像。
《麻省理工科技评论》在介绍“龙葵”数据投毒工具的文章中解释称:“(这种改变)可能会使狗变成猫,汽车变成牛。类似变化不胜枚举。”
学术界中将这种方法定义为“数据投毒”,能破坏生成式人工智能工具的性能,使它们产生不受欢迎或不准确的输出,从而让生成的图像偏离用户需求。
报道补充说,人工智能工具通常会从高达数十亿张的在线图像中提取数据,因此,在这种巨大的数据背景之下,“龙葵”数据投毒工具的使用频次越高,人工智能中毒的可能性也越高。
为什么要开发“龙葵”?
谈及开发“龙葵”数据投毒工具的缘起,项目负责人、芝加哥大学的计算机科学教授赵燕斌(Ben Zhao)表示,人工智能企业常在未经许可的情况下,罔顾艺术家的版权和知识产权,肆意使用艺术家的作品来训练自己的图像生成工具。
他希望“龙葵”数据投毒工具能够帮助制裁人工智能企业这种不尊重艺术家版权和知识产权的行为,使权力天平重新往艺术家的方向倾斜。
人工智能企业这种不尊重艺术家版权和知识产权的行为或已屡见不鲜。科技新闻网站VentureBeat报道显示,艺术家、表演家和唱片公司已对多家人工智能企业提起诉讼,理由便是这些公司在未经许可的情况下,就使用艺术家的作品来训练自己的人工智能工具。开发了ChatGPT的OpenAI正在被诉之列。
“龙葵”将如何影响人工智能产业?
《麻省理工学院科技评论》评论文章的撰稿人同时表示,通过破坏或影响生成图像的人工智能程序的行为,“龙葵”可能会成为一项重要举措,推动人工智能企业采取支付版权等行为,更加尊重艺术家的创作权利和版权,从而产生重要的社会和行业影响。
诚然,艺术家在目前的人工智能开发中拥有一定的话语权。比如某些人工智能企业已经建立了系统或流程,使艺术家能够决定他们的作品是否可以包含在模型的训练数据中。然而,即使艺术家不允许使用,人工智能企业依旧对艺术内容的使用仍保留着相当大的影响力。目前,艺术家的话语权还远远不够。
生成式人工智能:全球性的新兴技术
围绕未来三到五年内有望对社会产生积极影响的技术,世界经济论坛发布了《2023年十大新兴技术报告》。报告列出了10项2023年最有前途的新兴技术,生成式人工智能在其中位列第二。
报告指出:“虽然生成式人工智能目前的主要应用专注于生成文本、计算机编程、图像和声音等领域,但这项技术潜力无限,在药物设计、建筑和工程等多样领域或都能施展才能。”
然而,随着生成式人工智能越来越多地融入人们日常生活的多个方面,报告同时强调,应用程序应符合符合约定的专业和道德标准,从而建立起公众信任。
本文作者:
Victoria Masterson,论坛议程资深撰稿人
本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。
翻译:吴逸萌
编辑:江颂贤
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。
实时追踪:
生成式人工智能
分享:
每周 议程
每周为您呈现推动全球议程的紧要问题(英文)