当任何有奇思妙想和互联网连接的人都可以访问计算机生成的图像时,“人工智能艺术”的创作也引发了质疑和诉讼。 关键问题似乎是 1)它实际上是如何工作的,2)它可以取代什么工作,以及 3)艺术家的劳动如何能在这种变化下得到相应的尊重?
人工智能的诉讼在很大程度上与版权有关。 这些版权问题非常复杂,我们专门用另外一篇的文章来单独讨论它们。此文将专注于更棘手的非法律问题。
AI艺术生成器如何工作?
AI 艺术生成器的一声由两个不同的部分组成。 例如,首先是教它“狗”是什么,或者更抽象一点,“愤怒”是什么样子的数据。 接着是系统针对提示进行响应并输出。 早期,当生成器没有接受足够的训练时,这些输出只是松散地反映了提示。但最终,生成器将看到足够多的图像来弄清楚如何正确进行响应(这也是人类的做法)。 AI 生成的创意内容可以涵盖从“根据我在发烧梦中看到的图像提示”到“写得非常糟糕的博客文章”。
AI艺术生成器如何“学习”?
AI艺术生成器依赖于“机器学习”。 在机器学习过程中,训练算法接收大量数据并分析其不同方面之间的关系。 AI艺术生成有赖于通过接受图像和描述这些图像的文本进行训练。
在分析了图像数据的特征与文本之间的关系后,生成器就可以使用这组关联来生成新图像。 这就是它如何能够接受文本输入——一个“提示”——比如“狗”,并根据其训练数据生成(即“输出”)与输入文本相关联的像素排列。
这些“输出”的性质取决于系统的训练数据、训练模型以及系统的人类创造者所做的选择。
例如:通过提供带有与公共网页上的图像接近的文本标记的图像来训练模型,效果不如使用带有明确的、人工生成的标签的手动注释图像进行训练。
此过程与婴儿学习事物的过程没有太大区别。 例如,很多孩子起初会将所有的动物都认成“小狗”,直到他们有足够的接触和成人的纠正来区分“小狗”和“马”。 面对那些对人类来说都属于模糊的联系,机器学习当然也会犯类似的错误。 例如,如果图像包含标尺,则癌症分类器可以“学习”该图像显示肿瘤。 AI 学会了一条捷径:放射科医生确定为癌性肿瘤的结构图像上有标尺,用于缩放和跟踪尺寸。 良性增生的训练图像来自不同的集合,它们没有标尺。
除了训练数据质量带来的影响,还有不同训练“模型”的影响。 这些模型的名称类似于“扩散”或“生成对抗网络”(GAN)。这些模型中的每一个都有不同的优点和缺点(在撰写本文时,扩散模型通常被认为是最先进的)。
在模型训练期间,程序员引入变量来确定模型输出与其训练数据中图像的相似性。 其他变量决定了系统是优先为提示创建紧密匹配,还是通过输出模型具有较低“信心”(一种用于描述统计确定性的数学术语)作为用户提示匹配的图像来更具实验性。 一些模型允许用户在向模型输入提示的同时调整这些变量。
训练数据来自何方?
通常,训练数据来自网络抓取:找到含有关联文本的可用图像(在某些情况下,随后会增添注释)。 这意味着图像的创作者或图像中描绘的人可能并不知道或明确同意将版权图像纳入分析。 对于最近涉及两场诉讼的“Stable Diffusion”系统——一起由代表几位视觉艺术家的集体诉讼和另一起由 Getty Images 提起的诉讼——其数据集由非营利组织 LAION 索引的 50 亿张图像组成。
有关与这些训练集相关的版权问题的分析,请参阅我们的其他博客。
工作替代与AI
许多艺术家担心AI可以进行艺术创作将蚕食他们作品的市场。 这是一个合理的担忧:艺术家提供的某些服务的确可能会被 AI 生成器取代。 这在以前发生过,例如转录:机器学习系统取代了一些人类转录员。 然而,这些自动化系统产生的输出质量普遍较低。任何看过自动生成的隐藏式字幕的人都可以证明这一点。
事实上,自动化劳动力带来的问题可以追溯到几个世纪前:雇主可以完全拥有的自动化的劳动力替代品,或者比支付工人工资更便宜的替代品,都将导致更多人事业。 在理想的世界中,自动化将被用来让人们自由地追求他们关心的事情。但这不是我们生活的世界(至少目前不是),因此工人自然担心自动化会降低他们工资,甚至将他们赶出工厂。
关于 AI 艺术的争论不仅限于对自动化的普遍担忧,以及社会对因自动化而失业的人缺乏支持; 这也有关AI艺术生成是否尤其的不公平,因为它的大部分训练数据都包含未经许可使用的受版权保护的图像。 我们将在另一篇文章中讨论这个问题。
除了劳动力市场和公平问题之外,AI艺术切实存在其他风险。比如,它将使一些公司对未来的创造力拥有更多的控制权。 大多数接触艺术的途径已经被少数人控制。这些人对艺术家的生计毫不关心,也没有冒险的意愿。
例如,针对AI艺术生成的诉讼之一的原告Getty Images,它垄断了股票和活动图像市场。 大多数新闻机构都使用Getty,因为几乎可以肯定,Getty 将拥有某篇文章的主题站在红地毯上的图像。 如果没有 Getty,媒体公司将不得不要么派一名摄影师参加每个活动,要么弄清楚哪些自由摄影师出席了活动并尝试许可他们的图像。 作为一家垄断企业,Getty既削弱了独立摄影师的实力,又挖空了新闻机构。
在该诉讼中,Getty引用了一张AI生成的图像,该图像含有其水印的扭曲版本。 Getty 声称这证明其受版权保护的材料可以在艺术生成器的输出中找到。但事实是图像生成器已经“习得”所有红地毯的图像都包含 Getty 水印,因此它会绘制水印使其作品也变成看起来“像Getty的图像一样”。 换言之,Getty对这种新闻摄影的封锁如此之大,以至于当系统对所有具有新闻价值的名人照片进行统计分析时,都会得出Getty与那种摄影密不可分的结论。 Getty水印之于名人形象有如尺子之于肿瘤。
任由企业控制 AI 将摧毁我们的创意世界
目前,AI 艺术生成器有免费的开源模型,任何人都可以以创新的方式对它们进行调整并利用它们进行创新。 但如果法律环境或技术发生变化,以至于只有少数大公司可以制作或使用 AI 艺术模型,这将使我们的创意世界趋向于同质化和无趣化。
例如,扩散模型的大型商业部署已经封锁了对裸体图像的查询。裸露图像本身当然不是有害、非法或不道德的,且其在艺术表达方面有着悠久的历史。 对“成人”主题的严厉限制对那些被错误标记为淫秽、本质上是性的或“仅限成人”(包括酷儿)的人尤其严厉。这将把他们从这些工具生成的世界中抹去。
AI艺术生成器存在的偏见不一定由明确的、积极的审查制度所导致; 偏见也可能来自训练数据的偏差。 例如,AI 艺术工具可能会默认生成白人图像,从而加剧种族不平等;又或者为了响应对“美丽”人物的要求而倾向于使皮肤更白。 女性形象比处于相似着装和活动状态的男性形象更有可能被编码为与性有关,因为在图像及其附带文本中普遍存在物化女性的文化。 AI艺术生成器可以“习得”不公正以及训练数据所依据的时代和文化的所有偏见。 AI艺术生成器有时会产出令人惊讶的新奇事物,但它们依旧偏爱过去的价值观和美学。 系统模型倾向于一遍又一遍地重新创造它们所看到的东西,使它们的输出趋向于平均和典型。这以牺牲少数人的审美和身份认同为代价。
另一件需要注意的事情:AI 艺术生成器可能依赖并泄露私人信息。 想象一下,要求 AI 艺术生成器生成与医疗状况相关的图像并在输出中包括一个可识别的人(如果模型没有针对与该状况相关的许多图像进行训练,则可能会发生这种情况)。
最后,就像“深度造假”的情况一样,人们可以使用机器学习生成欺骗性图像,描绘真实的人在做他们从未做过的事情。这些图像会使人蒙羞或造成诽谤,又或者以其他方式损害他人的社会和经济生活。
然而,当这些图像当它们没有被伪造成真实事件时,它们也可以用于重要的社会评论,或者简单地作为艺术。 例如,如果当我们看到政治家点燃宪法的图像时,我们明白他们并没有真正烧毁文件——相反,该图像的创造者正在评论政治家的政策。
在这种情况下,每种用途都应根据其自身的优点来进行评估,而不是简单地禁止既有正面用途又有负面用途的技术。 与照片处理一样,重要的是我们要学会如何确定什么是真实的。 例如,恶搞照片的处理夸大了剪辑后的感觉,这既是恶搞的一部分,也是为了突出笑点。
如果 AI 创造者需要权利人的许可,世界会是什么样子
要了解我们对版权的看法以及我们认为 AI 艺术生成器不太可能侵权的原因请参阅我们的其他博客。 出于本次讨论的目的,接下来请假设在未经许可的情况下无法利用受版权保护的信息训练 AI 模型。
要求使用 AI 生成器的人从每个对训练数据集中的图像拥有权利的人那里获得许可不太可能消除这种技术。 相反,它将把这种技术的发展限制在那些最大的公司手里,从而产生不利影响。这些大公司可以通过强迫其员工分配“培训权”作为就业或内容创建的条件来收集数据集。
对于AI艺术的反对者来说,这将是一场代价高昂的胜利:在短期内,AI工具将不复存在或产出质量较低下,从而降低压低创作者收入的可能性。
但从中长期来看,这种影响很可能是相反的。 创意劳动力市场将高度集中:少数公司(包括 Getty)每年从在职创作者那里抽取数百万件作品的佣金。 这些公司本就享有巨大的议价能力,这意味着他们可以让艺术家接受标准化的、不可谈判的条款。这些条款将赋予公司过多的控制权,却只提供微薄的报酬。
如果训练模型的权利取决于版权持有者的许可,那么这些非常大的公司可以通过简单地修改他们的样板合同来要求创作者主动放弃他们的模型训练权利作为开展业务的条件。 这就是雇用了大量配音演员的游戏公司正在做的事情。 它们要求配音演员在每个会话的录制开始前录下演员自己对
放弃任何用他们的声音来训练模型的权利。
如果像 Getty 这样的大公司赢得了模型训练的控制权,他们就可以简单地借此获得任何希望与他们做生意的创意工作者对模型的训练权。 由于 Getty 最大的单项支出就是它支付给创意工作者的费用——如果它可以使用模型来替代其工作者,它就不会欠这些费用——它有强大的动力去生产高质量的作品模型来取代那些人类工作者。
这将导致最糟糕的结果:如今垄断了创意劳动力市场的公司可以使用 AI 模型来取代他们的员工,而很少或从未有理由委托创意工作的个人将被禁止使用AI工具来表达创作。
这将让少数支付创意工作者插图的公司——比如控制几乎所有漫画书创作的双头垄断,或控制大多数角色扮演游戏的垄断者——要求插图画家签署放弃他们对模型进行训练的权力,并用模型代替他们的付费插画师。 大公司将不必向创作者付费——每周游戏章节上的 GM 将不能使用 AI 模型的视觉辅助来创建关键场景,孩子也不能使用文本提示制作自己的漫画书。
尊重艺术家的AI使用方式
美国西部作家协会正在重新谈判其最低费率基本协议。 该协议为如何在包括电影和电视在内的许多创意产业中向作家授信和支付报酬奠定了基础。协会的 AI 提案存在一些技术问题,反映出协会对该技术工作原理理解的不全面。但从劳动力的角度来看,该提案不失为一个关于 AI 生成输出的优秀提议。虽然它没有完全理解该技术的工作原理,但确实抓住了核心问题。
该协会的核心提议是:AI 生成的材料不能代替人类作家。 AI 生成的材料不能以任何方式作为改编的源材料。 AI 生成的作品可以用作研究材料,就像维基百科的文章一样,但由于进入其输出的来源的性质以及输出的生成方式不明确,在版权的世界里它没有作为“作者”的位置。 在协会看来,AI 输出不应受版权保护。
这意味着如果工作室想要使用 AI 生成的脚本,就不可能有作者署名,也没有版权。 在一个工作室小心翼翼地保护其作品权利的世界里,这就相当于砒霜。 这项提议迫使工作室在支付作家价值的前期成本与无法控制产品版权的后端成本之间做出选择。
这是一个专注于协会领域的明智策略:保护其成员。 即便如此,协会对技术概念得理解有点不全面:协会声称AI从其训练数据中创建了一个马赛,这并不准确;而且, AI 的输出并不像他们暗示的那样经常侵权。 但是尽管存在这些技术上的误解,协会将其视为一种工具的方式非常聪明(再一次提醒,戳这里看我们对 AI 艺术版权状况的分析)。
对于协会来说,AI 生成的作品在协会覆盖的作品中没有立足之地。 如果工作室制作了协议涵盖的内容,则必须聘请一名人类作家并支付协会的协商费率(或更多)。 AI材料不能被用来削弱这种劳动。 AI是帮助作家的工具,而不是作家的替代品。
这也是与艺术作品相关的所有技术应被看待的方式:作为一种艺术工具,而不是作为艺术家的替代品。 广泛禁止AI不会解决高度集中的市场中的不平等问题——但它可能会让我们失去使用这项技术进行创造性表达的光明前景。
AI艺术生成的光明前景
任何能让更多人以新的方式表达自己的发展都是激动人心的。 每一个会取代艺术家廉价劳动力的创作都对应着还有无数不会取代任何人生活的创作——那些由人们表达自己或将艺术添加到原本无法被描绘的项目中。 请记住:自动翻译技术的主要影响并不是取代翻译员——而是为更多人创造了免费和简单的方式来阅读其他语言的推文和网页。
当人们使用 AI 工具时,它会产生一种不同于人类艺术家自身所有的“创造力”,因为AI工具会发现人们以前没有做出的联想和想象。 AI 艺术生成器还可以通过其他方式帮助工作艺术家,例如,通过生成粗略的初稿或自动执行耗时的任务,例如为平面图像着色。在艺术层面上这等同于 WGA 提出的研究材料论证。
艺术生成器有很多值得人们喜欢的地方。 未来的问题是如何保留好的一面——研究人员可以审查的开源技术,帮助减少制作的繁琐部分——而不是让这些担忧给那些每天剥夺艺术家权力的公司提供动力。
This article has been translated by one of EFF's volunteer translators: Talia D.