Es comprensible que a los artistas les preocupe la posibilidad de que los generadores automáticos de imágenes como Stable Diffusion reduzcan el mercado de su trabajo. Vivimos en una sociedad que no apoya a las personas que se quedan sin trabajo por culpa de la automatización, y ser artista visual es una carrera ya de por sí precaria.
En este contexto, es natural recurrir a la ley de derechos de autor, porque se supone que los derechos de autor ayudan a garantizar que los artistas cobren por su trabajo. Por desgracia, una teoría de los derechos de autor presentada en una demanda colectiva por algunos artistas contra Stable Diffusion es extremadamente peligrosa para los creadores humanos. Otras teorías -tanto en esa demanda como en otra interpuesta por Getty Images- proponen alterar y ampliar las restricciones de los derechos de autor de forma que interfieran con la investigación, los motores de búsqueda y la capacidad de hacer que la nueva tecnología interactúe con la antigua.
Este análisis jurídico es un complemento de nuestro artículo sobre la tecnología de generación de imágenes por IA y los riesgos y ventajas que consideramos que puede entrañar. Le sugerimos que lea primero ese artículo para conocer el contexto y, a continuación, vuelva a este para conocer nuestra opinión sobre cómo se resuelven las cuestiones de derechos de autor en la legislación estadounidense.
Se supone que la legislación sobre derechos de autor establece un equilibrio entre dar a los artistas un incentivo suficiente para crear, otorgándoles el control de algunas de las formas en que puede utilizarse su arte, y dar al público el derecho a basarse en ese arte y/o utilizarlo de formas nuevas e interesantes. En este caso, la cuestión es si quienes poseen los derechos de autor de las imágenes utilizadas para entrenar el modelo generador de IA tienen derecho a prohibir este tipo de uso.
Para responder a esta pregunta, empecemos por algunos principios básicos.
En primer lugar, la ley de derechos de autor no le impide hacer observaciones fácticas sobre una obra o copiar los hechos plasmados en una obra (esto se denomina "distinción idea/expresión"). En cambio, los derechos de autor le prohíben copiar la expresión creativa de la obra de forma que pueda sustituir al original, y hacer "obras derivadas" cuando esas obras copian demasiada expresión creativa del original.
En segundo lugar, incluso si una persona hace una copia o una obra derivada, el uso no es infractor si es un "uso justo". Que un uso sea legítimo depende de una serie de factores, como la finalidad del uso, la naturaleza de la obra original, la cantidad utilizada y el posible perjuicio para el mercado de la obra original.
Derechos de autor y datos de entrenamiento
He aquí cómo se aplicaría el uso justo a la generación de arte por IA:
Paso 1: Recopilación de imágenes de la Web
Al igual que la copia para crear motores de búsqueda u otros usos analíticos, es muy probable que la descarga de imágenes para analizarlas e indexarlas con el fin de crear nuevas imágenes no infractoras constituya un uso legítimo. Cuando un acto implica potencialmente derechos de autor pero es un paso necesario para permitir usos no infractores, con frecuencia se califica como uso legítimo en sí mismo. Después de todo, el derecho a hacer un uso no infractor de una obra sólo tiene sentido si también se le permite realizar los pasos que conducen a ese uso. Por lo tanto, como uso intermedio y analítico, no es probable que el scraping infrinja la ley de derechos de autor.
Paso 2: Almacenamiento de información sobre las imágenes
En este paso, el sistema analiza las imágenes y almacena información sobre la correlación entre la disposición de los píxeles y las palabras de las anotaciones de texto.
El modelo de difusión estable realiza cuatro gigabytes de observaciones relativas a más de cinco mil millones de imágenes. Eso significa que su modelo contiene menos de un byte de información por imagen analizada (un byte son solo ocho bits: un cero o un uno).
La queja contra Stable Diffusion caracteriza esto como "comprimir" (y por tanto almacenar) las imágenes de entrenamiento, pero eso es simplemente erróneo. Con pocas excepciones, no hay forma de recrear las imágenes utilizadas en el modelo basándose en los datos sobre ellas que se almacenan. Incluso el archivo de imagen más pequeño contiene muchos miles de bytes; la mayoría incluirá millones. Matemáticamente hablando, Stable Diffusion no puede almacenar copias de todas sus imágenes de entrenamiento (por ahora, pongamos un pero a la cuestión de si almacena una copia de alguna de ellas).
Así que el modelo no está almacenando copias. Pero, ¿está generando y almacenando obras derivadas infractoras de todas las imágenes de los datos de entrenamiento?
Probablemente no, al menos por tres razones:
En primer lugar, una obra derivada tiene que ser "sustancialmente similar" al original para que constituya una infracción. Si el original se transforma, abrevia o adapta hasta tal punto que esto ya no es cierto, entonces no es una obra derivada. Un resumen de 10 líneas de una epopeya de 15.000 líneas no es una obra derivada, como tampoco lo son la mayoría de los resúmenes de libros que la gente hace para describir a otras personas esas obras protegidas por derechos de autor.
En segundo lugar, los derechos de autor no conceden el monopolio sobre los tropos y motivos de un género o tema, incluidos los elementos expresivos como las líneas onduladas para denotar temblores, dar a los animales expresiones faciales más humanas y otras opciones comunes similares, aunque sean creativas. Es más, los derechos de autor no se aplican en absoluto a opciones no creativas, como representar a un gato con cuatro patas y cola. Gran parte de la información almacenada y producida por un generador de arte de IA entra en estas categorías.
En tercer lugar, la cantidad de expresión susceptible de derechos de autor tomada de cada imagen original en el conjunto de entrenamiento podría considerarse "de minimis", un término legal que significa "demasiado mínima para calificarla de infractora".
Incluso si un tribunal llega a la conclusión de que un modelo es una obra derivada en virtud de la ley de derechos de autor, la creación del modelo es probablemente un uso legítimo. El uso legítimo protege la ingeniería inversa, la indexación para motores de búsqueda y otras formas de análisis que crean nuevos conocimientos sobre obras o conjuntos de obras. En este caso, el hecho de que el modelo se utilice para crear nuevas obras pesa a favor del uso legítimo, al igual que el hecho de que el modelo consista en un análisis original de las imágenes de entrenamiento comparadas entre sí.
La demanda colectiva contra Stable Diffusion no se centra en los "resultados" (las imágenes reales que el modelo produce en respuesta a la introducción de texto). En su lugar, los artistas alegan que el propio sistema es una obra derivada. Pero, como ya se ha dicho, no es más ilegal que el modelo aprenda un estilo a partir de una obra existente que el hecho de que los artistas humanos hagan lo mismo en una clase, o individualmente, para tomar algunas de las mismas decisiones creativas que los artistas que admiran.
Además, los sistemas de IA aprenden a imitar un estilo no sólo a partir de la obra de un único artista, sino también de otras creaciones humanas etiquetadas como "del estilo" de otro artista. Gran parte de la información que contribuye a la imitación del estilo por parte de la IA procede de imágenes de otros artistas que disfrutan de la libertad que les otorga la ley de derechos de autor para imitar un estilo sin que se considere una obra derivada.
Paso 3: Creación de imágenes de salida
A diferencia del caso Stable Diffusion, la demanda de Getty Images se centra en los resultados, alegando que los resultados son a veces "sustancialmente similares" a los datos de entrenamiento. Getty no proporciona ningún ejemplo de ello, aparte de la presencia de su marca de agua en algunos resultados de Stable Diffusion.
No es sorprendente que las denuncias no incluyan ejemplos de imágenes sustancialmente similares. Las investigaciones sobre la privacidad sugieren que es poco probable que un modelo basado en la difusión produzca resultados muy parecidos a uno de los datos de entrada.
Según esta investigación, hay una pequeña posibilidad de que un modelo de difusión almacene información que permita recrear algo parecido a una imagen de sus datos de entrenamiento, siempre que la imagen en cuestión se duplique muchas veces durante el entrenamiento. Pero las posibilidades de que una imagen del conjunto de datos de entrenamiento se duplique en la salida, incluso a partir de un indicador diseñado específicamente para hacer precisamente eso, es literalmente inferior a una entre un millón.
Esto significa que existe, como mucho, un puñado de titulares de derechos que podrían reclamar derechos de autor. Hasta ahora, ninguna de las demandas sugiere que los demandantes pertenezcan a esa categoría.
Por supuesto, los estándares estadísticos utilizados en esta investigación no son los mismos que los estándares legales utilizados en la ley de derechos de autor, pero no obstante podemos tomarlos como informativos, y son coherentes con la diminuta cantidad de datos por imagen que almacena el modelo de difusión.
En resumen: un modelo de difusión puede, en raras circunstancias, generar imágenes que se parezcan a elementos de los datos de entrenamiento. La desduplicación puede reducir sustancialmente el riesgo de que esto ocurra. Pero la demanda más contundente contra un generador de arte basado en la IA por difusión sería probablemente la interpuesta por el titular de los derechos de autor de una imagen que posteriormente se reprodujera de este modo.
Como ocurre con la mayoría de las herramientas creativas, es posible que un usuario sea el que provoque que el sistema produzca una nueva obra infractora dándole una serie de indicaciones que lo orienten hacia la reproducción de otra obra. En este caso, el usuario, y no el fabricante o proveedor de la herramienta, sería responsable de la infracción.
¿Qué significaría para el arte que el Tribunal declare que la difusión estable infringe los derechos de autor?
La teoría de la demanda colectiva es extremadamente peligrosa para los artistas. Si los demandantes convencen al tribunal de que has creado una obra derivada si incorporas cualquier aspecto del arte de otra persona en tu propia obra, aunque el resultado final no sea sustancialmente similar, entonces algo tan común como copiar la forma en que tu artista favorito dibuja los ojos podría ponerte en peligro legal.
En la actualidad, la legislación sobre derechos de autor protege a los artistas influidos por colegas y mentores y por los medios de comunicación que admiran, permitiéndoles imitar elementos de obras ajenas siempre que su arte no sea "sustancialmente similar" y/o constituya un uso legítimo. Así pues, las mismas doctrinas jurídicas que dan a los artistas un respiro para inspirarse en las obras de otros también protegen los modelos de difusión. Reescribir esas doctrinas podría causar un daño mucho mayor que el que está causando la difusión estable.
En nuestra entrada de blog complementaria, exploramos algunas de las demás consecuencias. En particular, analizamos quién se beneficiaría probablemente de un régimen de este tipo (spoiler: no son los creadores individuales). También analizamos algunos enfoques alternativos que podrían ayudar realmente a los creadores.
Si se hace bien, se supone que la ley de derechos de autor fomenta la creatividad. Extenderla para ilegalizar herramientas como los generadores de imágenes por IA -o para ponerlas en manos exclusivas de poderosos agentes económicos que ya utilizan esa fuerza económica para exprimir a los creadores- tendría el efecto contrario.