Los casos legales relacionados con la IA generativa están ganando velocidad, con dos recientes opiniones judiciales sobre un asunto que definirá el futuro de esta tecnología: si el entrenamiento de modelos de IA con obras protegidas por derechos de autor constituye un uso legítimo. Una de ellas acierta de pleno; la otra no tanto, pero afortunadamente, de un modo que los tribunales futuros pueden —y deberían— ignorar.
El núcleo del debate en ambos casos era si el uso de obras con derechos de autor para entrenar modelos de lenguaje grande (LLM, por sus siglas en inglés) empleados en chatbots de IA califica como uso legítimo. Según la Ley de Derechos de Autor de EE.UU., para resolver esta cuestión los tribunales deben evaluar:
- si el uso fue transformador;
- la naturaleza de las obras (¿son más creativas que fácticas? ¿Se publicaron hace mucho tiempo?);
- qué parte del original se utilizó; y
- el perjuicio para el mercado de la obra original.
En ambos casos, los jueces se centraron en los factores (1) y (4).
El enfoque correcto
En Bartz contra Anthropic, tres autores demandaron a Anthropic por utilizar sus libros para entrenar a su chatbot Claude. En su fallo sobre parte del caso, el juez William Alsup confirmó lo que la EFF lleva diciendo desde hace años: el uso legítimo protege el uso de obras protegidas por derechos de autor para la formación porque, entre otras cosas, la formación de la IA genérica es «transformadora, de forma espectacular», y cualquier supuesto perjuicio para el mercado de la obra original es pura especulación. Al igual que es lícito copiar libros o imágenes para crear motores de búsqueda, el tribunal dictaminó que copiar libros para crear un nuevo LLM «transformador» y tecnologías relacionadas también está protegido:
El uso de obras protegidas por derechos de autor para entrenar LLM con el fin de generar nuevos textos era esencialmente transformador. Al igual que cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron con obras no para adelantarse y replicarlas o suplantarlas, sino para dar un giro radical y crear algo diferente. Si este proceso de entrenamiento requería razonablemente la realización de copias dentro del LLM o de otro tipo, dichas copias se utilizaban con fines transformadores.
Es importante destacar que Bartz rechazó los intentos de los titulares de los derechos de autor de alegar que cualquier modelo capaz de generar nuevo material escrito que pudiera competir con obras existentes al emular sus «temas generales», «puntos sustantivos» o «gramática, composición y estilo» era una máquina de infringir derechos. Como reconoció acertadamente el tribunal, la creación de modelos de IA genérica que crean nuevas obras va más allá de «cualquier cosa que cualquier titular de derechos de autor pueda esperar controlar legítimamente».
Hay mucho más que destacar de la sentencia Bartz, pero justo cuando la estábamos asimilando, se publicó Kadrey contra Meta Platforms. Lamentablemente, esta decisión estropea el análisis del uso legítimo.
Un tropiezo en el uso legítimo
Kadrey es otra demanda de autores contra el desarrollador de un modelo de IA, en este caso el chatbot «Llama» de Meta. Los autores de Kadrey pidieron al tribunal que dictaminara que no se aplicaba el uso legítimo.
Gran parte de la sentencia Kadrey del juez Vince Chhabria es dicta, lo que significa que la opinión dedica muchos párrafos a lo que cree que podría justificar una sentencia a favor de los autores demandantes, si hubieran logrado presentar hechos diferentes (en lugar de meras especulaciones). A continuación, el tribunal falla a favor de Meta porque los demandantes solo ofrecieron especulaciones.
Sin embargo, comete una serie de errores en su camino hacia la conclusión correcta. En primer lugar, la sentencia proclama de manera general que entrenar a la IA sin adquirir una licencia para utilizar todos y cada uno de los materiales de entrenamiento protegidos por derechos de autor será «ilegal» en «la mayoría de los casos».
El tribunal afirmó que el uso legítimo no suele aplicarse a los usos de entrenamiento de IA, aunque el entrenamiento sea un proceso «altamente transformador», debido a hipótesis de «dilución del mercado» en las que la competencia de las obras generadas por IA podría reducir el valor de los libros utilizados para entrenar el modelo de IA. Esa teoría, a su vez, se basa en tres premisas erróneas. En primer lugar, que el factor más importante para determinar el uso legítimo es si el uso podría causar un perjuicio al mercado. Eso no es correcto.
Desde su trascendental dictamen de 1994 en el caso Cambell contra Acuff-Rose, el Tribunal Supremo ha dejado muy claro que ningún factor por sí solo determina el análisis del uso legítimo.
En segundo lugar, que un desarrollador de IA normalmente trataría de entrenar un modelo basándose exclusivamente en un determinado tipo de obra y, a continuación, utilizaría ese modelo para generar nuevas obras del mismo género, que competirían con las obras con las que se entrenó, de modo que se perjudicaría el mercado de las obras originales. Como señala la sentencia Kadrey, no había pruebas de que Llama tuviera la intención de hacer nada parecido, ni de que lo hiciera, ni tampoco lo harán la mayoría de los LLM por las razones exactas expuestas en Bartz.
En tercer lugar, desde el punto de vista jurídico, los derechos de autor no impiden la «dilución del mercado» a menos que las nuevas obras infrinjan la ley. De hecho, el objetivo del derecho de autor es ser un motor para nuevas expresiones. Si esas nuevas expresiones compiten con obras existentes, eso es una característica, no un defecto.
La IA generativa está provocando el tipo de pánico tecnológico que hemos visto antes; entonces, como ahora, las opiniones sobre el uso justo ayudaron a garantizar que la ley de derechos de autor sirviera a la innovación y la creatividad. La IA generativa plantea otras cuestiones graves relacionadas con las prácticas laborales justas y la desinformación, pero la ley de derechos de autor no se diseñó para abordar esos problemas. Intentar forzar a la ley de derechos de autor a desempeñar esas funciones solo perjudica los usos importantes y legales de esta tecnología.
En consonancia con esa tradición, los tribunales que decidan sobre el uso justo en otros casos de derechos de autor relacionados con la IA deberían basarse en Bartz, no en Kadrey.