La ansiedad sobre la IA generativa está creciendo casi tan rápido como el uso de la propia tecnología, alimentada por la dramática retórica de figuras prominentes de la tecnología, el entretenimiento y la seguridad nacional. Sugieren que hay que hacer algo para evitar una serie de catástrofes, desde la muerte del artista hasta el nacimiento de nuevos señores robots.

Dado el tono a menudo hiperbólico, podría ser tentador (y correcto) descartar gran parte de esto como el pánico moral habitual que provocan las nuevas tecnologías, o como una exageración interesada. Pero hay preocupaciones legítimas que pueden requerir algunas normas de circulación. Pero los responsables políticos deberían responder a algunas preguntas importantes antes de elaborar o aprobar esas normas. Como siempre, el diablo está en los detalles, y la EFF está aquí para ayudarle a analizarlos e identificar estrategias sólidas y posibles daños colaterales.

En primer lugar, los responsables políticos deberían preguntarse si la nueva legislación es necesaria y está bien enfocada. La IA generativa es una categoría de herramientas de propósito general con muchos usos valiosos. Por cada imagen que desplaza un posible encargo de poco dinero para un artista en activo, hay innumerables más que no desplazan la vida de nadie: imágenes creadas por personas que se expresan o que añaden arte a proyectos que sencillamente no se habrían ilustrado. Recuerde: el principal impacto de la tecnología de traducción automática no fue el desplazamiento de los traductores, sino la creación de formas gratuitas y sencillas de leer tweets y páginas web en otros idiomas cuando, de otro modo, una persona no sabría lo que se está diciendo.

A veces no necesitamos una nueva ley, sino mejorar las que ya tenemos.

Pero gran parte de la retórica que estamos escuchando ignora esos beneficios y se centra únicamente en los usos potencialmente perjudiciales, como si la herramienta en sí fuera el problema (en lugar de cómo la usa la gente). El resultado irónico: una oportunidad perdida para aprobar y aplicar leyes que puedan realmente abordar esos daños. 

Por ejemplo, si los responsables políticos están preocupados por las violaciones de la privacidad derivadas de la recopilación y el uso de imágenes e información personal en la IA generativa, centrarse en el uso en lugar de en la herramienta podría conducir a una ley más amplia: una legislación sobre privacidad real y exhaustiva que cubra toda la vigilancia y el uso de datos por parte de las empresas. Lo ideal sería que esa ley limitara los daños a la privacidad de la IA (generativa y de otras formas) y fuera lo suficientemente flexible como para mantenerse al día de los nuevos avances tecnológicos.    

Pero a veces no necesitamos una nueva ley, sino hacer un mejor trabajo con las que ya tenemos. Si los legisladores están preocupados por la desinformación, por ejemplo, podrían empezar por revisar (y, en caso necesario, reforzar) los recursos para hacer cumplir las leyes existentes sobre fraude y difamación. Los tribunales llevan décadas evaluando esas protecciones legales y sopesándolas con intereses compensatorios (como la libertad de expresión); no tiene mucho sentido volver a tratar esas cuestiones para una tecnología específica. Y cuando las normativas existentes son realmente ineficaces en otros contextos, los defensores deben explicar por qué serán más eficaces contra los usos indebidos de la IA generativa.

En segundo lugar, ¿están documentados los daños que la propuesta pretende paliar o siguen siendo especulativos? Por ejemplo, durante años los legisladores (y otros) han hecho saltar las alarmas sobre los efectos en la salud mental del uso de las redes sociales. Pero hay pocas investigaciones que lo demuestren, lo que dificulta la elaboración de una respuesta reguladora. En otros ámbitos, como el debate sobre la encriptación, hemos visto cómo las preocupaciones hipotéticas o no demostradas de las fuerzas de seguridad, enarboladas bajo la bandera de la "seguridad en línea", se utilizan para justificar el debilitamiento de protecciones esenciales para la expresión y la privacidad en línea. Para crear leyes basadas en pruebas, los responsables políticos deben revisar la investigación, hablar con los expertos y la sociedad civil (no sólo con los directores ejecutivos), y tener cuidado con el cebo de culebra de la IA o el pensamiento mágico.

No debemos dejar que la hipérbole y los titulares sobre el futuro de la IA generativa nos distraigan de abordar los daños que se están produciendo en la actualidad

En tercer lugar, y relacionado con lo anterior, ¿hasta qué punto una nueva propuesta abarca daños especulativos a expensas de abordar daños existentes prácticos y bien documentados? Investigadores reflexivos y grupos de la sociedad civil llevan más de una década dando la voz de alarma sobre los riesgos de la vigilancia policial predictiva, el uso gubernamental de sistemas de reconocimiento facial y la toma de decisiones sesgadas en materia de vivienda, contratación y prestaciones públicas. No debemos dejar que la hipérbole y los titulares sobre el futuro de la IA generativa nos distraigan de abordar el daño que se está haciendo hoy. Hay mucho que puede y debe hacerse para garantizar la transparencia, capacitar a las comunidades para rechazar o seleccionar tecnologías, participar en la evaluación de impacto y crear responsabilidad y remedios para quienes ya sufren esos daños. Las personas que se toman en serio la necesidad de garantizar que la IA generativa sirva a la humanidad ya tienen una agenda completa que no debería dejarse de lado por la exageración de los ricos. 

En cuarto lugar, ¿reforzará la regulación las dinámicas de poder y los oligopolios existentes? Cuando las grandes tecnológicas piden ser reguladas, debemos preguntarnos si esas regulaciones podrían cimentar efectivamente el propio poder de las grandes tecnológicas. Por ejemplo, hemos visto múltiples propuestas que permitirían a los reguladores revisar y autorizar modelos, programas y servicios de IA. La concesión de licencias gubernamentales es el tipo de carga que las grandes empresas pueden asumir fácilmente; los competidores más pequeños y las organizaciones sin ánimo de lucro, no tanto. De hecho, podría ser prohibitivo para los desarrolladores independientes de código abierto.  Si queremos modelos de IA que no reproduzcan los prejuicios sociales y políticos existentes, tenemos que dejar espacio suficiente para que nuevos actores puedan construirlos. 

En quinto lugar, ¿es la normativa propuesta lo bastante flexible para adaptarse a una tecnología en rápida evolución? La tecnología cambia a menudo mucho más rápido que la ley, y esos cambios pueden ser difíciles de predecir. Como resultado, una norma que hoy parece sensata puede convertirse fácilmente en el punto débil de la seguridad de mañana. Y lo que es peor, bloquear tecnologías específicas puede impedir que florezcan tecnologías nuevas e innovadoras y, de nuevo, dar a los ganadores de hoy la capacidad de impedir que los futuros competidores nos ofrezcan una herramienta o un producto mejores. 

En sexto lugar, ¿realmente aliviará la ley los daños que persigue? Esta cuestión se pasa por alto con demasiada frecuencia. Por ejemplo, ha habido varias propuestas para exigir a los usuarios y desarrolladores de IA generativa que pongan una "marca de agua" en las obras que producen. Suponiendo que esto sea técnicamente posible, la historia sugiere que no será muy eficaz contra los usos que más nos preocupan. Las marcas de agua "recomendadas" por defecto, como la inserción automática en DALL-E de unos cuadrados de colores en la esquina de una imagen, pueden ayudar a indicar que la imagen ha sido generada por IA, para que la persona que la comparta no engañe involuntariamente. Pero estas marcas de agua pueden ser fácilmente eliminadas por los estafadores más sofisticados a los que realmente queremos disuadir. Y las marcas de agua "adversarias", en las que el modelo de IA genera una marca de agua que está tan profundamente incrustada en el resultado que no puede eliminarse, casi siempre han sido derrotadas en la práctica. En resumen, la marca de agua puede tener algunas ventajas, pero es inevitablemente un juego del gato y el ratón.  Si queremos evitar que personas motivadas causen daños graves, necesitamos estrategias que funcionen.   

Del mismo modo que no toleraríamos una ley que permitiera al Gobierno controlar el acceso y el uso de las imprentas, debería preocuparnos que un regulador pudiera controlar el acceso a las herramientas de IA generativa.

Por último, ¿cómo afecta a otros intereses públicos (más allá de las cuestiones de competencia planteadas anteriormente)? Por ejemplo, se afirma que el desarrollo de IA de código abierto es más arriesgado que los sistemas cerrados sujetos a una autoridad central. Ya hemos visto antes esta película: los sistemas abiertos suelen ser atacados con esta afirmación, sobre todo por quienes se benefician de un mundo cerrado. Sin embargo, incluso tomando la preocupación al pie de la letra, es difícil ver cómo el gobierno puede regular el uso y el desarrollo sin restringir la libertad de expresión y el derecho a acceder a nueva información y al arte. En Estados Unidos, los tribunales reconocen desde hace tiempo que el código es expresión y que vigilar su desarrollo puede ir en contra de la Primera Enmienda. En términos más generales, del mismo modo que no toleraríamos una ley que permitiera al gobierno controlar el acceso y el uso de las imprentas, debería preocuparnos otorgar a cualquier autoridad central el poder de controlar el acceso a las herramientas generativas de IA y, presumiblemente, decidir de antemano qué tipo de expresión pueden generar esas herramientas. Además, poner controles al desarrollo de código abierto en algunos países puede garantizar que los desarrolladores de otros países tengan mejores oportunidades de aprender e innovar. 

Otras propuestas diseñadas para garantizar la remuneración de los creadores cuyas obras se incluyen en los datos de entrenamiento, como un nuevo régimen de licencias de derechos de autor, podrían hacer que la investigación socialmente valiosa basada en el aprendizaje automático e incluso en la minería de datos fuera prohibitivamente complicada y cara (suponiendo que tal régimen fuera siquiera administrativamente posible dados los miles de millones de obras que podrían utilizarse y la dificultad de rastrear esos usos). Nos solidarizamos con los creadores que luchan por recibir una compensación adecuada por su trabajo. Pero debemos buscar formas de garantizar una remuneración justa que no limite el potencial de toda la humanidad para beneficiarse de valiosos usos secundarios. Las negociaciones contractuales del Writers Guild of America-West con los estudios de cine ofrecen un modelo: El material generado por IA no puede utilizarse para sustituir a un guionista humano. En concreto, el material generado por IA no puede considerarse material de origen para adaptación de ningún tipo, y si un estudio quiere utilizar un guión generado por IA, no puede haber autor acreditado y, por tanto, no hay derechos de autor. En un mundo en el que los estudios guardan celosamente los derechos de sus obras, eso es un gran veneno. Con esta propuesta, los estudios deben elegir entre el coste inicial de pagar a un guionista lo que vale y el coste final de no tener derechos de autor sobre la obra final.


Estas son preguntas que deberíamos hacer a la mayoría de la legislación, como parte de una evaluación de impacto exhaustiva. Pero son especialmente apremiantes en este caso, en el que los responsables políticos parecen ansiosos por legislar rápidamente, los principales actores invitan a ello y muchos de los afectados no están sentados a la mesa. Cuando existen riesgos reales para el desarrollo de la IA generativa, y razones reales para que personas de diversos sectores se sientan maltratadas e ignoradas por los desarrolladores, es aún más importante que los legisladores lo hagan bien.