Desde el debut de Chat-GPT, la inteligencia artificial (IA) ha sido el centro de los debates mundiales sobre las promesas y los peligros de las nuevas tecnologías. Esto ha generado una serie de debates sobre la gobernanza y la regulación de la IA, que han dado lugar, entre otros, a la Ley de IA de Europa, la orden ejecutiva sobre IA de la administración Biden y los principios rectores internacionales para el desarrollo de la IA. Como parte de ese debate político global, el gobierno del Reino Unido organizó la Cumbre de Seguridad de la IA en 2023, a la que siguió en 2024 la Cumbre de la IA de Seúl, que condujo a la Cumbre de Acción de la IA de este año, organizada por Francia.

Mientras los jefes de Estado y los directores ejecutivos se dirigen a París para la Cumbre de Acción sobre IA, sus deficiencias se están volviendo evidentes. La cumbre, organizada por el gobierno francés, ha sido descrita como un «momento crucial para configurar el futuro de la gobernanza de la inteligencia artificial». Sin embargo, una mirada más cercana a su agenda y a las voces que amplificará cuenta una historia diferente.

Al centrarse en las posibles contribuciones económicas de la IA, la cumbre no tiene en cuenta las muchas y variadas formas en que los sistemas de IA pueden ser utilizados indebidamente para socavar los derechos fundamentalesllevar al límite los ya de por sí sobrecargados límites ecológicos del planeta. En lugar de centrarse en perspectivas matizadas sobre las capacidades de los sistemas de IA y los riesgos asociados, la agenda de la cumbre pinta una imagen unilateral y simplista, que no refleja el debate global sobre la gobernanza de la IA. Este desequilibrio también se refleja en los ponentes de la cumbre, entre los que los representantes de la industria superan notablemente en número a los líderes de la sociedad civil. Mientras que muchas organizaciones de la sociedad civil están organizando eventos paralelos para contrarrestar las prioridades erróneas de la cumbre.

Una cumbre exclusiva capturada por los intereses de la industria no puede pretender ser un lugar transformador para los debates políticos mundiales.

Las importantes deficiencias de la cumbre son especialmente problemáticas a la luz del papel de liderazgo que están reclamando los países europeos en lo que respecta a la gobernanza de la IA. La Ley de IA de la Unión Europea, que entró en vigor recientemente, ha sido celebrada como el primer marco legal del mundo que aborda los riesgos de la IA. Sin embargo, aún está por ver si la Ley de IA realmente «promoverá la adopción de una inteligencia artificial fiable y centrada en el ser humano». No está claro si la Ley de IA proporcionará un marco que incentive el despliegue de herramientas de IA centradas en el usuario o si bloqueará tecnologías específicas a expensas de los usuarios. Nos gusta que las nuevas normas contengan un lenguaje muy prometedor sobre la protección de los derechos fundamentales, sin embargo, las excepciones para las fuerzas del orden y la seguridad nacional hacen que algunas de las salvaguardias sean frágiles. Esto es especialmente cierto cuando se trata del uso de sistemas de IA en contextos de alto riesgo como la migración, el asilo, los controles fronterizos y la seguridad pública, donde la Ley de IA hace poco para proteger contra la vigilancia masiva y la policía predictiva. También nos preocupa la posibilidad de que otros gobiernos copien y peguen las amplias excepciones de la Ley de IA sin contar con las sólidas protecciones constitucionales y de derechos humanos que existen en el sistema jurídico de la UE. Por lo tanto, vigilaremos de cerca cómo se aplica la Ley de IA en la práctica.

La cumbre también se queda corta a la hora de abordar el papel esencial que deberían desempeñar los derechos humanos a la hora de proporcionar una base común para el despliegue de la IA, especialmente en usos de alto impacto. Aunque en algunas sesiones aparecen preocupaciones relacionadas con los derechos humanos, la Cumbre, como foro mundial destinado a liberar el potencial de la IA para el bien público y el interés público, como mínimo, parece perder la oportunidad de articular claramente cómo ese objetivo se relaciona con el cumplimiento de las garantías internacionales de derechos humanos y qué pasos implica esto.

Los países deben abordar la brecha de la IA sin replicar sus perjuicios.

Aumentar el uso gubernamental de los sistemas de IA es generalmente una pieza clave de las estrategias nacionales para el desarrollo de la IA. Si bien los países deben abordar la brecha de la IA, hacerlo no debe significar replicar los daños de la IA. Por ejemplo, hemos elaborado sobre el aprovechamiento de las normas interamericanas de derechos humanos para abordar los desafíos y las violaciones que surgen del uso de las instituciones públicas de sistemas algorítmicos para las determinaciones que afectan a los derechos en América Latina.

En tiempos de una carrera armamentística de la IA a nivel global, no necesitamos más exageraciones sobre ella. Más bien, existe una necesidad crucial de debates políticos basados en pruebas que aborden la centralización del poder de la IA y consideren los daños del mundo real asociados a los sistemas de IA, al tiempo que permitan a las diversas partes interesadas participar en igualdad de condiciones. La Cumbre de Acción de IA no será el lugar para tener esta conversación.