El gobierno debe dejar de restringir el acceso a los sitios web con leyes que exigen la verificación de la edad.
Algunos defensores de estos sistemas de censura argumentan que podemos salir de los numerosos perjuicios que causan a la libertad de expresión, la igualdad, la privacidad y la infoseguridad. ¿Su bala de plata? " Estimación de la edad ", una tecnología que escanea nuestros rostros, aplica un algoritmo y adivina nuestra edad antes de permitirnos acceder a contenidos en línea y comunicarnos con otras personas. Pero cuando se enfrentan a escáneres faciales de estimación de edad, muchas personas se abstienen de acceder a sitios web restringidos, incluso cuando tienen derecho legal a utilizarlos. ¿Por qué?
Porque, sencillamente, los escáneres faciales de estimación de la edad son espeluznantes y perjudiciales. En primer lugar, la estimación de la edad es inexacta y discriminatoria. En segundo lugar, su tecnología subyacente puede utilizarse para intentar estimar otros datos demográficos, como el origen étnico y el sexo, así como nuestros nombres. En tercer lugar, las fuerzas de seguridad quieren utilizar su tecnología subyacente para adivinar nuestras emociones y honestidad, lo que en manos de agentes nerviosos puede poner en peligro a personas inocentes. En cuarto lugar, los escáneres faciales de estimación de edad crean amenazas a la privacidad y la infoseguridad de las personas escaneadas. En resumen, el gobierno debería poner freno a esta peligrosa tecnología, no normalizarla mediante mandatos de verificación de la edad.
Error y discriminación
La estimación de la edad es a menudo inexacta. Está en el nombre: estimación de la edad. Esto significa que estos escáneres faciales confunden a menudo adultos con adolescentes y les deniegan erróneamente el acceso a sitios web restringidos. Por cierto, a veces también confunde a adolescentes con adultos.
La estimación de la edad también es discriminatoria. Los estudios muestran que los escáneres faciales tienen más probabilidades de errar en la estimación de la edad de las personas de color y las mujeres. Lo que significa que, como herramienta de verificación de la edad, estos escáneres faciales tendrán un impacto desigual injusto.
Estimación de nuestra identidad y demografía
La estimación de la edad es un hermano tecnológico de la identificación facial y la estimación de otros datos demográficos. Para los usuarios, todos los escáneres faciales tienen el mismo aspecto y no deberíamos permitir que se convirtieran en una parte normal de Internet. Cuando nos sometemos a un escáner facial para estimar nuestra edad, una empresa con menos escrúpulos podría pulsar un interruptor y utilizar el mismo escáner facial, más un algoritmo ligeramente diferente, para adivinar nuestro nombre u otros datos demográficos.
Algunas empresas se dedican tanto a la estimación de la edad como a la identificación facial.
Otros desarrolladores afirman que pueden usar la tecnología detrás de la estimación de edad (la aplicación de un algoritmo a un escaneo facial) para estimar nuestro género (como hacen estos vendedores) y nuestra etnia (como hacen estos vendedores). Pero estos escaneos pueden identificar erróneamente a muchas personas cuyos rostros no se ajustan a los promedios de género y etnia (como las personas transgénero). Peor aún, las instituciones poderosas pueden dañar a las personas con esta tecnología. China utiliza escaneos faciales para identificar a los uigures de etnia. Los legisladores transfóbicos pueden intentar utilizarlos para imponer prohibiciones de baños. Por esta razón, se ha tratado de prohibir los escaneos faciales de estimación de género.
Estimar nuestras emociones y honestidad
Los desarrolladores afirman que pueden usar la tecnología detrás de la estimación facial para estimar nuestras emociones (como lo hacen estos vendedores). Pero siempre habrá un alto índice de error, porque las personas expresan sus emociones de manera diferente, según su cultura, temperamento y neurodiversidad. Peor aún, los investigadores están tratando de usar escáneres faciales para estimar el engaño e incluso la criminalidad. Las tecnologías de lectura de la mente tienen una larga y dudosa historia, desde la frenología hasta los polígrafos.
Por desgracia, las instituciones poderosas pueden creer en la exageración. En 2008, el Departamento de Seguridad Nacional de EE. UU. reveló sus esfuerzos por utilizar el «análisis de imágenes» de «rasgos faciales» (entre otros datos biométricos) para identificar la «mala intención» de las personas que se someten a un control. Otros organismos policiales utilizan algoritmos para analizar las emociones y el engaño.
Cuando la tecnología policial identifica erróneamente a un civil como una amenaza, muchos agentes reaccionan de forma exagerada. Por ejemplo, los errores de las ALPR llevan a los agentes de policía a apuntar con sus armas a conductores inocentes de forma recurrente. Algunas agencias gubernamentales aconsejan ahora a los conductores que mantengan las manos en el volante durante una parada de tráfico, para reducir el riesgo de que los movimientos del conductor asusten al agente. Pronto, es posible que dichas agencias aconsejen a los conductores que no pongan los ojos en blanco, porque las gafas inteligentes del agente podrían malinterpretar esa expresión facial como ira o engaño.
Privacidad e infoseguridad
El Gobierno no debería obligar a las empresas tecnológicas a recopilar aún más datos personales de los usuarios. Las empresas ya recopilan demasiados datos y ha demostrado que no se puede confiar en que los protejan.
Los escáneres faciales de verificación de edad crean nuevas amenazas para nuestra intimidad y la seguridad de la información. Estos sistemas escanean nuestro rostro y adivinan nuestra edad. Un sistema mal diseñado podría almacenar estos datos personales, e incluso correlacionarlos con el contenido en línea que miramos. En manos de un adversario, y cruzada con otra información fácilmente disponible, esta información puede exponer detalles íntimos sobre nosotros. Nuestros rostros son únicos, inmutables y están constantemente a la vista, lo que crea un riesgo de rastreo biométrico en innumerables contextos virtuales e IRL. El año pasado, los piratas informáticos accedieron a una empresa de verificación de la edad (entre esto, muchas otras empresas ).
Por supuesto, hay formas mejores y peores de diseñar una tecnología. Algunos riesgos de privacidad e infoseguridad podrían reducirse, por ejemplo, realizando escaneos faciales en el dispositivo en lugar de en la nube, o borrando todo inmediatamente después de que un visitante pase la prueba de edad. Pero riesgo menor no significa riesgo cero. Los piratas informáticos pueden encontrar la manera de vulnerar incluso los sistemas mejor diseñados, las empresas pueden cambiar repentinamente sus sistemas para hacerlos menos protectores de la privacidad (tal vez a instancias del gobierno), y los empleados y contratistas pueden abusar de su acceso especial. Numerosos estados están exigiendo la verificación de la edad con normas variables sobre cómo hacerlo; numerosos sitios web están sujetos a estas exigencias; y numerosos proveedores están vendiendo servicios de escaneado facial. Inevitablemente, muchos de estos sitios web y servicios no mantendrán los sistemas que mejor preserven la privacidad, por descuido o por codicia.
Además, los algoritmos de escaneado facial se entrenan a menudo con datos recogidos mediante métodos de privacidad cuestionables, ya sea de usuarios con consentimiento turbio o de no usuarios. Los conjuntos de datos gubernamentales utilizados para probar algoritmos biométricos proceden a veces de presos e inmigrantes.
Lo más significativo aquí es que, cuando la mayoría de la gente llegue a la mayoría de los puntos de control de verificación de edad, no tendrá ni idea de si el sistema de escaneado facial ha minimizado los riesgos para la privacidad y la infoseguridad. Así que muchos visitantes se alejarán y renunciarán a los contenidos y conversaciones disponibles en el sitio web restringido.
Próximos pasos
Los escáneres faciales algorítmicos son peligrosos, ya se utilicen para estimar nuestra edad, nuestros otros datos demográficos, nuestro nombre, nuestras emociones o nuestra honestidad. Por ello, la EFF apoya la prohibición del uso de esta tecnología por parte del gobierno y una regulación estricta (que incluya el consentimiento y la minimización) para el uso corporativo.
Como mínimo, el gobierno debe dejar de coaccionar a los sitios web para que utilicen escáneres faciales, como medio para cumplir con los censuradores mandatos de verificación de edad. La estimación de la edad no elimina los problemas de privacidad y seguridad que afectan a todos los sistemas de verificación de la edad. Y estos escaneos faciales hacen que muchas personas se abstengan de acceder a sitios web a los que tienen derecho legal a acceder. Porque los escáneres faciales son espeluznantes AF.