La semana pasada, la EFF junto a 30 organizaciones de la sociedad civil y académicos alertamos a la Secretaria del Interior del Reino Unido, Yvette Cooper, y al Secretario del Departamento de Ciencia, Innovación y Tecnología, Peter Kyle, sobre los riesgos para los derechos civiles que contiene el borrador de la Ley de Uso y Acceso a Datos (DUA Bill).

El Artículo 80 de esta ley debilita las protecciones contra las decisiones puramente automatizadas en el ámbito policial y diluye salvaguardas cruciales de privacidad.

Bajo los artículos 49 y 50 de la Ley de Protección de Datos de 2018, las decisiones totalmente automatizadas están prohibidas en operativos policiales… a menos que la ley las requiera o autorice. Pero el Artículo 80 revierte esto en todos los escenarios, excepto cuando se procesan datos sensibles.

Traducción: esto permitiría a las fuerzas del orden usar algoritmos para decidir sobre personas basándose en su estatus socioeconómico, código postal, emociones inferidas, ¡o incluso acentos regionales! Esto amplía el riesgo de sesgos, discriminación y opacidad en manos de instituciones que ya tienen demasiado poder.

Hasta el propio Informe de Impacto del gobierno reconoce que “grupos con características protegidas, como raza, género o edad, son más propensos a sufrir discriminación por sistemas automatizados debido a sesgos históricos en los datos”. Aun así, los políticos británicos insisten en impulsar esta agenda peligrosa.

Además, con la opacidad que ya rodea a estos sistemas, las personas afectadas por decisiones policiales automatizadas tendrían rutas casi nulas para apelar o exigir responsabilidades.

La DUA Bill expone a comunidades marginadas a decisiones automatizadas, injustas, opacas y dañinas. Cooper y Kyle deben abordar la falta de controles en el uso policial de estas herramientas antes de que sea tarde.

La carta completa está disponible aquí.