En junio de 2020, Santa Cruz (California) se convirtió en la primera ciudad de Estados Unidos en prohibir el uso municipal de la policía predictiva, un método que consiste en desplegar los recursos de las fuerzas del orden en función de análisis basados en datos que supuestamente son capaces de predecir los autores, las víctimas o la ubicación de futuros delitos. Lo más interesante es que Santa Cruz fue una de las primeras ciudades del país en experimentar con esta tecnología, cuando puso a prueba y luego adoptó un en 2011. Ese programa utilizaba datos históricos y actuales sobre la delincuencia para dividir algunas zonas de la ciudad en manzanas de 1,5 metros por 1,5 metros, con el fin de señalar los lugares que probablemente serían el escenario de futuros delitos. Sin embargo, después de nueve años, el ayuntamiento votó por prohibirlo por temor a que perpetuara la desigualdad racial.
El control policial predictivo es una profecía autocumplida. Si la policía concentra sus esfuerzos en un barrio y detiene a decenas de personas en el transcurso de una semana, los datos reflejarán que esa zona es un foco de actividad delictiva. El sistema también tiene en cuenta sólo los delitos denunciados, lo que significa que los barrios y comunidades en los que se llama a la policía con más frecuencia podrían tener una mayor probabilidad de que la tecnología policial predictiva concentre sus recursos allí. Este sistema está hecho a medida para victimizar aún más a las comunidades que ya son objeto de un exceso de vigilancia policial -a saber, las personas sin hogar y los inmigrantes- utilizando el manto de la legitimidad científica y la supuesta naturaleza imparcial de los datos.
El experimento de Santa Cruz, y la eventual prohibición de la tecnología, es una lección para el resto del país: la tecnología no es un sustituto del compromiso de la comunidad y de las medidas holísticas de reducción de la delincuencia. Cuanto más dependan los departamentos de policía de la tecnología para dictar dónde centrar los esfuerzos y de quién sospechar, más daño causarán esos departamentos a las comunidades vulnerables. Por eso debería prohibirse a los departamentos de policía el uso de algoritmos supuestamente basados en datos para informar sobre qué comunidades, e incluso qué personas, deben recibir la mayor parte de la vigilancia y la criminalización.
¿Qué es la policía predictiva?
La que prohíbe la vigilancia policial predictiva como "un software que se utiliza para predecir información o tendencias sobre la delincuencia o la criminalidad en el pasado o en el futuro, incluyendo, pero sin limitarse a, las características o el perfil de cualquier persona(s) que pueda cometer un delito, la identidad de cualquier persona(s) que pueda cometer un delito, los lugares o la frecuencia de los delitos, o la(s) persona(s) afectada(s) por el delito predicho".
La policía predictiva analiza una de los delitos históricos, como la hora del día, la estación del año, los patrones climáticos, los tipos de víctimas y los tipos de ubicación, para inferir cuándo y en qué lugares es probable que se produzca el delito. Por ejemplo, si se han cometido varios delitos en los callejones los jueves, el algoritmo puede indicar a un departamento que debe enviar agentes a los callejones todos los jueves. Por supuesto, esto significa que la policía está predispuesta a sospechar de todos los que se encuentren en esa zona a esa hora.
La tecnología trata de funcionar de forma similar al tiempo que lleva a cabo la menos frecuente labor policial predictiva "basada en la persona". Esto adopta la forma de sistemas de clasificación opacos que asignan a las personas un valor de riesgo basado en una serie de flujos de datos que incluyen la edad, la presunta afiliación a una banda y el número de veces que una persona ha sido víctima y presunto autor de un delito. El total acumulado de estos datos puede dar lugar a que alguien sea incluido en una "lista caliente", como ocurrió con más de en Chicago que fueron incluidas en una de esas "listas estratégicas de sujetos". Al igual que cuando se apunta a lugares concretos, esta tecnología no puede predecir realmente el delito y, en un intento de hacerlo, puede exponer a las personas al acoso o la vigilancia policial selectiva sin ninguna prueba real de que se vaya a cometer un delito.
Hay una razón por la que el uso de la policía predictiva sigue expandiéndose a pesar de sus dudosos fundamentos: hace dinero. Muchas empresas han desarrollado herramientas para la actuación policial basada en datos; algunas de las más importantes son PredPol, HunchLab, CivicScape y Palantir. Las instituciones académicas también han desarrollado tecnologías policiales predictivas, como RTM Diagnostics, de la Universidad de Rutgers, o CrimeScan, de la Universidad Carnegie Mellon, que se utiliza en Pittsburgh. Algunos departamentos han creado estas herramientas con empresas privadas e instituciones académicas. Por ejemplo, en 2010, el Departamento de Policía de Memphis creó su propia herramienta, en colaboración con el Departamento de Criminología y Justicia Penal de la Universidad de Memphis, utilizando el análisis predictivo de IBM SPSS.
A partir del verano de 2020, la tecnología se utiliza en de Estados Unidos.
¿Qué problemas plantea?
Uno de los mayores defectos de la policía predictiva son los datos erróneos que se introducen en el sistema. Estos algoritmos dependen de los datos que les informan de dónde se ha producido la actividad delictiva para predecir dónde se producirá en el futuro. Sin embargo, no todos los delitos se registran: algunas comunidades tienen más probabilidades de denunciar los delitos que otras, algunos delitos tienen menos probabilidades de ser denunciados que otros, y los agentes tienen discrecionalidad para decidir si realizan o no una detención. La policía predictiva sólo tiene en cuenta los delitos que se denuncian y concentra los recursos policiales en esas comunidades, lo que hace más probable que la policía descubra otros delitos. Todo ello crea un bucle de retroalimentación que convierte a la policía predictiva en una profecía autocumplida. Como el profesor Suresh Venkatasubramanian:
Si construyes una policía predictiva, básicamente estás enviando a la policía a determinados barrios en función de lo que te han dicho, pero eso también significa que no estás enviando a la policía a otros barrios porque el sistema no te ha dicho que vayas allí. Si asumes que la recopilación de datos para tu sistema es generada por la policía que enviaste a ciertos barrios, entonces esencialmente tu modelo está controlando la siguiente ronda de datos que obtienes.
Este bucle de retroalimentación repercutirá en las comunidades vulnerables, incluidas las comunidades de color, las comunidades sin vivienda y los inmigrantes.
La policía ya está vigilando los barrios de las minorías y deteniendo a personas por cosas que pueden haber pasado desapercibidas o no denunciadas en barrios menos patrullados. Cuando estos datos, ya sesgados, se introducen en un algoritmo de predicción, se despliegan más agentes en las comunidades que ya están sobre vigiladas.
Un reciente del programa predictivo utilizado por la oficina del sheriff del condado de Pasco ilustra los daños que puede causar a las personas el hecho de quedar atrapadas en un bucle algorítmico. Después de que un joven de 15 años fuera detenido por robar bicicletas en un garaje, el algoritmo envió continuamente a la policía para acosarle a él y a su familia. A lo largo de cinco meses, la policía acudió a su casa 21 veces. Se presentaron en su gimnasio y en el lugar de trabajo de sus padres. El reveló que, desde 2015, la oficina del sheriff ha realizado más de 12.500 visitas preventivas similares a personas.
Estas visitas solían dar lugar a otras detenciones no relacionadas que victimizaban aún más a las familias y aumentaban la probabilidad de que fueran visitadas y acosadas de nuevo. En un incidente, la madre de un adolescente al que se había buscado fue sancionada con una multa de 2.500 dólares cuando la policía enviada a controlar a su hijo vio pollos en el patio trasero. En otro incidente, un padre fue detenido cuando la policía miró por la ventana de la casa y vio a un joven de 17 años fumando un cigarrillo. Este es el tipo de delitos que normalmente no se denuncian y que ocurren en todos los barrios, en todos los estratos económicos, pero por los que sólo se penaliza a las personas marginadas que viven bajo una vigilancia policial casi constante.
Como han señalado , estos algoritmos se basan a menudo en fuentes defectuosas y poco transparentes, como las bases de datos de bandas, que han sido objeto de escrutinio público debido a su falta de transparencia y a la . En Los Ángeles, por ejemplo, si la policía observa que una persona lleva una o mantiene una breve conversación con alguien en la calle, puede ser suficiente para incluir a esa persona en la base de datos de bandas de la policía de Los Ángeles. Estar incluido en una base de datos de bandas suele significar estar expuesto a más acoso y vigilancia policial, y también puede acarrear consecuencias una vez en el sistema judicial, como sentencias más duras. La inclusión en una base de datos de bandas puede influir en el hecho de que un algoritmo predictivo identifique a una persona como una amenaza potencial para la sociedad o artificialmente un delito específico como relacionado con las bandas. En julio de 2020, el fiscal general de California la policía del estado acceder a cualquiera de las entradas de la policía de Los Ángeles en la base de datos de bandas de California, después de que se descubriera a los agentes de la policía de Los Ángeles falsificando datos. Las bases de datos de bandas, que no rinden cuentas y son demasiado amplias, son el tipo de datos defectuosos que fluyen desde los departamentos de policía hacia los algoritmos predictivos, y son exactamente la razón por la que no se puede confiar en la policía predictiva.
Para comprobar las disparidades raciales en la vigilancia policial predictiva, el Grupo de Análisis de Datos de Derechos Humanos (HRDAG, por sus siglas en inglés) . Utilizó un algoritmo policial de big data para determinar dónde sugeriría la policía que buscara futuros delitos de drogas. Efectivamente, HRDAG descubrió que . Pero los datos de salud pública sobre los consumidores de drogas, combinados con los datos del censo de EE.UU., muestran que la distribución de los consumidores de drogas no se corresponde con las predicciones del programa, lo que demuestra que las predicciones del algoritmo se basaban en un sesgo y no en la realidad.
Por todo ello, un declaró recientemente un boicot contra la ayuda a la policía para crear herramientas policiales predictivas. Argumentaron que sus credenciales y experiencia crean una forma conveniente de pasar de contrabando ideas racistas sobre quiénes cometerán un delito en función de dónde viven y a quiénes conocen, a través de la legitimidad científica. "Es simplemente demasiado fácil", escriben, "crear un barniz 'científico' para el racismo".
Además, existe una preocupante falta de transparencia en torno a muchas herramientas de predicción policial. En muchos casos, no está claro cómo se diseñan los algoritmos, qué datos se utilizan y, a veces, incluso lo que el sistema pretende predecir. Los proveedores han solicitado cláusulas de no divulgación o han envuelto sus productos en el secreto, alegando secretos comerciales o confidencialidad empresarial. Cuando las herramientas de vigilancia basadas en datos son cajas negras, es difícil evaluar los riesgos de las tasas de error, los falsos positivos, los límites de las capacidades de programación, los datos sesgados o incluso los fallos en el código fuente que afectan a los resultados de las búsquedas.
Para los departamentos locales, el coste prohibitivo del uso de estas tecnologías predictivas también puede ser un perjuicio para el mantenimiento de la sociedad civil. En Los Ángeles, la policía pagó transcurso de nueve años sólo para utilizar la tecnología predictiva de Palantir. Esa es sólo una de las muchas herramientas utilizadas por la policía de Los Ángeles en un intento de predecir el futuro.
Por último, la vigilancia policial predictiva plantea problemas constitucionales. El mero hecho de vivir o pasar tiempo en un barrio o con determinadas personas puede hacer sospechar a la policía o hacer que ésta trate a las personas como posibles delincuentes. Como ha escrito el jurista , existe una tensión entre la vigilancia predictiva y los requisitos legales de que la policía tenga una sospecha razonable para realizar una parada. Además, los sistemas policiales predictivos utilizan a veces información de para evaluar si una persona puede ser propensa a cometer un delito, lo que también plantea problemas de libertad de expresión.
La tecnología no puede predecir la delincuencia, sólo puede armar la proximidad de una persona a la acción policial. La presunción de inocencia de una persona no debería verse mermada porque un conocido casual, un familiar o un vecino cometa un delito. Esto sólo abre a los miembros de poblaciones ya vulnerables a un mayor acoso policial, erosiona la confianza entre las medidas de seguridad pública y la comunidad y, en última instancia, crea más peligro. Esto ya ha ocurrido en Chicago, donde la policía ser víctima de un delito es uno de los muchos factores que el algoritmo predictivo de Chicago utiliza para determinar si una persona tiene un alto riesgo de cometer un delito.
¿Qué se puede hacer al respecto?
Como sugiere la prohibición de Santa Cruz, las ciudades están empezando a darse cuenta de los peligros de la vigilancia predictiva. Al igual que el creciente movimiento para prohibir el uso gubernamental del reconocimiento facial y otras formas de vigilancia biométrica, también deberíamos buscar la prohibición de la vigilancia predictiva. En todo el país, desde hasta , casi una docena de ciudades han prohibido el uso policial del reconocimiento facial tras reconocer su en las personas de color, su tendencia a las personas de delitos, su erosión de nuestra y su capacidad para seguir nuestros movimientos.
Antes de que la vigilancia policial predictiva se generalice aún más, las ciudades deberían aprovechar la oportunidad de proteger el bienestar de sus residentes aprobando ordenanzas que prohíban el uso de esta tecnología o impidan que los departamentos la adquieran en primer lugar. Si su ciudad cuenta con una legislación como la ordenanza de Control Comunitario de la Vigilancia Policial (CCOPS), que requiere que los funcionarios electos aprueben la compra y el uso de equipos de vigilancia por parte de la policía, se puede bloquear la adquisición de la policía predictiva mientras se intenta prohibir la tecnología.
Las lecciones de la novela y la película Minority Report siguen siendo válidas, incluso en la era de los grandes datos: las personas son inocentes hasta que se demuestre su culpabilidad. Las personas no deberían ser objeto de acoso y vigilancia por su proximidad a la delincuencia. Las empresas de software con fines de lucro y con algoritmos patentados y secretos no deberían crear bolas de cristal de caja negra exentas del escrutinio público y utilizadas sin restricciones por las fuerzas del orden. No es demasiado tarde para devolver el genio de la policía predictiva a la botella, y eso es exactamente lo que deberíamos instar a los líderes locales, estatales y federales a hacer