February 11, 2021
De parte de La Haine
2,620 puntos de vista

Uno de los s铆ntomas de la penetraci贸n de la ideolog铆a neoliberal en las instituciones del Estado espa帽ol se muestra en la delegaci贸n de sus funciones fundamentales a las corporaciones. Nublados por esta doctrina econ贸mica, las 茅lites del pa铆s no han cesado de conceder cuotas cada vez m谩s amplias al poder privado, en el que cada vez destacan m谩s las plataformas tecnol贸gicas. Uno de los ejemplos m谩s importantes, aunque escasamente estudiado, es el de la vigilancia y la seguridad ciudadana.

Bajo la ret贸rica sobre la eficiencia o del ahorro (dogmas del neoliberalismo) y aprovech谩ndose de la falta de claridad jur铆dica e inactividad de las autoridades p煤blicas, compa帽铆as privadas como Eurocop est谩n haci茅ndose cargo tanto de la infraestructura digital como de las nuevas tecnolog铆as policiales, dando lugar a una suerte de incipiente 鈥淓stado Policial 2.0鈥. Al respecto no solo surgen dudas sobre los oscuros procesos de licitaci贸n en incontables ayuntamientos o de la manera en que se adjudican. Sino tambi茅n sobre la naturaleza de un conjunto de tecnolog铆as, que han sido se帽aladas como racistas, clasistas o patriarcales por instituciones p煤blicas, cortes judiciales y organizaciones civiles de todo el mundo. Por eso, hoy vamos a adentrarnos en importantes cuestiones que rodean la expansi贸n de lo que hemos llamado solucionismo punitivista.

La historia imperialista y clasista de las tecnolog铆as aut贸nomas

Las tecnolog铆as de polic铆a predictiva, las cuales se han comenzado a testear e implementar en Espa帽a, forman parte de lo que de manera m谩s amplia se conoce como Sistemas Automatizados de Toma de Decisiones (SATD). De manera simplificada, estas se podr铆an describir como tecnolog铆as compuestas de potentes algoritmos y vastos datasets destinadas a ofrecer modelos y estimaciones basadas en inferencias estad铆sticas y c谩lculos matem谩ticos. Estos sistemas est谩n siendo ampliamente utilizados por agentes p煤blicos, en estrecha alianza con el sector privado, para llevar a cabo tareas tan diversas como la predicci贸n de terremotos, la asignaci贸n de cr茅dito hipotecario o la concesi贸n de ayudas y prestaciones sociales. M谩s all谩 del tecnooptimismo imperante, lo cierto es que existe un amplio reconocimiento del potencial que tienen estas tecnolog铆as, por ejemplo, para permitir una asignaci贸n de recursos m谩s justa y eficiente (esto es, una planificaci贸n econ贸mica progresista), sin depender de estructuras centralizadas y burocratizadas. Obviamente, como cualquier otra tecnolog铆a, los SATD no est谩n exentos de ideolog铆a ni de carga pol铆tica.

La g茅nesis de los sistemas de polic铆a predictiva se encuentra, junto con los de la criminolog铆a, en los sistemas de dominio colonial, clasista y racial de los Imperios Brit谩nicos y del segregacionismo estadounidense

A pesar de su aspecto vanguardista y futurista, la historia de los sistemas automatizados de toma de decisiones se remontan a los avances del m茅todo estad铆stico y de la recopilaci贸n masiva de datos, acelerada durante los siglos XIX y XX. De manera m谩s espec铆fica, la g茅nesis de los sistemas de polic铆a predictiva se encuentra, junto con los de la criminolog铆a, en los sistemas de dominio colonial, clasista y racial de los Imperios Brit谩nicos y del segregacionismo estadounidense. Siguiendo una l贸gica capitalista y determinista, estos reg铆menes consideraban que el cuestionamiento de la autoridad y el delito no respond铆a a causas sociales o econ贸micas, sino a decisiones individuales. Por lo tanto, dicha aproximaci贸n a la cuesti贸n de la criminalidad no consideraba como objetivo ulterior un reparto equitativo de la riqueza o la reinserci贸n, sino que apostaba por el puro y simple punitivismo. Esta inspiraci贸n ideol贸gica, unida al creciente descontento social y a masivos movimientos poblacionales (entre 1880 y 1930 llegaron a Estados Unidos cerca de 30 millones de inmigrantes) deriv贸 en una carrera hac铆a la vigilancia, la represi贸n policializada y a su tecnificaci贸n. 

Estos sistemas de dominaci贸n se afanaron en crear sistemas de recopilaci贸n y clasificaci贸n de los datos de sus poblaciones, fuertemente subalternizadas. Por mencionar un conocido ejemplo, el sistema a煤n vigente de identificaci贸n mediante huella dactilar surgi贸 como herramienta de control colonial brit谩nica en la India. Af铆n de perfeccionar sus t茅cnicas de dominaci贸n, los diferentes gobiernos financiaron investigaciones en diversos campos, perfeccion谩ndose ciencias como la criminolog铆a (conocido es el determinismo biol贸gico del racista Cesare Lombroso), la sociolog铆a (pensemos en la ecolog铆a humana de la escuela de Chicago) o la computaci贸n (IBM comenz贸 su andadura clasificando detenidos y continu贸 perfeccion谩ndose entre otros junto al r茅gimen nazi con el que colabor贸). En resumen, la andadura y puesta en marcha de estas ciencias tiene un largo recorrido junto a los cuerpos policiales de pa铆ses capitalistas, m谩s interesados en vigilar y castigar que en emprender reformas equitativas.

El segundo gran momento de expansi贸n de las t茅cnicas de vigilancia y dominaci贸n tecnologizadas corre de la mano del surgimiento y expansi贸n del neoliberalismo en los Estados Unidos

El segundo gran momento de expansi贸n de las t茅cnicas de vigilancia y dominaci贸n tecnologizadas corre de la mano del surgimiento y expansi贸n del neoliberalismo en los Estados Unidos. Por un lado, los seguidores de esta doctrina buscaban recortar el peso del Estado, aumentando con ello exorbitantemente el gasto p煤blico, y emprendiendo una alocada carrera de recortes en servicios p煤blicos. Por otro lado, el neoliberalismo exacerb贸 los rasgos punitivistas y racistas de los reg铆menes anteriores, dando comienzo a las llamadas iniciativas de War on Crime y War on Drugs, es decir, el uso indiscriminado de tecnolog铆as militares en la vida civil y el comienzo de la era de la encarcelaci贸n masiva. Junto a este inter茅s por recortar y externalizar la prestaci贸n de servicios p煤blicos, castigando as铆 a las poblaciones subalternas, concurrieron diversos avances t茅cnicos y cient铆ficos que permitir铆an la ubicuidad de ordenadores personales, aumentando a su vez el potencial procesamiento computacional de datos.

Pensemos en dos ejemplos actuales dentro de los sistemas policiales de predicci贸n de delitos que lo atestiguan. Por un lado, la calidad de un SATD no depende solo del algoritmo, sino de los datos que lo alimentan. Tal y como han se帽alado activistas, e incluso cortes judiciales en Estados Unidos y el Reino Unido (pa铆ses donde estas tecnolog铆as est谩n m谩s extendidas), los datasets generados por la polic铆a reflejan los prejuicios clasistas y pr谩cticas racistas ampliamente extendidas en los cuerpos de seguridad. El hecho de que una persona considerada como latina o afroamericana tenga entre un 25% y un 50% m谩s de probabilidad de ser detenido, o registrado, resulta en un mayor volumen de detenciones por causas relacionadas con drogas, lo que no se corresponde con la pr谩ctica delictiva real. En este sentido, un estudio arrojado por el Washington Post tambi茅n destaca que la poblaci贸n blanca trafica m谩s. Y no al rev茅s.

Los algoritmos alimentados por estas series estad铆sticas asignan un mayor riesgo de comisi贸n de delitos a individuos y poblaciones racializadas o empobrecidas

En suma, el problema subyacente es que buena parte de los cr铆menes cometidos por las clases m谩s privilegiadas no son considerados como tales, sino que suelen entenderse como infracciones o faltas administrativas. El sesgo a nivel de calle, o el que viene determinado por la estructura legal, contribuye a crear unos datasets distorsionados, donde figuran desproporcionadamente los colectivos racializados. Los algoritmos alimentados por estas series estad铆sticas asignan un mayor riesgo de comisi贸n de delitos a individuos y poblaciones racializadas o empobrecidas, afectando seriamente, entre otras cosas, a la asignaci贸n de zona de patrulla o las recomendaciones sobre la concesi贸n de libertad condicional a un sujeto. Los datos sesgados obtenidos por actuaciones policiales racistas derivan en nuevas decisiones algor铆tmicas racializadas, alimentando un c铆rculo vicioso, oculto tras el velo de la falsa neutralidad tecnol贸gica. Por tanto, la novedad es que las soluciones tecnol贸gicas punitivas han dejado de estar reducidas a la criminalizaci贸n de los migrantes en las fronteras externas de los pa铆ses, aplic谩ndose tambi茅n en el interior de los Estados, ahora contra las clases proletarias.

驴Algoritmos para la reafirmaci贸n de la fuerza del Estado o la uberizaci贸n de la polic铆a?

Para los reg铆menes neoliberales, como el del Estado espa帽ol, la pobreza o la mala conducta c铆vica son problemas a resolver mediante solucionismo tecnol贸gico y violencia organizada. En otras palabras: 鈥渓os 鈥solucionistas punitivos鈥 utilizan la vasta infraestructura de vigilancia del capitalismo digital para frenar nuestras actividades diarias y castigar cualquier transgresi贸n鈥. Un Estado fuerte, duro, represivo… es la forma m谩gica de los capitalistas para perpetuar una 鈥渆conom铆a de libre mercado鈥 en el neoliberalismo tard铆o. En este sentido, las tecnolog铆as son dispositivos culturales, fuentes de poder blando e inteligente, que permiten a esta f贸rmula m谩gica tener 茅xito.

驴Alguien puede imaginarse el peligro que tiene dise帽ar y desarrollar tecnolog铆as cuyo uso racista y punitivista ha sido ampliamente demostrado para solucionar problemas sociales y pol铆ticas en un momento en que los partidos filofascistas, al estilo Vox, est谩n adquiriendo cada vez m谩s peso, no ya en el Estado, sino en los distintos ayuntamientos y comunidades aut贸nomas? En un momento en que los Cuerpos de Seguridad del Estado se est谩n radicalizando en la direcci贸n de este partido, 驴alguien cree que es una buena idea dotarles de tecnolog铆a predictiva para continuar su agenda de culpar a los migrantes de problemas que provoca el capitalismo? Y, por 煤ltimo, 驴no son las fuerzas reaccionarias y las tecnolog铆as predictivas parte del mismo fen贸meno interno del capitalismo, que trata de asegurar su supervivencia?

 Discursos como el del 鈥渋nmigrante peligroso鈥, asentado en la prensa generalista, no s贸lo proporciona una justificaci贸n moral para vigilar a los migrantes o a las poblaciones pobres, sino que est谩 contribuyendo a cambiar el sistema tradicional de prevenci贸n del delito

Adem谩s de las consideraciones m谩s sociol贸gicas y relacionadas con la ciencia pol铆tica sobre el papel del Estado en el capitalismo espa帽ol, tambi茅n existen otras cuestiones en las que podemos fijarnos para delimitar los peligros de continuar usando tecnolog铆as racistas en un clima como el actual. Los estudios se帽alan que discursos como el del 鈥渋nmigrante peligroso鈥, extremadamente asentado en la prensa generalista, no s贸lo proporciona una justificaci贸n moral para vigilar a los migrantes o a las poblaciones pobres, sino que est谩 contribuyendo a cambiar el sistema tradicional de prevenci贸n del delito dentro del propio estado nacional. A su vez, la propaganda ultraderechista vincula la migraci贸n con crisis socioecon贸micas, des贸rdenes o incluso delitos, incrementando la vigilancia policial de los migrantes (especialmente, en las fronteras o en las abundantes redadas callejeras), pero tambi茅n cambia progresivamente el foco de inter茅s pol铆tico o burocr谩tico hacia acciones anticipatorias, imponiendo as铆 la l贸gica de precauci贸n, la anticipaci贸n y la preparaci贸n ante posibles ataques a la seguridad nacional. 

Esta tendencia no es perceptible en los discursos reaccionarios, sino que tambi茅n puede encontrarse de una manera m谩s sutil en las sesiones de tecnolog铆a predictiva sesgadamente punitivas celebradas con la Guardia Civil, la Polic铆a Nacional, Ertzaintza, Mossos d’Esquadra y Polic铆a Foral de Navarra. Tambi茅n en las declaraciones de las distintas patas de los Cuerpos de Seguridad. En Espa帽a, por ejemplo, la Polic铆a Nacional ha recurrido a los algoritmos para hacer m谩s eficiente y efectivo el trabajo de sus agentes, indicando que Veripol, una herramienta que detecta denuncias falsas de robos, tiene un 90% de efectividad. Las tecnolog铆as de este tipo tambi茅n se naturalizan y divulgan en art铆culos de prensa, sin ninguna referencia hist贸rica, para indicar que pueden predecir todo tipo de cr铆menes. Incluso desde las voces acad茅micas dentro del Consejo de Estado y la Secretar铆a de Estado de Seguridad se ha se帽alado 鈥渓os beneficios que puede reportar la aplicaci贸n de modelos predictivos en la gesti贸n de los recursos policiales鈥. Nos referimos al reci茅n ascendido a Coordinador de Innovaci贸n Tecnol贸gica y Ciberseguridad del Cuerpo Nacional de Polic铆a.

A pesar del manto de cientificidad y de neutralidad con la que se quieren cubrir estas aparentemente nuevas tecnolog铆as desde todos los frentes, lo cierto es que portan una carga pol铆tica excepcional, estando firmemente ancladas en la ideolog铆a clasista y racista que envolvi贸 el War on Drugs de los Estados Unidos. Por ejemplo, uno de los m谩s insignes abanderados del partenariado p煤blico-privado en materia policial en Espa帽a es el colaborador de Eurocop y actual Jefe de Polic铆a de Palma, Jose Lu铆s Carque. A esta privatizaci贸n, criminalizaci贸n de la pobreza y automatizaci贸n de la represi贸n se le ha venido a denominar, no sin cierta iron铆a, como de 鈥減articipaci贸n vecinal鈥 por medio de 鈥減olic铆a de proximidad鈥. Conocido como programa Proxpol, seg煤n la prensa levantina representa 鈥渦na nueva filosof铆a de intervenci贸n policial de acercamiento al ciudadano.鈥 

El modelo que proponen estos te贸logos de la polic铆a predictiva no es otro que de la polic铆a de Nueva York, uno de los cuerpos policiales m谩s se帽alados por su racismo y clasismo estructurales

No obstante, una lectura atenta de la propia documentaci贸n de Eurocop describiendo el programa Proxpol revela que el modelo que proponen estos te贸logos de la polic铆a predictiva no es otro que de la polic铆a de Nueva York, uno de los cuerpos policiales m谩s se帽alados por su racismo y clasismo estructurales. Huelga decir que este cuerpo es tambi茅n uno de los mayores clientes globales de compa帽铆as de software predictivo, cuyo uso, por cierto, no ha hecho sino acrecentar las denuncias por racismo.

Como vemos, las aplicaciones predictivas vienen a ofrecer soluciones digitales (esto es, f贸rmulas matem谩ticas) a problemas sociales, abriendo la puerta a la privatizaci贸n y mercantilizaci贸n de cruciales funciones p煤blicas. Tal y como hemos detallado, cuerpos de polic铆a de toda Espa帽a se han lanzado a implementar muchas de estas tecnolog铆as sin ni siquiera contar con una cierta claridad jur铆dica. Por mencionar algunos vac铆os que llaman la atenci贸n, no contamos con un procedimiento real que obligue a las administraciones a evaluar el impacto social de los algoritmos. Tampoco con una agencia que supervise, de seguimiento y eval煤e los algoritmos corporativos, usados por los cuerpos policiales. Desconocemos el alcance real de la extensi贸n de software predictivo y de reconocimiento automatizado entre los cuerpos de polic铆a. Ahora bien, contamos con otra serie de evidencias emp铆ricas que ni siquiera se han analizado en el debate p煤blico.

Como muestran los estudios criminol贸gicos, el 茅xito de los enfoques predictivos dependen en buena medida de la determinaci贸n y precisi贸n de las medidas represivas o preventivas policiales que siguen al pron贸stico algor铆tmico, no s贸lo de la tecnolog铆a utilizada. De este modo, la cabeza de un miembro de cualquier cuerpo policial, esas que como hemos visto en las 煤ltimas semanas han decidido dar palizas a civiles en funci贸n de su atuendo, se convierte en una caja negra.

Pongamos que las evaluaciones de riesgo de un sistema predictivo pueden ofrecer varios tipos diferentes de resultados, los cuales ser谩n aplicados en t茅rminos de equidad o de precisi贸n. De hecho, expertos en criminolog铆a sostienen que no puede haber ninguna soluci贸n t茅cnica que tenga en cuenta todas las opciones y dicotom铆as. Y menos si tenemos en cuenta la agencia de los agentes. En base a distintos hallazgos acad茅micos, tambi茅n puede afirmarse que la capacidad del software predictivo para neutralizar la subjetividad del trabajo policial suele pasar por alto las luchas en curso del oficial de polic铆a de turno para evitar que se uberice su trabajo y mediar as铆 en las predicciones. Esto significa que el polic铆a se reconoce como un trabajador, el cual es m谩s proclive a seguir 贸rdenes del patr贸n, superior en el cuerpo y con una ideolog铆a determinada, que a obedecer al algoritmo. Ahora bien, el hecho de obviar las predicciones algor铆tmicas sobre una decisi贸n policial no significa que un miembro del cuerpo pueda tener acceso a una cantidad enorme de datos y t茅cnicas de vigilancia personalizadas. De hecho, esta es la ventaja que ofrecen empresas como Eurocop, cuyo negocio principal es el software policial.

Por lo tanto, si bien algunas predicciones indican que las fuerzas policiales profesionales no tienen por qu茅 ser una caracter铆stica inevitable o permanente de los sistemas de justicia penal del futuro, cabe reflexionar sobre lo que podr铆a permitir que ambos (humano y m谩quina) coexistan pac铆ficamente, en lugar de aceptar la erosi贸n de los Cuerpos del Estado. Por otro lado, existen procesos hist贸ricos que, al menos en Espa帽a, nos indican que la polic铆a no ser谩 sustituida por un algoritmo. En todo caso, como alertan distintos estudios, asistiremos al auge de un estado cada vez m谩s gerencial, asentado sobre la vigilancia policial preventiva excesiva, que incluso puede amenazar la relaci贸n que la ley debe mantener con los sujetos jur铆dicos.

Ese proceso de dataficaci贸n y automatizaci贸n de la seguridad se est谩 desarrollando en la sombra. La inclusi贸n de tecnolog铆as predictivas, de reconocimiento biom茅trico, y de gesti贸n masiva de datos por parte de cuerpos policiales requiere la apertura de un debate p煤blico transparente, que lanze sin temor preguntas de relevancia. 驴Hasta qu茅 punto es legal o deseable que este tipo de tecnolog铆as pasen a formar parte del d铆a a d铆a de la polic铆a? 驴Se trata de medidas proporcionadas y adecuadas a la finalidad de estos cuerpos o por el contrario suponen una injustificada violaci贸n de derechos fundamentales y de delegaci贸n de funciones a un software privado? 驴En qu茅 medida queremos que agencias privadas suplanten importantes funciones p煤blicas? 驴Qui茅n supervisar谩 y monitorizar谩 el desenvolvimiento de estos algoritmos? 驴Ante qui茅n puede acudir la ciudadan铆a para ejercitar sus derechos ante posibles casos de discriminaci贸n algort铆mica a manos de la polic铆a? 驴Qui茅n ser谩 el responsable por las posibles consecuencias negativas de los mismos?

No someter estos desarrollos al escrutinio democr谩tico de la sociedad civil y de las instituciones es profundamente antidemocr谩tico y tremendamente peligroso. Aunque, teniendo en cuenta la historia de este pa铆s, 驴a qui茅n le puede extra帽ar semejante desenlace?

Fuente




Fuente: Lahaine.org