January 15, 2022
De parte de Nodo50
241 puntos de vista

Un hombre corre por la playa en Ceuta tras llegar a nado desde Marruecos. REUTERS

Todo empezó en 2017. Apple presentaba su iPhoneX, el primero que contaba con reconocimiento facial para desbloquear el dispositivo. Algunos se maravillaron y otros advirtieron de que la compañía estaba haciendo realidad la distopía que ya presentaba (y de la que nos alertaba) Black Mirror. La cosa no se quedó ahí: un año después, China empezó a usar en algunos territorios tecnología de reconocimiento facial para puntuar el comportamiento de la ciudadanía y decidir si podían o no acceder a créditos, buenas casas o colegios. Poco después, el uso securitista de esta tecnología llegó a Europa, concretamente a Reino Unido, donde la Policía instaló cámaras en algunos barrios para prevenir delitos y reconocer a los delincuentes que pasean por las calles. Y España está trabajando en el desarrollo de estas mismas cámaras para que ahora puedan ser capaces de reconocer a gente aun si lleva mascarilla

Esta deriva securitista no se puede entender al margen del auge del terrorismo en Europa y Estados Unidos. Fue en ese mismo 2017 cuando la Unión Europea acordó un proyecto de frontera inteligente pensado para “subsanar los problemas detectados desde la entrada en vigor del Acuerdo Schengen”. Esta frontera inteligente, que se aprobó en España en 2019 y costó 4,1 millones de euros, debe empezar a funcionar a finales de 2022 y servirá para controlar la llegada de todos los ciudadanos extracomunitarios, recogiendo sus datos biométricos y guardándolos entre tres y cinco años. No obstante, la pandemia ha alterado, una vez más, los planes. Después del cierre de fronteras global a raíz del confinamiento de 2020, los países fueron abriendo progresivamente sus puertas; pero no así Marruecos, que, hasta hoy, sigue teniendo cerrada la frontera con Ceuta y Melilla. 

La apertura de fronteras, que depende del país africano, se prevé inminente y preocupa a España. Por ello, ha creado una comisión interministerial (con Presidencia, Política Territorial, Interior, Asuntos Exteriores, Hacienda, Sanidad y el CNI) que se ha puesto manos a la obra para implementar la frontera inteligente en la frontera sur ya en los próximos meses. A raíz de la excepcionalidad de la pandemia, España ha aprovechado para pedir a la UE la derogación de un acuerdo que permite a los habitantes de las urbes marroquíes de Nador y Tetuán la entrada sin visado a las ciudades autónomas. Esta decisión, juntamente con la obligatoriedad de presentar un pasaporte de vacunación Covid en la frontera, harán de estas líneas divisorias una zona caótica. Por ello, España ha considerado oportuno implementar ya la tecnología de captación de datos biométricos.

¿Por qué es peligrosa una frontera inteligente? 

Esta decisión, que se hizo pública a finales del pasado año, ha sido recibida con preocupación por medio centenar de colectivos y asociaciones, que se han unido para publicar un manifiesto y “alertar de los peligros asociados al uso de la inteligencia artificial”. Entre estas organizaciones se encuentran algunas como los sindicatos manteros, Irídia, SOS Racismo, Oxfam Intermon y Lafede.cat, cuya técnica de digitalización, Judith Membrives, advierte de que “se justifican las fronteras inteligentes en base a políticas comerciales o de control sanitario, pero lo importante es que servirán para vulnerar derechos de las personas migrantes y demandantes de asilo, con consecuencias gravísimas”. 

Para Membrives, la recogida de datos biométricos “puede vulnerar el derecho a la intimidad, ya que van a ir a parar a una base de datos sobre la que no tenemos control” y alerta de que el uso de estos datos puede dar lugar a tremendas “vulnerabilidades derivadas de identificaciones erróneas”. Con esto, Membrives hace referencia a diversos estudios, como el que realizó el Instituto Nacional de Tecnología y Estándares de Estados Unidos, que afirma que las cámaras de reconocimiento facial fallan hasta en un 10% cuando se trata de rostros de personas no caucásicas. Estos datos resultan muy preocupantes para activistas y agrupaciones como Algorace –también firmante del manifiesto– porque, según afirma su co-coordinadora Paula Guerra, estas tecnologías fronterizas se usan como herramienta en la lucha contra el terrorismo. «Además de que van a servir para propagar todavía más el odio y la islamofobia, nos preocupa mucho que fallen tanto. Las consecuencias de que te acusen falsamente de terrorista pueden ser atroces para la vida de una persona”, asegura. 

Ante la posibilidad de tales errores, Paula Guerra considera que el uso de esta tecnología abre la puerta a gozar de un escudo moral y legal: “Se le va a echar la culpa a la máquina. Los gobiernos y funcionarios se van a escudar en la asepsia de las matemáticas que generan estos algoritmos para esconder políticas de racismo institucionalizado”. Por su parte, Judith Membrives añade que “cualquiera que defienda que los algoritmos son objetivos y que, por tanto, no pueden ser racistas, está tremendamente equivocado”. De hecho, considera que la neutralidad de la máquina está tan aceptada que “si tú crees una cosa y el algoritmo dice otra, es muy probable que dudemos de nosotros mismos antes que de la máquina”. 

Un vacío legal

La Unión Europea, consciente de los peligros de la aplicación creciente de esta tecnología, presentó en abril de 2021 su legislación sobre Inteligencia Artificial. En ella se establecen niveles de riesgo y se llega a prohibir el uso de determinados algoritmos de “riesgo inaceptable” como aquellos que inciten a la violencia o que puntúen el comportamiento de los ciudadanos –tal como hizo China–. En esta categoría de alto riesgo se incluyen también los mecanismos de “identificación biométrica remota”. Esto incluye las cámaras de reconocimiento facial, pero no es tan simple. 

La Comisión Europea establece que, “en principio”, el uso de estas cámaras estará prohibido en el espacio público y en directo. Es decir, que no se podrán usar para prevenir delitos –tal como hizo Reino Unido–. Pero también se establecen excepciones como “buscar un niño desaparecido” o “prevenir una amenaza terrorista”. Igualmente quedan excluidos de las prohibiciones los usos militares de la Inteligencia Artificial. Ante tantas excepciones, la European Digital Rights (EDRi) aplaude la regulación, pero asegura que “no va lo suficientemente lejos porque muchos de los usos dañinos de la captación de datos biométricos no están prohibidos, tales como el control de la migración o la categorización por raza”, aseguran. 

Las fronteras entran en el ámbito de seguridad nacional y, si a esto le sumamos la prevención de posibles ataques terroristas, nos sale “un posicionamiento claro de los Estados hacia políticas racistas y controladoras». «Por ello, creemos que es el momento de presionar”, afirma Judith Membrives, en referencia al comunicado. En él, se reclama poner fin al vacío legal y abolir el proyecto de fronteras inteligentes de la UE. Además, en vista de que la Inteligencia Artificial ha venido para quedarse, estos colectivos reclaman también auditorías y control externo de los códigos y algoritmos que controlen estas tecnologías. “Necesitamos transparencia y participación de los colectivos afectados y de defensa de los derechos humanos para ver si la aplicación de estas herramientas es coherente con los valores que tanto defiende la UE”, sentencia Membrives. 




Fuente: Lamarea.com