April 13, 2021
De parte de Grup Antimilitarista Tortuga
400 puntos de vista


Ver tambi茅n: 隆Que no falte de n谩! Ahora tambi茅n hay fil贸sofos empotrados en el ej茅rcito


La irlandesa Laura Nolan tiene un m谩ster en Ingenier铆a de Programaci贸n y una

especializaci贸n en Inteligencia Artificial (IA) y m谩quinas inteligentes.

Desde 2013 trabaj贸 en la sede central de Google en Europa y en 2017 le ofrecieron un puesto para ingenieros seleccionados dentro de un grupo de alta tecnolog铆a para un proyecto puntero.

Una prometedora carrera por delante la esperaba en una de las empresas m谩s influyentes y famosas del mundo. Sin embargo abandon贸 la empresa en 2018 a cambio de nada. Ella lo relata as铆:

Lo que Google me pidi贸 hacer a finales de 2017 era contribuir a la modificaci贸n de sus sistemas p煤blicos en la nube, para adaptarlos a los requerimientos de proceso de datos secretos del gobierno (de Estados Unidos, EEUU).

Concretamente los datos eran de V铆deos de 脕rea Amplia (WAMI, por sus siglas en ingl茅s), es decir, grabaciones a茅reas desde un dron como el Reaper (la Parca 隆que lo tiene el Ej茅rcito del Aire espa帽ol!) o el Predator (depredador 隆que tambi茅n lo tiene!).

Se trata del proyecto piloto Maven, del Ministerio de Defensa, con el fin de aprovechar la tecnolog铆a del sector privado que no ten铆a su Ej茅rcito. La idea motriz de Maven parte de que el Ej茅rcito de EEUU generaba m谩s v铆deos de vigilancia mediante drones del que puede analizar por medio de sus empleados.

Lo que quer铆a es desarrollar un sistema de ordenadores que tomen decisiones autom谩ticamente a partir de im谩genes importantes, o sea, personas y veh铆culos, de forma que rastreen sus movimientos en el tiempo y en el espacio. Esto incluye incluso una funci贸n de gr谩fico social.

Google mantuvo el contrato de Maven muy discretamente apartado del p煤blico y durante meses s贸lo un pu帽ado de personas lo conoci贸, incluso no lo revelaron a las que como yo fuimos invitadas a participar en el proyecto.

Maven es un Proyecto militar de vigilancia, un eslab贸n de la 鈥榗adena de matar鈥 del ej茅rcito: identificaci贸n del objetivo, env铆o de la fuerza para atacarlo, decisi贸n y orden del ataque y finalmente su destrucci贸n. Para una empresa cuya misi贸n manifestada es 鈥渙frecer acceso a informaci贸n imparcial, rigurosa y gratuita a los que conf铆an en nosotros鈥, esto supone una clara desviaci贸n de aqu茅lla.

Maven tiene implicaciones 茅ticas obvias que me preocupaban profundamente. Me dispuse a aprender m谩s acerca de los drones y sus impactos sobre las personas y sus comunidades, por ejemplo, los ataques de drones estadounidenses en Pakist谩n.

En segundo lugar las organizaciones de derechos humanos han condenado la forma en que el Ej茅rcito de EEUU usa los drones para atacar. Matan a muchos civiles, el control del gobierno es inexistente o d茅bil y no hay transparencia sobre sus impactos y la toma de decisiones. Hay razones poderosas para creer que su uso alienta el terrorismo.

Conclu铆 que trabajar con la tecnolog铆a de Google en relaci贸n con Maven me har铆a responsable en la muerte de civiles. Estuve varias semanas sin dormir y tuve problemas estomacales por primera vez en mi vida. Me dirig铆 a los responsables de los niveles directivos m谩s altos a los que pude llegar en ambas orillas del Atl谩ntico y les hice saber que si este proyecto se manten铆a, dejar铆a Google. Habl茅 con colegas y firm茅 una carta abierta que se difundi贸 ampliamente en los medios.

En el verano de 2018 abandon茅 Google. Sus ejecutivos demostraron que est谩n dispuestos a firmar en secreto contratos muy dudosos como el Proyecto Maven. En conciencia no pod铆a continuar como empleada de Google cuando no ten铆a la certeza de que mi trabajo no iba a ser usado para violar los derechos humanos o incluso matar.

Despu茅s dej茅 de lado la ingenier铆a de programaci贸n durante un tiempo. Empec茅 un voluntariado con la Campa帽a para la Abolici贸n de Robots Asesinos, que pide la prohibici贸n de las armas inteligentes.

Ahora utilizo mis conocimientos t茅cnicos sobre sistemas complejos y fiabilidad de programas para explicar algunos problemas que probablemente veremos cuando entren en funcionamiento este tipo de armas: probablemente sean impredecibles, cometer谩n errores y causar谩n v铆ctimas civiles.

Actualmente hay gran inter茅s en las cuestiones 茅ticas de la tecnolog铆a y tambi茅n debate constante en los medios sobre todo tipo de cuestiones desde la privacidad a la toma de decisiones aut贸nomas y al margen de error. Todo esto est谩 bien, pero es preciso tener la seguridad de que hay un cambio real duradero.

Los que trabajamos en tecnolog铆a tenemos que empezar a reflexionar acerca de nuestra responsabilidad profesional respecto del bien superior y sobre las compa帽铆as en las que trabajamos. Tenemos que formarnos acerca del da帽o que la tecnolog铆a puede causar.

A diferencia de otras profesiones con una trayectoria m谩s larga, nosotros no tenemos formaci贸n continua que se ocupe de los dilemas 茅ticos, tenemos que obtenerla por nuestra cuenta.

Organic茅 en Dubl铆n, donde vivo, un grupo cuyo objetivo se centra en la 茅tica de la tecnolog铆a. Tambi茅n creo que los ingenieros de programaci贸n tendr铆amos que formar parte de una organizaci贸n profesional o sindicato, es decir, grupos que tienen un poder pol铆tico que a las personas individuales nos falta.

Hace veinte a帽os, cuando iba a la universidad, los ordenadores que hab铆a en los puestos de trabajo y quiz谩s en casa, se encend铆an unas pocas horas a la semana.

Nos mostraban la n贸mina y la previsi贸n del tiempo. Hoy hacen mucho m谩s y los llevamos encima casi todo el d铆a. 脡stos deciden qui茅n consigue una entrevista de trabajo, qui茅n obtiene beneficios sociales, qui茅n recibe tal propaganda pol铆tica y quiz谩s qui茅n resulta muerto por el ataque de un dron.

Con este curr铆culum digno de cum laude, Laura Nolan fue invitada al programa de la BBC 驴Son los 鈥渞obots asesinos鈥 el futuro de la guerra? (Are 鈥榢iller robots鈥 the future of warfare?) que apareci贸 el 5 de abril en Grupo Tortuga. A continuaci贸n sigue su opini贸n sobre este asunto.

Parece que algunos tienen la visi贸n de que los robots sustituir谩n a los hombres y entonces las guerras se har谩n sin derramamiento de sangre, pero esto es una utop铆a.

M谩s bien es lo contrario: es un futuro en el que la mayor parte del tiempo se enviar谩n m谩quinas contra seres humanos causando considerable da帽o, sufrimiento y terror.

El principal problema en este asunto es que los ordenadores piensan diferente a los seres humanos. 脡stos emiten juicios, es decir, trabajan con situaciones de grises variables y problemas confusos, mientras que los ordenadores hacen c谩lculos, es decir, trabajan con algoritmos, reglas, sumas, bases de datos, hechos concretos.

En consecuencia, en un campo de batalla, especialmente en zonas de combate donde hay civiles, la situaci贸n se vuelve altamente compleja: aparecen amenazas imprevisibles y complicadas decisiones que requieren un juicio.

En una guerra todo se vuelve altamente impredecible y los seres humanos son muy adaptativos, pero los programas inform谩ticos no lo son.

En una guerra cada acci贸n b茅lica es diferente a las dem谩s: se intenta enga帽ar al enemigo, se dificulta su identificaci贸n mediante el camuflaje, puede haber civiles por medio, etc.

Hay tantas variables en juego, que es preciso poner a prueba los procedimientos, pero no una vez, sino de forma exhaustiva, en cada situaci贸n, en cada lugar.

Los coches aut贸nomos se someten a millones de pruebas. En 2018 un coche aut贸nomo de Uber no fue capaz de reconocer a una mujer en bicicleta como una situaci贸n de peligro y result贸 muerta por el atropello que sufri贸.

En comparaci贸n, la situaci贸n en una batalla presenta una lista casi infinita de situaciones complicadas. Por tanto, al no haber predictibilidad, resulta imposible realizar infinitas pruebas.

En consecuencia esto nos lleva a un problema 茅tico profundo y a optar por la prohibici贸n de esos robots.

Otro problema es el de la ausencia de responsabilidad por parte de los que los usan. 驴Qui茅n se hace responsable?

Supongamos una acci贸n en la que un robot comete lo que se conoce como un crimen de guerra. Si lo hubiese cometido un soldado de carne y hueso, 茅ste ser铆a el responsable y por tanto podr铆a ser juzgado por ello. Sin embargo, si es un robot no hay nadie a quien pedir responsabilidades, no al comandante de la fuerza, tampoco al dise帽ador del robot.

Tras haber escuchado horrorizado a los dos primeros entrevistados, La intervenci贸n de Laura aporta una lecci贸n sobre los robots asesinos concisa, directa, clara, esperanzadora, valiente y personalmente respaldada por su experiencia.

Claramente Laura puede dar lecciones de programaci贸n de forma sobresaliente, pero las que da como fil贸sofa de la 茅tica -en Google, en la BBC y en la p谩gina web en la que participa- son impagables.

Gracias por tu actitud y determinaci贸n.

Si vis pacem voca programmator, quod philosophus obliviscaris


Foto: Base de la Fuerza A茅rea de Creech, cerca de Indian Springs, Nevada, EEUU




Fuente: Grupotortuga.com