January 17, 2022
De parte de Asociacion Germinal
243 puntos de vista

Por Yassamine Mather

En diciembre de 2021, en una conferencia sobre inteligencia artificial, el profesor Stuart Russell advirti贸 sobre las armas de inteligencia artificial como una amenaza para la humanidad. Russell ha pedido en varias ocasiones una moratoria internacional sobre las armas letales aut贸nomas: 鈥淟a matanza de humanos nunca debe automatizarse, bas谩ndose en f贸rmulas algor铆tmicas鈥. Durante su conferencia, Russell dijo: 鈥淭al deshumanizaci贸n de la toma de decisiones de vida o muerte por parte de los sistemas de armas aut贸nomos debe prohibirse en todo el mundo鈥. 1Una de las razones por las que Russell est谩 preocupado es porque las armas letales de IA ya no son ciencia ficci贸n: son 鈥減eque帽as, baratas y f谩ciles de fabricar鈥. Seg煤n 茅l, este tipo de armas se anuncian en internet y se pueden comprar hoy en l铆nea.Los expertos en inteligencia artificial a menudo se refieren a ejemplos particulares de tales sistemas, entre ellos el Harpy del gobierno israel铆 (AIA Harop), un dron de ala fija de 3鈥5 metros de largo capaz de transportar 25 kilos de explosivos. Se puede volar de forma remota o se puede ejecutar de forma aut贸noma despu茅s de que se especifique un objetivo humano. Hay rumores de que India y Azerbaiy谩n han comprado drones Harop y, de hecho, Israel Aerospace Industries se jact贸 el a帽o pasado de que se hab铆an vendido 鈥渃ientos鈥 de estos drones. Harpy est谩 programado para volar a un 谩rea geogr谩fica espec铆fica, identificar un objetivo humano en particular (basado en t茅cnicas de reconocimiento facial) y matarlo, utilizando una ojiva altamente explosiva apodada Fire and Forget (disparar y olvidarse).

Tambi茅n conocemos al fabricante de armas turco, STM, que en 2017 revel贸 su producci贸n del Kargu, un dron asesino totalmente aut贸nomo del tama帽o de una pelota de rugby. Los drones Kargu tambi茅n se basan en el reconocimiento de im谩genes y rostros para atacar a sus v铆ctimas. Se cree que tales drones se usaron en Libia en 2020 para atacar selectivamente objetivos. Una vez m谩s, seg煤n Russell, 鈥淪TM es un fabricante relativamente peque帽o en un pa铆s que no es l铆der en tecnolog铆a. As铆 que hay que asumir que hay programas en marcha en muchos pa铆ses para desarrollar estas armas鈥.

La mayor铆a de las armas de IA incorporan una serie de tecnolog铆as de IA, incluida la percepci贸n visual, de sonido y el reconocimiento facial, la comparaci贸n en grandes bases de datos, as铆 como herramientas de toma de decisiones para realizar una variedad de operaciones militares a茅reas, terrestres y mar铆timas, todo esto independiente de la intervenci贸n o incluso la supervisi贸n humana.

Adem谩s est谩 la categor铆a de 鈥榤unici贸n de ataque merodeadora鈥 (LAM loitering attack munitions). Estas armas est谩n preprogramadas para merodear en busca de objetivos (en otras palabras, buscan aviones, barcos o tanques enemigos) para ser identificados por sensores que detectan el radar de defensa a茅rea del enemigo. Los LAM usan tecnolog铆a de inteligencia artificial para derribar proyectiles atacantes, reaccionan mucho m谩s r谩pido que cualquier operador humano y pueden permanecer en vuelo (o merodear) durante per铆odos de tiempo mucho m谩s largos.

El Harpy II de Israel es un LAM que puede permanecer en vuelo hasta seis horas, y tambi茅n hay una serie de armas LAM totalmente aut贸nomas desarrolladas por el Reino Unido, China, Alemania, India, Israel, Corea del Sur, Rusia鈥

En una reciente conferencia de la ONU, celebrada en diciembre de 2021 en Ginebra, qued贸 claro que varios gobiernos, incluidos EEUU, Israel, Rusia, el Reino Unido y Australia, est谩n en contra de la prohibici贸n de tales armas. Sorprendentemente, China parece estar a favor de su prohibici贸n, y el embajador chino en la Conferencia de desarme de NNUU, Li Song, dijo que la aplicaci贸n de la tecnolog铆a de IA puede desempe帽ar un papel importante en el futuro de la guerra, con la posibilidad de causar grandes crisis humanitarias: 鈥渉acen falta reglas para que no se conviertan en un instrumento de guerra o hegemon铆a鈥. 2

Por supuesto, China es muy consciente de la intransigencia de EEUU en este tema y simplemente hace tales afirmaciones para mantener la 鈥榮uperioridad moral鈥. De hecho, ya sabemos que los drones a茅reos y mar铆timos de China est谩n conectados a redes neuronales complicadas, que podr铆an monitorear y controlar las aguas del Mar del Sur de China. Se podr铆an usar para impedir en el futuro la 鈥榣ibertad de navegaci贸n鈥 estadounidense en esta zona. Pero est谩 claro que la administraci贸n Biden no apoyar谩 una prohibici贸n legalmente vinculante del desarrollo de m谩quinas de guerra aut贸nomas no tripuladas (o 鈥榬obots de guerra asesinos鈥), favoreciendo en cambio un 鈥榗贸digo de conducta鈥 no vinculante.

Peligros

Todos conocemos los errores y los posteriores desastres causados 鈥嬧媝or los drones operados por humanos, por lo que es f谩cil imaginar c贸mo las acciones de los 鈥榬obots asesinos鈥 aut贸nomos pueden salirse de control.

Entre los expertos en 茅tica de IA que han expresado una considerable cautela sobre tales dispositivos se encuentra John Tasioulas, profesor de Oxford y director del Instituto de 脡tica aplicada a la IA, quien tuite贸 que la postura de la administraci贸n Biden era 鈥渢riste y poco sorprendente鈥. 3

El video Slaughterbots de 2017 brinda una representaci贸n precisa de armas peque帽as preparadas para utilizar IA: drones del tama帽o de un p谩jaro que apuntan a una v铆ctima espec铆fica o a un conjunto de v铆ctimas. Est谩n programados para disparar una peque帽a cantidad de explosivos al cr谩neo del objetivo. La defensa o interceptaci贸n de armas tan peque帽as es muy dif铆cil.

Hoy tales armas son razonablemente baratas y ya no son ciencia ficci贸n. La pr贸xima etapa en su desarrollo es, al parecer, 鈥榚nse帽arles鈥 c贸mo formar un ej茅rcito y trabajar en equipo. En esta y otras aplicaciones de IA, el comportamiento grupal de hormigas y abejas se estudia y aplica a dispositivos aut贸nomos, para que act煤en en coordinaci贸n entre s铆. Imagine unos cientos de miles de estos dispositivos atacando una ciudad. En teor铆a podr铆an matar a la mitad de los habitantes sin da帽ar la infraestructura.

Se dice que los robots de IA cuestan mucho menos que contratar a un asesino y que no habr铆a que sacrificar vidas humanas (no hay necesidad de terroristas suicidas). Pero est谩 el complicado tema de la rendici贸n de cuentas. 驴Qui茅n es responsable? 驴La persona que dio la orden, la que program贸 el robot, el fabricante? Todo esto crea un campo minado, en lo que respecta al derecho internacional.

Seg煤n Stuart Russell,

鈥淟as capacidades de las armas aut贸nomas estar谩n m谩s limitadas por las leyes de la f铆sica, por ejemplo, por restricciones de alcance, velocidad y carga 煤til, que por cualquier deficiencia en los sistemas de inteligencia artificial que las controlan. Es concebible el despliegue de estas plataformas por millones, cuya agilidad y letalidad dejar谩n a los humanos completamente indefensos鈥. 4

Si tales predicciones son correctas, las armas de IA podr铆an ser m谩s peligrosas que la amenaza que representan las armas nucleares, que las regulaciones internacionales, incluido el Tratado de no proliferaci贸n, supuestamente limitan. Aunque Israel no forma parte, todos los dem谩s pa铆ses con armamento nuclear se han adherido al TNP y se enfrentan a controles e inspecciones peri贸dicas. Adem谩s, las armas nucleares supuestamente son solo un elemento de disuasi贸n, porque todo el mundo sabe que la guerra nuclear entre las principales potencias nucleares conducir铆a inevitablemente a la destrucci贸n mutua.

Cuando se trata de armas de IA, ha habido varias propuestas para evitar un desastre potencial. Por ejemplo, algunos expertos en IA y asesores militares han sugerido usar alg煤n tipo de soluci贸n de 鈥榝reno humano en el circuito鈥. Por supuesto, sabemos que la toma de decisiones humanas no ha salvado la vida de v铆ctimas inocentes de los drones en Afganist谩n o en el Medio Oriente. Sin embargo, para los fervientes defensores de las armas de IA, la principal ventaja de sus nuevos juguetes letales proviene de la velocidad y la supuesta precisi贸n de dichos dispositivos que funcionan sin intervenci贸n humana.

Otros han propuesto 鈥榬egulaciones鈥 para controlar las armas de IA, pero esto no ha ido muy lejos. Para empezar, no est谩 muy claro qu茅 se puedan catalogar como un arma totalmente automatizada. Seg煤n Heather Roff, de la Facultad de Derecho de la Universidad Case Western Reserve, el armamento aut贸nomo de IA consiste en 鈥渟istemas de armas, capaces de aprender y adaptar su 鈥榝uncionamiento en respuesta a circunstancias cambiantes en el entorno en el que [est谩n] desplegados鈥, as铆 como como capaces de tomar decisiones de ataque por s铆 mismos鈥. 5

Algunos acad茅micos utilizan un umbral mucho m谩s bajo para clasificar como un arma aut贸noma cualquier sistema de armas capaz de causar la muerte sin supervisi贸n humana, mientras que el Ministerio de Defensa brit谩nico tiene otra definici贸n:

鈥淎quellos sistemas que son capaces de comprender la intenci贸n y direcci贸n de alto nivel. A partir de esta comprensi贸n y su percepci贸n del entorno, dicho sistema es capaz de tomar las decisiones adecuadas para lograr el estado deseado. Es capaz de decidir un curso de acci贸n, a partir de una serie de alternativas, sin depender de la supervisi贸n y el control humanos; sin embargo, la implicaci贸n humana con el sistema a煤n puede estar presente. Si bien la actividad general de una aeronave aut贸noma no tripulada ser谩 predecible, es posible que las acciones individuales no lo sean鈥. 6

Est谩 adem谩s la cuesti贸n de qui茅n supervisar铆a las regulaciones sobre las armas de IA. Se dice que solo se permitir铆a que los robots luchen contra robots, y por lo tanto se evitar铆an los 鈥渄a帽os colaterales鈥. Pero es dif铆cil imaginar que los Estados imperialistas se sometan a tales regulaciones. Durante una guerra, el objetivo suele ser infligir el m谩ximo da帽o, que incluye bajas humanas.

驴Prohibici贸n?

Una propuesta, apoyada por muchos acad茅micos y cient铆ficos, es el llamamiento de la Campa帽a para Detener los Robots Asesinos de prohibir todas las armas de IA. No hay nada nuevo en tal petici贸n: bi贸logos, qu铆micos y f铆sicos han hecho campa帽a durante mucho tiempo contra las armas biol贸gicas, qu铆micas y nucleares. Sin embargo, muchos Estados, incluidos EEUU, Reino Unido y Rusia, se oponen a tal prohibici贸n, alegando que es prematura en relaci贸n con el armamento de IA.

En febrero de 2021, la Comisi贸n de Seguridad Nacional de Inteligencia Artificial de EEUU apoy贸 el desarrollo de armas aut贸nomas impulsadas por software de IA. Robert Work, ex subsecretario de defensa y miembro del panel, afirm贸 que las armas aut贸nomas cometer铆an menos errores que los humanos, por ejemplo, al reducir las bajas causadas por la identificaci贸n err贸nea de objetivos.

Entonces, 驴cu谩l es la situaci贸n actual en esta materia? 驴Qui茅n est谩 ganando esta guerra hasta ahora?

En la carrera armamentista actual, China no es el desvalido y hay predicciones de que pronto superar谩 a los EEUU. Ello se debe principalmente a su superioridad en lo que respecta a los datos necesarios para alimentar los algoritmos de aprendizaje autom谩tico. En 2018, el presidente chino, Xi Jinping, ya enfatiz贸 la importancia de los 鈥済randes datos鈥, el almacenamiento en la nube y las comunicaciones cu谩nticas entre las 鈥溍eas m谩s avanzadas y prometedoras para la fusi贸n civil-militar鈥, y el gobierno chino proporcion贸 una gran cantidad de fondos para estos proyectos.

Los cient铆ficos que abogan por la prohibici贸n de las armas de IA se帽alan lo siguiente:

*Esta tecnolog铆a tendr谩 un efecto negativo en el futuro de la humanidad porque aumentar谩 las incertidumbres que plantean las amenazas existentes, como el armamento nuclear; transformar谩 la naturaleza de estas amenazas e introducir谩 otras nuevas.

*La perspectiva de fusionar la IA con los sistemas de alerta temprana comprimir谩 y reducir谩 dr谩sticamente el marco de tiempo para la toma de decisiones.

*La ubicuidad y la disminuci贸n de los costes de los drones significar谩n que estas armas seguir谩n proliferando a una velocidad sin precedentes. En La era de la IA: y nuestro futuro humano, Eric Schmidt advierte sobre los peligros de los sistemas de IA de aprendizaje autom谩tico, argumentando que se est谩n desarrollando tan r谩pido que podr铆an reaccionar a los misiles hipers贸nicos disparando armas nucleares antes de que cualquier humano tome la decisi贸n.

*Las armas aut贸nomas complicar谩n la capacidad de los Estados para anticipar, atribuir y contrarrestar de manera efectiva futuros ataques aut贸nomos.

En la situaci贸n actual, es f谩cil ver c贸mo los pa铆ses m谩s pobres ya han perdido cualquier posibilidad de hacer frente a tales amenazas. Si a EEUU no le gusta la pol铆tica exterior de alg煤n 鈥楨stado canalla鈥, no necesitar谩 organizar un golpe: en su lugar, puede desplegar armas de IA con algoritmos de reconocimiento facial para eliminar a todos los miembros 鈥榓ntip谩ticos鈥 de ese gobierno.

En agosto de 2018, el presidente de Venezuela, Nicol谩s Maduro, afirm贸 que hab铆a sobrevivido a un intento de asesinato con drones explosivos. Aunque esto no se puede confirmar de forma independiente, las im谩genes de su discurso en un evento que marcaba el 81 aniversario del Ej茅rcito nacional muestran al presidente de repente mirando hacia arriba, parece sobresaltado, y decenas de soldados huyen. Venezuela culp贸 a elementos opositores en EEUU de instigar 鈥渦n complot de derechas鈥.

Es f谩cil imaginar una situaci贸n en la que, en lugar de aplicar sanciones, EEUU emplee armas de inteligencia artificial para destruir la infraestructura civil y militar de un 鈥淓stado canalla鈥, mientras afirma que no hay 鈥渄a帽os colaterales鈥.

En diciembre de 2021, un robot de IA, el Megatron Transformer, llen贸 los titulares cuando se utiliz贸 como orador en un debate en Oxford Union, en una moci贸n titulada: 鈥淓sta casa cree que la IA nunca ser谩 茅tica鈥. El Megatron lleg贸 a una conclusi贸n muy interesante:

鈥淟a IA nunca ser谩 茅tica. Es una herramienta y, como toda herramienta, se usa para bien y para mal. No existe una buena IA, solo humanos buenos y malos. Nosotros [las IA] no somos lo suficientemente inteligentes como para hacer que la IA sea 茅tica. No somos lo suficientemente inteligentes como para hacer que la IA sea moral鈥 Al final, creo que la 煤nica forma de evitar una carrera armamentista de IA es no tener IA en absoluto. Esta ser谩 la 煤ltima defensa contra la IA鈥. 7

Notas

  1. www.ft.com/content/03b2c443-b839-4093-a8f0-968987f426f4 . 鈫╋笌
  2. www.scmp.com/news/china/military/article/3159704/time-set-global-rules-ai-warfare-china-tells-un-weapons-review . 鈫╋笌
  3. www.independent.co.uk/news/world/americas/us-politics/biden-killer-war-robots-ban-b1972343.html . 鈫╋笌
  4. www.nature.com/articles/521415a . 鈫╋笌
  5. core.ac.uk/download/pdf/214077458.pdf . 鈫╋笌
  6. www.gov.uk/government/publications/unmanned-aircraft-systems-jdp-0-302 . 鈫╋笌
  7. www.bbc.co.uk/news/technology-59687236 . 鈫╋笌

Fuente: https://weeklyworker.co.uk/worker/1378/rise-of-the-killer-machines/

Traducci贸n: Enrique Garc铆a

sinpermiso.info/textos/el-ascenso-de-los-robots-asesinos

Share



Fuente: Asociaciongerminal.org