October 19, 2021
De parte de Grup Antimilitarista Tortuga
184 puntos de vista


La creación de robots o sistemas robóticos de uso militar puede dejar en manos de algoritmos decisiones sobre a quién atacar, o incluso matar. Que una máquina tome esta decisión está en contra de la dignidad humana, por lo que estas nuevas armas nos abren a un debate jurídico y ético.

Tica Font

Centre Delàs d’Estudis per la Pau

Seguramente los pensamientos los tendremos centrados en la pandemia, las secuelas y los cambios que se producirán o que se tendrían que producir; pero también es momento para reflexionar sobre algunos temas que afectan a la dignidad humana, y en concreto podemos reflexionar sobre el diseño de nuevas armas, las armas robóticas que pueden tomar la decisión de matar sin la intervención humana.

Los robots son máquinas programables o auto-controlables que pueden llevar a cabo tareas complejas de manera automática y repetitiva (todos hemos visto robots en la industria de coches). Cabe señalar que los robots no tienen por qué ser objetos materiales; podemos encontrar robots informáticos que son piezas de software (aplicaciones o programas), por ejemplo los chat bots o social bots, un ejemplo de estos son programas que envían tuits en la red haciéndose pasar por personas reales.

Esta revolución está siendo incorporada para el uso militar, se están creando robots o sistemas robóticos de uso militar. Un ejemplo serían los sistemas de defensa antimisiles; un sistema complejo de radares y computadoras que detectan misiles, cohetes o aviones y los ordenadores ponen en marcha un sistema de ataque que prioriza, selecciona y ataca de manera automática esta amenaza. Este sería un sistema robótico de arma automática. En este sistema el algoritmo de toma de decisiones sigue unas reglas programadas.

Si el sistema de decisiones no se basa en reglas determinadas, sino en un modelo de la realidad obtenido con redes neuronales de aprendizaje profundo (forma parte de la Inteligencia Artificial) diremos que el sistema es autónomo, las reglas no están programadas, el propio sistema aprende por sí mismo, a partir de analizar millones de informaciones (big data). Hay cinco tareas claves en estas armas: buscar (a los posibles enemigos), definir objetivos, hacer el seguimiento del objetivo, decidir atacar, y atacar. Lo que llamamos sistemas de armas autónomos se caracterizan por no tener ningún tipo de intervención humana en estas cinco tareas y en la toma de decisiones.

Estas nuevas armas están en fase de investigación y producción, todavía no se dispone de armas totalmente autónomas, pero ya existen sistemas de armas dotados de muchos grados de autonomía y en algunos casos tienen desconectada la decisión de matar, que ha quedado delegada en un humano.

Estos nuevos sistemas de armas autónomas nos sitúan en un escenario de deshumanización en delegar en una máquina la decisión de quién debe vivir o quién debe morir. Que una máquina tome esta decisión está en contra de la dignidad humana. Estas nuevas armas nos abren a un debate jurídico y ético. El debate jurídico se centra en si estos sistemas de armas autónomas pueden cumplir los tres pilares del Derecho Internacional Humanitario: por un lado, el principio de responsabilidad: si se produce un error o un crimen de guerra ¿quién es el responsable? Las víctimas ¿a quién pueden acusar? Por otro, el principio de proporcionalidad que analiza si los daños causados ​​son proporcionales a las ganancias militar o si los daños a civiles son excesivos. Finalmente, se atenta contra el principio de distinción, que obliga a distinguir entre combatientes y no combatientes, si puede distinguir entre un civil con miedo o un enemigo amenazante. En este debate jurídico nos encontramos con posiciones de los que piensan que la Inteligencia Artificial aún no ha podido responder a este reto de que los sistemas de armas autónomos estén programados para respetar el Derecho Internacional y el Derecho Internacional Humanitario, pero que es cuestión de tiempo y que hay que dejar continuar con la búsqueda. Otros alegan que, si tenemos presente el debate sobre las armas nucleares y que no ha habido suficiente consenso para ilegalizarlas o para comprometerse con eliminarlas, es necesario que no lleguemos a la misma situación: primero las creamos, después descubrimos el monstruo que hemos creado y luego no nos ponemos de acuerdo para ilegalizarlas. Por esta razón hay muchas organizaciones civiles, de científicos y de académicos que plantean considerarlas ilegales y prohibir estas nuevas armas antes de que existan. El sentido común nos invita, cuando no hay consenso, a aplicar el principio de precaución, y parar antes de que el daño sea irreversible, por lo tanto, prohibir el diseño y fabricación de armas autónomas.

Los defensores de las armas totalmente autónomas nos recuerdan que en situaciones de conflicto armado los humanos cometen vilezas como violar a mujeres o torturar a humanos, y que causarían menos bajas; pero también es cierto que las máquinas o los robots no estarán dotados de sentido común, intuición, lástima, compasión o culpabilidad, que son emociones que nos retraen a los humanos de cometer barbaridades. Podemos continuar con el debate de si la Inteligencia Artificial puede o no puede reproducir sentimientos o la ética humana en las máquinas. Muchos científicos y especialistas en Inteligencia Artificial creen que no es posible.

Estos sistemas de armas autónomas nos sitúan en un escenario de deshumanización. Es cierto que los humanos somos falibles, es cierto que los humanos podemos cometer atrocidades, pero esta es la característica esencial de los seres humanos. Decisiones sobre la vida o la muerte no pueden radicar en las máquinas, deben recaer en otro ser humano. La Inteligencia Artificial entrará a formar parte de nuestra vida pero este avance científico solo puede hacer posible un mundo mejor si va unido al bien común, si pone la dignidad humana y el cuidado del planeta en el centro.


Fuente: https://www.elsaltodiario.com/plane…




Fuente: Grupotortuga.com