Según las tres leyes de la robótica del autor de ciencia ficción Isaac Asimov, un robot no puede hacer daño a un ser humano debe obedecer las órdenes dadas por ellos y debe proteger su propia existencia, en la medida en que esta no ponga en peligro vidas humanas. Sin embargo, el cine, la literatura y la televisión ha sido testigos de cómo las inteligencias artificiales terminan poniendo estas leyes en contra de la humanidad.

Nave autopilotada Phantom Rayand X-47B Nave | Northrop Grumman Corp.

– Nave autopilotada Phantom Rayand X-47B Nave | Northrop Grumman Corp. –

Para el colectivo Stop Killer Robots esta situación va más allá de la ciencia ficción. Por ello un colectivo conformado por 22 organizaciones sin ánimo de lucro en el mundo ha lanzado una campaña para prevenir que los gobiernos continúen desarrollando la tecnología robótica aplicada al campo de batalla.

Human Rights Watch es el coordinador de la Campaña que pide la prohibición preventiva y exhaustiva sobre la producción de armas completamente autónomas. El objetivo es conseguir la firma de un tratado internacional y la implementación de leyes nacionales y otras medidas que oficialicen la prohibición mundialmente. “Creo que la sociedad civil tiene el derecho y la obligación de actuar cuando consideran que el gobierno o los militares se están comportando de forma incorrecta en su nombre”, ha señalado Jody Williams ganadora del Premio Nobel de Paz por la campaña contra la prohibición de las minas terrestres.

> Pronto serán una realidad

Las armas totalmente autónomas aún no ha sido completamente desarrolladas y las grandes potencias, como Estados Unidos, no han tomado la decisión de implementarlas. Pero en las ultimas décadas, el aumento en el uso de drones y vehículos armados no tripulados ha cambiado dramáticamente la guerra y han traído nuevos retos humanitarios y jurídicos. Los militares están desarrollando o ya han desplegado precursores que ilustran el impulso hacia una mayor autonomía de las máquinas en el campo de batalla.

“Varios gobiernos, incluído Estados Unidos, están muy emocionados por moverse en esta dirección, están muy entusiasmos por sacar a los soldados del campo de batalla y remplazarlos por máquinas con el fin de disminuir las bajas”, ha señalado Steve Goose, Director de la División de Armas de Human Right Watch. Para Goose, los militares están implementando cada vez una mayor autonomía en las armas, pero “se debe dibujar una línea muy clara en cuanto a las armas totalmente autónomas. Estas podrían llevar la tecnología demasiado lejos“, ha afirmado.

Estados Unidos es líder en el desarrollo tecnológico de robots militares. Otros países como China, Alemania, Israel, Corea del Sur, Rusia y Reino Unido también han realizado investigaciones al respecto. La compañía británica BAE Systems estará probando sus aviones intercontinentales de combate autónomo, Taranis, en Australia esta primavera. EE.UU. ya han iniciado la fase de pruebas del Phantom Rayand X-47B, una nave subsónica totalmente autónoma que aparecerá en el campo de batalla para el 2019. La compañía china Shenyang Aircraft está trabajando en los primeros aviones no tripulados de combate supersónico, Anjian.

> Si algo falla, ¿quién es el responsable?

Muchos expertos predicen que la plena autonomía de las armas podría lograrse dentro de 20 a 30 años, algunos creen que incluso antes. El gran problema que Stop Killer Robots destaca en la utilización de esta tecnología es que las armas autónomas no serían capaces de cumplir con el derecho internacional humanitario (DIH) y otras medidas de seguridad necesarias para proteger a los civiles en los conflictos armados.

“No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil” ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. “Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle”, ha aclarado.

Según los expertos las máquinas del futuro pueden ser capaces de algunos tipos de discriminación, pero es muy poco probable que tengan el juicio, capacidad de razonamiento y conocimiento de la situación que los humanos emplean en la realización de evaluaciones de proporcionalidad.

Otro factor de preocupación para el colectivo es la responsabilidad que se derive de posibles accidentes o la mala utilización de los robots, debido a que serían muchos los grupos y organizaciones involucrados en la producción, distribución y operación de armas autónomas. “¿Si un robot se equivoca quién es el responsable? Seguramente no será el robot. Pero podría ser el comandante que lo envió o el fabricante, podría ser el programador que reprogramó la misión. O una bala habría podido dañar el ordenador del robot causando que se volviera loco”, ha señalado Sharkey.

> ‘Sé que podemos detenerlos’

A este respecto, Human Rights Watch ya había advertido en un informe publicado en noviembre de 2012 que los robots carecerían de las cualidades humanas necesarias para realizar controles legales y no legales sobre la muerte de civiles. Además, los obstáculos para identificar a los responsables por los daños causados ​​por estas armas debilitaría el poder de la ley para disuadir futuras violaciones.

Para hacer frente a los temores de los retractores las armas autónomas, el Departamento de Defensa de Estados Unidos aprobó en noviembre pasado una normativa en la que se recoge la obligación de que los futuros diseños incluyan siempre algún grado de control por parte de operadores humanos. Pero para Human Rights Watch, la aclaración evidencia que el Gobierno estadounidense comparte la creciente preocupación de que armas completamente autónomas puedan poner en peligro a los civiles de diversas maneras.

Sin embargo, las peticiones en contra de los robots asesinos no han tenido gran acogida. En febrero de este año, el Comité Internacional para el Control de Armas Robot (IRAC), hizo un llamado a los ingenieros y científicos para que se sumaran a una petición para la prohibición del desarrollo y despliegue de sistemas de armas en los que la decisión de aplicar la fuerza se haga de manera automática. La petición, publicada en línea, tan solo ha conseguido 210 firmas de científicos provenientes de más de 35 países en dos meses.

Pero el colectivo Stop Killing Robots se mantiene positivo y ha planeado actividades políticas y académicas hasta noviembre de este año. Para Jody Williams el único camino posible es la prohibición de los robots de guerra ya desde los laboratorios de investigación. La activista ha asegurado que es posible conseguir el éxito, tal como sucedio con causas anteriores como la de la prohibición de las minas terrestres. “Sé que con los robots asesinos podemos hacer lo mismo, sé que podemos detenerlos antes de que alcancen a llegar al campo de batalla“, ha asegurado.

Fuente | El Mundo