El experto en Inteligencia Artificial Mark Bishop dice que es vital la prohibición de las armas que pueden desplegarse y destruir sin intervención humana
¿Qué es la Campaña para Detener a los Robots Asesinos? (Campaign to Stop Killer Robots)
Es una confederación de organizaciones no gubernamentales y lobby de grupos de presión para que se prohiba la producción y despliegue de sistemas de armas totalmente autónomas, en las que se elimina la capacidad de un ser humano tanto de elegir el objetivo preciso e intervenir como en la decisión final de atacar.
¿Cuán cerca estamos de esto?
Ya existen ejemplos. Algunos, como el sistema de armamento Phalanx, que se utiliza en la mayoría de los buques de la Armada de Estados Unidos para detectar y atacar de forma automática las amenazas que se acrecan, han estado alrededor por algún tiempo. Otra es la Harpy israelí “dispara y olvida”, un vehículo aéreo no tripulado que busca y destruye instalaciones de radar.
¿Qué está impulsando el desarrollo de esta tecnología?
La estrategia militar occidental actual se centra más en los aviones no tripulados que en las fuerzas tradicionales, pero los drones teledirigidos son vulnerables al secuestro. Los sistemas completamente autónomos son virtualmente inmunes a esto. También reduce los costos. Esto significa que los fabricantes venden más, por lo que es un imperativo comercial para desarrollar sistemas autónomos y los gobiernos para implementarlos.
¿Cuáles son los peligros?
Hay razones para dudar de que los sistemas autónomos puedan juzgar adecuadamente la necesidad de participar, reaccionar a las amenazas en forma proporcional, o ser fiables para discriminar entre combatientes y civiles. Además, cuando usted logra sistemas de software complejos que interactúan, existe un enorme potencial de consecuencias imprevistas. Un claro ejemplo fue visto en Amazon en 2011, cuando los robots de precio elevaron el costo de un libro, The Making of a Fly, a más de $ 23 millones de dólares.
¿Entonces, usted está preocupado por la escalada?
Sí. En Corea del Sur, los científicos están desarrollando un robot para patrullar la frontera con Corea del Norte. Si esto se desplega y participa incorrectamente o de manera desproporcionada, es fácil imaginar que una incursión fronteriza menor se convierta en un grave enfrentamiento. Aún más alarmante es que en 1983, durante el ejercicio militar de EE.UU. llamado Able Archer, los sistemas de defensa rusos automáticos detectaron falsamente un misil y fue sólo la intervención de un coronel ruso lo que evitó una guerra nuclear. Pero el potencial de una escalada se pone especialmente aterrador cuando se tienen sistemas autónomos que interactúan con otros sistemas autónomos.
¿Los robots no pueden reducir el riesgo para los seres humanos?
Hay un caso, presentado por personas como el robotista Ronald Arkin de EEUU, quien afirma que los robots pueden hacer evaluaciones más desapasionados que los soldados en caso de dolor o venganza. Esto no sólo no se ocupa del problema de la escalada, también sólo deja de lado si los sistemas pueden decidir con fiabilidad cuándo participar, decidir la proporcionalidad y discriminar con precisión los objetivos.
Entonces, ¿qué debemos hacer?
La tecnología detrás de los sistemas autónomos tiene otros usos, como el sistema de conducción de automóviles de Google, por lo que prohíbir el desarrollo sería difícil. En su lugar, debemos centrarnos en un tratado internacional que prohíba el despliegue de armas autónomas.
Fuente: New Scientist. Aportado por Eduardo J. Carletti