ROBÓTICA MILITAR

Los robots asesinos amenazan con provocar una nueva carrera armamentística.

Imaginemos una situación totalmente futurista: una coalición encabezada por EEUU dispuesta a erradicar el ISIS está asediando Raqa. La fuerza militar internacional libera un mortífero grupo de robots voladores que sobrevuelan la ciudad en busca del enemigo.

Haciendo uso de un sistema tecnológico de reconocimiento de identidad, los robots localizan y aniquilan a la cúpula del ISIS, lo que supone el principio del fin de la organización terrorista. Totalmente desmoralizados, los combatientes del ISIS son derrotados, reduciendo al mínimo la pérdida de vidas civiles y de las tropas aliadas. En ese caso, ¿quién pondría en duda el buen uso de la tecnología? Los expertos en inteligencia artificial son los que más saben sobre la tecnología necesaria para desarrollar ese armamento.

En una carta abierta publicada en julio del año pasado, un grupo de investigadores advertía de que la tecnología había alcanzado un punto en el que la puesta en marcha de Sistemas de Armas Autónomos Letales (Laws, por sus siglas en inglés) sería una realidad en cuestión de años, no décadas. A diferencia del armamento nuclear, estos sistemas podrían producirse en masa, convirtiéndose en los «Kalashnikov del mañana». «Será solo cuestión de tiempo que aparezcan en el mercado negro y que caigan en manos de terroristas, de dictadores deseosos de controlar a sus ciudadanos y de señores de la guerra que quieran llevar a cabo una limpieza étnica», explicaban. «Empezar una carrera armamentística basada en la inteligencia artificial no es una buena idea y debería contenerse con una prohibición del armamento autónomo que escapa al control humano».

Para empezar, EEUU ya ha renunciado al uso de armamento autónomo. Este mes, 94 miembros de Naciones Unidas se reunieron en Ginebra para redactar un acuerdo internacional que limitara su uso. El principal motivo es de carácter ético: dar a los robots licencia para acabar con vidas humanas supone cruzar un límite que siempre debería respetarse. Jody Williams, que ganó el premio Nobel de la Paz por hacer campaña contra las minas antipersonales, es la portavoz de la Campaña para detener a los robots asesinos. En su opinión, el armamento autónomo es más peligroso que las armas nucleares. ¿Dónde vamos a llegar si pensamos que es correcto ceder el poder de decidir sobre la vida y la muerte a un robot? Además del planteamiento ético, hay otras cuestiones que resultan preocupantes. ¿Reduciría el uso de robots asesinos el número de bajas en una batalla aumentando a su vez las posibilidades de un conflicto? ¿Cómo podría contenerse la proliferación de este tipo de sistemas? ¿Quién sería responsable en el caso de que algo fallara?

El problema es que, cuanto más de cerca se examina la posibilidad de su uso en una situación de conflicto, más difícil resulta establecer los límites morales. Los robots (con una autonomía limitada) ya se han desplegado en el campo de batalla para fines muy concretos, como la desactivación de minas y los sistemas antimisiles. En este sentido, todo apunta a que uso tendrá un crecimiento exponencial. El Centro para una nueva Seguridad Americana calcula que el gasto global en robots militares alcanzará los 5.700 millones de dólares anuales de aquí a 2018, dato que contrasta con las previsiones de gasto de robots de uso industrial y comercial, que ascienden a 43.000 millones de dólares.

El organismo, que opera desde Washington, apoya el desarrollo de estos sistemas, argumentando que pueden «mejorar la capacidad de aventajar a los adversarios». Con el lenguaje aséptico que le caracteriza, la industria armamentística hace una clara distinción entre los distintos niveles de autonomía.

El primero incluye a los drones que utilizan EEUU y otros ejércitos. Aunque un dron es capaz de identificar un objetivo, para activarlo es necesario que una persona presione un botón.

En el segundo nivel de autonomía, las personas supervisan sistemas ofensivos robotizados como las baterías antimisiles. El tercer tipo, que corresponde al de los drones con plena autonomía, es potencialmente el más peligroso y seguramente el más fácil de prohibir.

Los expertos en inteligencia artificial deberían sin duda tener un reconocimiento por haber sacado a la luz este debate. Como en tantas áreas, nuestra sociedad, antes de controlar, todavía tiene que asimilar los impresionantes avances tecnológicos de los que está siendo testigo.

fuente del texto/expansion.com

Top 10 Robots más avanzados y asombrosos

2 comentarios en “ROBÓTICA MILITAR

  1. Dejemos la inocencia a un lado por un momento.-

    los robots de combate, son por ahora, inviables , no por la tecnica, sino, por las enormes dificultades para fabricar un robot «realmente util».-

    si se fijan un poco…. mas halla de los «robots» que aparecen en las peliculas, y alguna que otra «Exposicion» de armas…. la realidad es que los robots de combate por el momento, solo son caja del tamaño de un lavarropas, con ruedas o bien orugas, y un fusil arriba.-

    y los enormes, o llevan un tipo adentro (entonces no es un robot), o son telecomandados… tampoco es un robot.-

    los hay mas pequeños…. pero en realidad, no hacen la diferencia en un combate.-

    el «Terminator», es por ahora…. una fantasia.-

    ______________________

    las acciones de combate, son terriblemente duras, exigen una actividad fisica descomunal, cambios constantes de estrategia, readaptacion al terreno en forma permanente, creatividad, imaginacion, (hay que ser creativo y tener imaginacion para matar gente…. les guste o no…), readaptacion y constante esfuerzo de nuestra psiquis para evaluar en cada instante la situacion….

    y ser capaz de llevar adelante «los planes», a pesar de las bajas, el daño corporal, la perdida de equipo de combate, etc.-

    la Guerra es un ARTE…. no es una tecnica.- (por favor…. sin considerandos morales).-

    por esa causa, los robots de combate son inviables, y sigue siendo mas barato, y mas abundante, usar soldados humanos.-

    creo que la verdadera evolucion de la guerra, sera cuando unan las capacidades tecnologicas, a un cerebro humano, y un cuerpo humano funcional…

    es ahi cuando tendremos problemas.-

    una bomba PEM acaba con todos los robots…. asi que no son una opcion de combate real.-

    en realidad… a los militares les importa un pepino los tratados…. la realidad es que sencillamente no logran fabricar un ingenio de estos que sea militarmente viable.-

    y, les recuerdo, que un DRON, no es un robot…

    profesor J

  2. SOLO SON PALABRAS, NO ENTRARÁN EN LA CATEGORÍA DE DRONES DE GUERRA LOS DRONES PREVENTIVOS, QUE LIQUIDARÁN CUALQUIER OBJETOR DE CONCIENCIA QUE PASE A LA ACCIÓN, DE ESTE MODO EL CONFLICTO NUNCA EXISTIRÁ
    TAL COMO PASA EN INGLATERRA, QUE LAS CAMARAS DE SEGURIDAD HAN ACABADO CON LOS DELITOS, AL PUNTO DE CERRAR MUCHOS JUZGADOS

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.