Los seres humanos siempre tomarán la decisión final sobre si los robots armados pueden disparar, según un comunicado del Departamento de Defensa de EE. UU. Su aclaración se produce en medio de temores sobre un nuevo sistema avanzado de objetivos, conocido como ATLAS , que usará inteligencia artificial en vehículos de combate para atacar y ejecutar amenazas. Si bien el público puede sentirse incómodo con los llamados «robots asesinos» , el concepto no es nada nuevo: los robots «SWORDS» con ametralladoras se desplegaron en Irak desde el año 2007.
Nuestra relación con los robots militares se remonta incluso más allá.Esto se debe a que cuando las personas dicen «robot», pueden significar cualquier tecnología con algún tipo de elemento «autónomo» que le permita realizar una tarea sin la necesidad de una intervención humana directa.
Estas tecnologías han existido durante mucho tiempo. Durante la Segunda Guerra Mundial, el fusible de proximidad se desarrolló para explotar proyectiles de artillería a una distancia predeterminada de su objetivo. Esto hizo que los proyectiles fueran mucho más efectivos de lo que hubieran sido al aumentar la toma de decisiones humanas y, en algunos casos, sacar al humano completamente fuera del circuito.
Así que la pregunta no es tanto si deberíamos usar sistemas de armas autónomos en la batalla, ya los usamos, y toman muchas formas. Más bien, deberíamos centrarnos en cómo los usamos, por qué los usamos y qué forma, en su caso, debería tomar la intervención humana.
El nacimiento de la cibernética.
Mi investigación explora la filosofía de las relaciones hombre-máquina, con un enfoque particular en la ética militar y la forma en que distinguimos entre humanos y máquinas. Durante la Segunda Guerra Mundial, el matemático Norbert Wiener sentó las bases de la cibernética(el estudio de la interfaz entre humanos, animales y máquinas) en su trabajo sobre el control del fuego antiaéreo. Al estudiar las desviaciones entre el movimiento previsto de una aeronave y su movimiento real, Wiener y su colega Julian Bigelow propusieron el concepto del «circuito de retroalimentación», donde las desviaciones podrían ser devueltas al sistema para corregir futuras predicciones.
Por lo tanto, la teoría de Wiener fue mucho más allá del simple aumento, ya que la tecnología cibernética podría usarse para anticiparse a las decisiones humanas: eliminar al ser humano falible del circuito, para tomar decisiones mejores y más rápidas y hacer que los sistemas de armas sean más efectivos.
En los años posteriores a la Segunda Guerra Mundial, la computadora surgió para sentarse junto a la teoría cibernética para formar un pilar central del pensamiento militar, desde las «bombas inteligentes» guiadas por láser de la era de Vietnam hasta los misiles de crucero y los drones Reaper.
Ya no es suficiente simplemente aumentar el guerrero humano como lo fue en los primeros días. La siguiente fase es eliminar al humano por completo: «maximizar» los resultados militares y minimizar el costo político asociado con la pérdida de vidas aliadas. Esto ha llevado al uso generalizado de drones militares por parte de los Estados Unidos y sus aliados. Si bien estas misiones son muy controvertidas, en términos políticos, han demostrado ser preferibles en gran medida al clamor público causado por las muertes de militares.
La máquina humana
Uno de los temas más polémicos relacionados con la guerra de drones es el papel del piloto u «operador» de drones. Como todo el personal, estos operadores están obligados por sus empleadores a «hacer un buen trabajo». Sin embargo, los términos del éxito están lejos de ser claros.Como la filósofa y crítica cultural Laurie Calhoun observa:
El negocio de los operadores de UCAV [drones] es matar.
De esta manera, su tarea no es tanto tomar una decisión humana, sino hacer el trabajo para el que están empleados. Si la computadora les dice que maten, ¿hay alguna razón por la que no deberían hacerlo?
Un argumento similar se puede hacer con respecto al soldado moderno.Desde la navegación GPS hasta los enlaces de video, los soldados llevan numerosos dispositivos que los conectan en una vasta red que los monitorea y controla en todo momento.
Esto lleva a un enigma ético. Si el propósito del soldado es seguir las órdenes de la carta, con cámaras utilizadas para garantizar el cumplimiento, entonces ¿por qué nos molestamos con los soldados humanos? Después de todo, las máquinas son mucho más eficientes que los seres humanos y no sufren fatiga ni estrés de la misma manera que lo hacen los humanos. Si se espera que los soldados se comporten de una manera programática y robótica, ¿cuál es el sentido de derramar sangre aliada innecesaria?
La respuesta, aquí, es que el ser humano sirve como una coartada o forma de «cobertura ética» para lo que en realidad es un acto robótico casi totalmente mecánico. Del mismo modo que el trabajo del operador de aviones no tripulados es supervisar los aviones no tripulados controlados por computadora, el papel del ser humano en el nuevo sistema ATLAS del Departamento de Defensa es simplemente actuar como cobertura ética en caso de que las cosas salgan mal.
Si bien los drones Predator y Reaper pueden situarse a la vanguardia de la imaginación pública sobre la autonomía militar y los «robots asesinos», estas innovaciones no son en sí mismas nada nuevas. Son simplemente los últimos en una larga línea de desarrollos que se remontan a muchas décadas.
Si bien puede ser reconfortante para algunos lectores imaginar que la autonomía de la máquina siempre estará subordinada a la toma de decisiones por parte de los humanos, esto realmente no es relevante. Los sistemas autónomos llevan mucho tiempo integrados en el ejército y debemos prepararnos para las consecuencias.