Guerra por la inteligencia artificial

El fantasma de Edward Teller debe haber estado rondando entre los miembros de la Comisión Nacional de Inteligencia Artificial. El padre de la bomba de hidrógeno nunca se molestó demasiado por los inconvenientes éticos que conllevaba la invención de la tecnología asesina. No era, por ejemplo, «el trabajo del científico determinar si una bomba de hidrógeno debería construirse, si debería utilizarse o cómo debería utilizarse». La responsabilidad, sin importar cómo se ejerciera, recaía en el pueblo estadounidense y sus funcionarios electos.

La aplicación de la IA en los sistemas militares ha afectado a los especialistas en ética, pero ha entusiasmado a ciertos líderes e inventores. El presidente ruso Vladimir Putin ha afirmado grandilocuentemente que “sería imposible asegurar el futuro de nuestra civilización” sin un dominio de la inteligencia artificial, la genética, los sistemas de armas no tripulados y las armas hipersónicas.

Los activistas contra el uso de sistemas de armas autónomos en la guerra han aumentado en número. El secretario general de la ONU, António Guterres, es uno de ellos. «Las máquinas autónomas con el poder y la discreción para seleccionar objetivos y quitar vidas sin participación humana», escribió en Twitter en marzo de 2019, «son políticamente inaceptables, moralmente repugnantes y deberían estar prohibidas por el derecho internacional». El Comité Internacional para el Control de Armas Robóticas, la Campaña para Detener a los Robots Asesinos y Human Rights Watch también se dedican a prohibir los sistemas de armas autónomos letales. Los analistas de armas como Zachary Kallenborn ven esa posición absoluta como insostenible, prefiriendouna prohibición más modesta de “las armas de mayor riesgo: enjambres de drones y armas químicas, biológicas, radiológicas y nucleares autónomas”.

Los críticos de tales sistemas de armas estaban muy lejos en el borrador del informe de la Comisión para el Congreso. El documento tiene más que un toque de científico loco al servicio sangriento de un maestro. Esto era lógico, dado que su presidente era Eric Schmidt, asesor técnico de Alphabet Inc., empresa matriz de Google, de la que anteriormente fue CEO. Con Schmidt sosteniendo las riendas, se nos garantizaría un espectáculo desprovisto de moderación moral. “La promesa de la IA, que una máquina puede percibir, decidir y actuar más rápidamente, en un entorno más complejo, con más precisión que un ser humano, representa una ventaja competitiva en cualquier campo. Será empleado con fines militares, por gobiernos y grupos no estatales ”.

AI en militaresEn su testimonio ante el Comité de Servicios Armados del Senadoel 23 de febrero, Schmidt tenía que ver con los “fundamentos” para mantener el ascenso de Estados Unidos. Esto implicó preservar la competitividad nacional y dar forma a las fuerzas armadas con esos fundamentos en mente. Pero hacerlo requería mantener los ojos del establecimiento de seguridad bien abiertos a cualquier competidor peligroso. (Schmidt comprende al Congreso lo suficientemente bien como para saber que los picos en el financiamiento y los desembolsos tienden a estar asociados a la promoción de amenazas). Él ve “la amenaza del liderazgo chino en áreas clave de tecnología” como “una crisis nacional”. En términos de IA, “solo Estados Unidos y China” tenían los “recursos, el poder comercial, la reserva de talentos y el ecosistema de innovación necesarios para liderar el mundo”. En la próxima década, Beijing podría incluso «superar a Estados Unidos como la superpotencia mundial de inteligencia artificial».

El testimonio está generosamente enriquecido con la tesis de la amenaza de China. “Nunca antes en mi vida”, afirmó, “me había preocupado más que pronto seremos desplazados por un rival o más consciente de lo que significa el segundo lugar para nuestra economía, nuestra seguridad y el futuro de nuestra nación”. Temía que los funcionarios no compartieran esas preocupaciones y que el Departamento de Defensa tratara el «software como una prioridad baja». Aquí, podría dar consejos sobre las lecciones aprendidas en las empresas emergentes de Silicon Valley, donde los principiantes viven vidas cortas. Aquellos que se dedican a la defensa podrían «formar equipos inteligentes, impulsar los entregables y moverse rápidamente». Los misiles, argumentó, deberían construirse «de la forma en que ahora construimos automóviles: use un estudio de diseño para desarrollar y simular en software».

Todo esto significaba necesariamente elogiar a los cielos una forma menos reprimible de IA, especialmente en sus aplicaciones militares. En dos días de debate público, el vicepresidente del panel, Robert Work, ensalzó las virtudes de la IA en la batalla. «Es un imperativo moral seguir al menos esta hipótesis», afirmando que «las armas autónomas no serán indiscriminadas a menos que las diseñamos de esa manera». El diablo está en el ser humano, como siempre lo ha estado.

De una manera que recuerda a los debates sobre el intercambio de tecnología atómica después de la Segunda Guerra Mundial, el Comité insta a los EE. UU. A «perseguir una estrategia integral en estrecha coordinación con nuestros aliados y socios para la innovación y adopción de inteligencia artificial (IA) valores críticos para sociedades libres y abiertas ”. Una propuesta de Coalición de Tecnologías Emergentes de potencias y socios afines se centraría en el papel de «tecnologías emergentes de acuerdo con normas y valores democráticos» y «coordinar políticas para contrarrestar el uso maligno de estas tecnologías por parte de regímenes autoritarios». Se olvida rápidamente el hecho de que distinciones como el autoritarismo y la democracia tienen poco significado al final de un arma.

También se sugieren cambios internos para erizar algunas plumas. El Departamento de Estado de Estados Unidos recibe una mención especial por necesitar reformas. “Actualmente, no existe una pista clara para la política de tecnología emergente o la diplomacia dentro del Departamento de Estado, lo que dificulta la capacidad del Departamento para tomar decisiones tecnológicas estratégicas”. Los aliados y socios estaban confundidos cuando se acercaron al Departamento de Estado en cuanto a “qué alto funcionario sería su principal punto de contacto” para una variedad de temas, ya sea IA, computación cuántica, 5G, biotecnología o nuevas tecnologías emergentes.

En general, el gobierno de los EE. UU. Recibe una paliza, reprochado por operar «a la velocidad humana, no a la velocidad de una máquina». Estaba rezagado en relación con el desarrollo comercial de la IA. Sufría de «déficits técnicos que van desde escasez de mano de obra digital hasta políticas de adquisición inadecuadas, arquitectura de red insuficiente y prácticas de datos débiles».

La política oficial del Pentágono , tal como está, es que los sistemas de armas autónomos y semiautónomos deben estar «diseñados para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza». En octubre de 2019, el Departamento de Defensa adoptó varios principios éticos con respecto al uso militar de la IA, convirtiendo al Centro de Inteligencia Artificial del Departamento de Defensa en el punto focal. Estos incluyenla disposición de que, «el personal del Departamento de Defensa ejercerá los niveles adecuados de juicio y cuidado, mientras sigue siendo responsable del desarrollo, implementación y uso de las capacidades de IA». El principio de «rastreabilidad» también se transmite con el principio de control humano, y el personal debe «poseer un conocimiento adecuado de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de la IA».

La Comisión Nacional presta atención a dichos protocolos, reconociendo que los operadores, las organizaciones y el «pueblo estadounidense» no apoyarían las máquinas de IA que no estén «diseñadas con previsibilidad» y «principios claros» en mente. Pero la nota de advertencia de no estar demasiado encadenado moralmente se convierte en un chillido. El riesgo era «ineludible» y no utilizar la IA «para resolver desafíos reales de seguridad nacional corre el riesgo de poner a Estados Unidos en desventaja». Especialmente cuando se trata de China.

https://orientalreview.org/2021/02/26/war-mongering-for-artificial-intelligence/

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.