Ex ingeniero de Google teme que los ‘robots asesinos’ de la IA puedan perpetuar atrocidades masivas involuntarias

  • Los hechos:Un ex ingeniero de software de Google advierte sobre el desarrollo industrial de la IA en términos de la creación de ‘robots asesinos’, que tendrían autonomía para decidir a quién matar sin la protección de la intervención humana.
  • Reflexionar sobre:¿Podemos ver que eventos como la creación potencial de ‘robots asesinos’ en última instancia provienen de la proyección de nuestra conciencia colectiva, de manera que nosotros, como individuos despiertos, tengamos el poder de cambiar el rumbo?

Hemos entrado en un momento de nuestra historia en el que las tecnologías avanzadas basadas en Inteligencia Artificial (IA) pueden volverse cada vez más propensas a acciones no intencionadas que amenazan la seguridad y la autonomía de los seres humanos. Y aquellos de nosotros que creemos en la seguridad y la autonomía de los seres humanos, confíen en mí, la mayoría en la cima de la pirámide de poder actual no necesitan ser cada vez más conscientes y vigilantes de esta creciente amenaza.

Los argumentos a favor y en contra del desarrollo sin restricciones de la IA y su integración en las capacidades militares son los siguientes: aquellos a favor del desarrollo de la IA simplemente apuntan a la mayor eficiencia y precisión otorgada por las aplicaciones de IA. Sin embargo, su celo desenfrenado tiende a basarse en una confianza bastante ingenua (o fingida) en el gobierno, las corporaciones y la inteligencia militar para vigilarse a sí mismos para garantizar que la IA no se desate en el mundo de ninguna manera que sea perjudicial para las personas. El otro lado del argumento basa su desconfianza fundamental en el desarrollo actual de IA en la noción bien documentada de que, de hecho, nuestros líderes corporativos, gubernamentales y militares actuales operan en función de su propia agenda estrecha que da poca importancia a la seguridad y la autonomía de los humanos. seres

Nadie discute contra el desarrollo de la Inteligencia Artificial como tal, para su aplicación de manera que beneficie de manera clara e incontestable a la humanidad. Sin embargo, como siempre, el gran dinero parece estar disponible en apoyo de WAR, de un grupo de humanos que tiene dominio y supremacía sobre otro, en lugar de aplicaciones que beneficiarán a toda la humanidad y en realidad ayudarán a fomentar la paz en el planeta.

Ex ingeniero de Google habla

Quizás no haya forma de evitar por completo que los militares realicen investigaciones sobre mejoras de IA en sus aplicaciones. Sin embargo, parece haber una línea clara de demarcación que muchos sienten que no se debe cruzar: otorgar a los programas de IA la autoridad exclusiva para determinar si un individuo o grupo de seres humanos deben ser asesinados.

La ingeniera de software Laura Nolan renunció a Google el año pasado en protesta después de ser enviada a trabajar en 2017 en el Proyecto Maven, un proyecto utilizado para mejorar drásticamente la tecnología de aviones no tripulados militares de EE. UU. o disparó a Ella sentía que su trabajo impulsaría una capacidad peligrosa. Podía ver que la capacidad de convertir drones militares, por ejemplo, en armas autónomas guiadas no humanas, «es solo un problema de software en estos días y uno que puede resolverse con relativa facilidad».

A través de las protestas y renuncias de personas valientes como Laura Nolan, Google permitió que el contrato del Proyecto Maven caducara en marzo de este año después de que más de 3.000 de sus empleados  firmaron una petición en protesta por la participación de la compañía . Debería ser indicativo para todos nosotros que estos grandes gigantes corporativos no toman decisiones éticas por sí mismos, ya que son fundamentalmente amorales y continúan exigiendo que los seres humanos interesados ​​se expresen y tomen medidas para que los intereses de la humanidad sean considerados.

Robots asesinos

Desde que renunció, Nolan ha continuado su activismo en medio de noticias sobre el desarrollo de «robots asesinos», máquinas de IA diseñadas para operar de manera autónoma en el campo de batalla con la capacidad de matar grandes franjas de combatientes enemigos. Ella ha pedido que se prohíban todas las máquinas de matar AI que no sean operadas por humanos. Se unió a la  Campaña  para detener a los robots asesinos  y ha informado a los diplomáticos de la ONU en Nueva York y Ginebra sobre los peligros que representan las armas autónomas.

A diferencia de los drones, que son controlados por equipos militares, a menudo a miles de kilómetros de donde se está desplegando el arma voladora, Nolan dijo que los robots asesinos tienen el potencial de hacer «cosas calamitosas para las que no fueron programados originalmente»:

La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez. Lo que está viendo son posibles atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas.

Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada. Es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos. ( fuente )

¿Promesa de los investigadores de IA?

Ciertamente vemos titulares convencionales como ‘Los mejores investigadores de IA dicen que no harán robots asesinos ‘ donde, según los informes, se han hecho promesas:

Más de 2.600 investigadores e ingenieros de IA han firmado una promesa de nunca crear robots asesinos autónomos, publicada hoy por el  Future of Life Institute . Los firmantes incluyen a Elon Musk, los cofundadores de Alphabet en DeepMind, Mustafa Suleyman, Demis Hassabis y Shane Legg, así como Jeff Dean de Google y Yoshua Bengio de la Universidad de Montreal  .

Sin embargo, esto no significa que podamos abandonar nuestras publicaciones y confiar en que las corporaciones que podrían ganar miles de millones de dólares de los contratos para avanzar en tales aplicaciones automatizadas se negarán a perseguirlas si piensan que pueden salirse con la suya. De hecho, son los ojos vigilantes y las poderosas palabras de las personas conscientes lo que hasta ahora ha evitado que esto ocurra.

https://www.collective-evolution.com/2019/09/20/ex-google-engineer-fears-ai-killer-robots-could-perpetrate-unintended-mass-atrocities/

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.