Google redacta una «Constitución Robótica» para asegurar que sus futuros androides de IA no nos dañen

Inspirada en las «Tres Leyes de la Robótica» de Isaac Asimov, estas instrucciones de seguridad tienen como objetivo dirigir el proceso de toma de decisiones de las máquinas. La primera de ellas establece: «Un robot no puede dañar a un ser humano».

El equipo de robótica de Google DeepMind ha revelado tres avances que, según afirman, ayudarán a los robots a tomar decisiones más rápidas, mejores y más seguras en entornos diversos. Uno de ellos incluye un sistema para recopilar datos de entrenamiento con una «Constitución» para asegurar que tu asistente de oficina robotizado pueda conseguirte más papel de impresora, pero sin arrollar a un colega humano que se encuentre en el camino.

El sistema de recopilación de datos, llamado AutoRT, puede utilizar un modelo visual del lenguaje (VLM) y un modelo de lenguaje grande (LLM) trabajando juntos para comprender su entorno, adaptarse a configuraciones desconocidas y decidir sobre tareas apropiadas. Todo bajo la Constitución Robótica, que consiste en pautas enfocadas en la seguridad.

Las Tres Leyes de la Robótica son un conjunto de reglas ideadas por el autor de ciencia ficción Isaac Asimov. Las reglas se introdujeron en su cuento corto de 1942 «Runaround» (incluido en la colección de 1950 I, Robot), aunque se habían presagiado en algunos cuentos anteriores.

Por ejemplo, DeepMind programó a los robots para evitar la selección de tareas que involucren a seres humanos, animales u objetos afilados, y para detenerse automáticamente si la fuerza en sus articulaciones supera cierto umbral. Asimismo, incluyó un interruptor de apagado físico que los operadores humanos pueden utilizar para desactivarlos.

Modo de prueba

A lo largo de siete meses, la compañía desplegó una flota de 53 robots AutoRT en cuatro edificios de oficinas diferentes y realizó más de 77.000 pruebas. Algunos robots fueron controlados de forma remota por operadores humanos, mientras que otros funcionaron según un guion o de manera completamente autónoma utilizando el modelo de aprendizaje de inteligencia artificial Robotic Transformer (RT-2) de Google.

Los robots utilizados en la prueba tienen un aspecto más funcional que llamativo, equipados únicamente con una cámara, un brazo robótico y una base móvil.

«Para cada robot, el sistema utiliza un VLM para comprender su entorno y los objetos a la vista. Luego, un LLM sugiere una lista de tareas creativas —como colocar un refrigerio en la mesada— y desempeña el papel de tomador de decisiones para que el robot las lleve a cabo apropiadamente», señaló Google en una publicación de su blog.

El otro nuevo avance tecnológico de DeepMind incluye a SARA-RT, una arquitectura de red neuronal diseñada para hacer que el Robotic Transformer RT-2 existente sea más preciso y rápido. También anunciaron RT-Trajectory, que agrega contornos en 2D para ayudar a los robots a realizar mejor tareas físicas específicas, como limpiar una mesa.

1. Un robot autónomo con ruedas llega a una ubicación con múltiples objetos. 2. Un modelo visual del lenguaje (VLM) describe la escena y los objetos a un modelo de lenguaje grande (LLM). 3. El LLM sugiere diversas tareas de manipulación para el robot y decide cuáles el robot podría realizar sin asistencia, cuáles requerirían control remoto por parte de un humano y cuáles son imposibles, antes de tomar una elección. 4. Se intenta la tarea seleccionada, se recopilan los datos experienciales y se puntúa la diversidad/novedad de los datos.

Todavía parece que estamos muy lejos de contar con robots que sirvan bebidas y acomoden almohadas de forma autónoma, pero cuando estén disponibles, podrían haber aprendido de un sistema como AutoRT.

Fuente: DeepMind/The Verge. Edición: MP.

Google redacta una «Constitución Robótica» para asegurarse que sus futuros androides de IA no nos dañen

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.