«Ya hay máquinas programadas para decidir sobre la vida y la muerte de los humanos»: los fascinantes (y urgentes) dilemas de enseñarle ética a inteligencias artificiales

El español José Ignacio Latorre es uno de los científicos más importantes del mundo de la física cuántica. En su último libro analiza por qué es fundamental y urgente reflexionar sobre con qué inteligencia artificial queremos convivir en el futuro.

BBC Mundo

El español José Ignacio Latorre es un hombre que sabe administrar tan bien el tiempo, que con uno poco de imaginación uno podría pensar que es uno de los replicantes que tanto lo apasionan.

Pero aún no se crean seres artificiales que se rían a carcajadas y puedan improvisar y conversar tan bien como lo hace él. Ni que sean tan multifacéticos.

Latorre, uno de los físicos cuánticos más importantes a nivel internacional, y ampliamente reconocido por sus investigaciones, dirige proyectos, es docente, hace documentales, es escritor y produce vino con un grupo de amigos.

Pertenece a esa casta de científicos que se ha bajado del pedestal para difundir masivamente conceptos complicadísimos, como la teoría de campos y las redes neuronales profundas.

En su primer libro, «Cuántica», explora las claves para entender una ciencia que está transformando el mundo en que vivimos. En el segundo, «Ética para Máquinas», hace un llamado urgente a reflexionar sobre cómo programaremos la inteligencia artificial para convivir con ella. Es, aunque muchas veces lo ignoremos, un tema de vida o muerte.

El texto es fascinante no solo por los dilemas éticos que plantea; también incluye temas de filosofía, de historia, y de personajes que han cambiado el mundo sin que hayan tenido suficiente reconocimiento, como Ada Lovelace, la hija de Lord Byron a la que se le atribuye la creación del primer algoritmo, o El Turco, el primer autómata que jugó ajedrez.

Lo que sigue es un resumen de la charla en vivo que Latorre tuvo con BBC Mundo hace un par de meses en el festival Hay de Arequipa, en Perú.


Una de las cosas que sorprende al leer el libro es cómo nos han cambiado máquinas que hoy son tan cotidianas que ya ni las pensamos como tales, como las grúas…

Yo creo que para entender algo tan novedoso y nada trivial como es la irrupción de la inteligencia artificial avanzada y los conceptos más sutiles de mecánica cuántica, hay que entender algo del contexto de nuestra historia.

Podríamos empezar diciendo que los humanos, al desarrollar la inteligencia, se dotaron de instrumentos para cazar, para pescar, para construir casas.

Luego, en la época de la Revolución Industrial, logramos hacer máquinas fuertes que nos superan, y al superarnos nos hacen más débiles físicamente, como las grúas, porque dejamos de necesitar la fuerza para sobrevivir.

Las máquinas nos van cambiando como humanidad.

Los autos nos han hecho caminar menos y llegar más rápido. Los lentes nos han permitido ver mejor. Las máquinas que calculan nos han hecho delegar las operaciones matemáticas, y ¿qué pasa ahora cuando en un restaurante hay que dividir la cuenta?

Que ya nadie sabe dividir. Todo el mundo saca el teléfono para hacerlo.

¿Y en qué etapa estamos ahora? ¿Qué estamos delegando en el siglo XXI?

Estamos empezando a hacer máquinas que deciden.

Por lo tanto, el salto que sigue tiene que ver con el debilitamiento de lo humano.

Porque si nos delegamos en máquinas que deciden, lo que estamos delegando es la ética, que es la decisión de optar entre dilemas, entre lo que consideramos bien y lo que consideramos mal.

En ese sentido, estamos entrando en un mundo nuevo, donde la ética ha pasado a ser parcialmente artificial.

Tú dices en el libro que la física cuántica te ha robado el corazón, pero la ética te ha robado el cerebro. ¿Por qué haces esa distinción?

La mecánica cuántica representa un cambio filosófico grandioso, es una catedral intelectual.

Inteligencia artificial.

Getty Images
¿Nos sobrepasará en algún momento la inteligencia artificial?
 

Yo creo que toda persona que penetra en los conceptos de la mecánica cuántica queda marcada de por vida.

No se le pueden olvidar jamás los conceptos de si la realidad objetiva existe, si existen el azar o el determinismo, qué significa conocer, qué significa aprehender la naturaleza. Eso me robó el corazón.

Pero por otra parte, el año 92 empecé a programar redes neuronales y he visto el avance impresionante que han tenido.

Hoy controlan nuestras vidas mucho más de lo que casi todo el mundo se imagina.

El agua potable de Barcelona, por ejemplo, desde este año ya la potabiliza un programa basado en redes neuronales profundas.

Les estamos cediendo espacio sin darnos apenas cuenta.

Y en esa transición, que irrumpe como una marea que lo va invadiendo todo, empiezan a surgir noticias, como una que me impresionó mucho de un colegio en China donde las cámaras escanean las caras de los niños pequeños para saber qué nivel de atención tienen y seleccionarlos para un colegio u otro.

Colegio rural en China

Getty Images
¿Es ético usar la inteligencia artificial para determinar qué camino debe seguir la vida de alguien?
 

Cuando la leí, de repente sentí el vértigo de que algo no está funcionando bien.

¿Cómo podemos sesgar así la vida de un niño, sencillamente porque pone cara de atención o no cuando tiene pocos años?

A medida que iba aumentando la inteligencia artificial y sus aplicaciones, me iba entrando cada vez más y más miedo hacia dónde vamos y cómo la vamos a utilizar.

Así que cuando el editor de mi primer libro me pidió que escribiera sobre algún otro aspecto de la mecánica cuántica, yo dije, no, ahora mi cuerpo me pide ética, no me pide ni mecánica cuántica, ni teoría de campos, ni agujeros negros.

Por eso me puse a pensar qué es lo que está en juego.

Y llegas a decir que lo que está en juego es nuestra felicidad.

Es que hemos de aprender a convivir en buenos términos con la tecnología.

Cada vez que ésta irrumpe en la humanidad entra como un huracán: cuando el hombre descubrió el fuego seguro que quemó a su enemigo, cuando descubrió la balanza y la catapulta le tiró piedras, cuando entendimos el núcleo atómico hicimos la bomba atómica, cuando entendimos la biología un poquito más avanzada hicimos armas químicas.

Parece que estemos condenados a utilizar para el mal una cosa tan magnífica como es comprender la naturaleza. Solo posteriormente vamos rectificando.

El gran ejemplo es la Revolución Industrial.

Una persona frente una pared de circuitos de computación

Science Photo Library
Las supercomputadoras cada vez son más poderosas.
 

Los humanos hacemos una máquina que es capaz de sustituir el trabajo físico. Uno hubiera dicho esto es la panacea, hemos llegado al nirvana.

Pero, ¿qué pasó?

Que el Támesis se contaminó, que en las ciudades no se podía respirar, que las personas trabajaban 80 horas a la semana, que unos pocos humanos se enriquecieron bárbaramente y la gran mayoría se empobreció.

Llevamos siglos corrigiéndolo, haciendo que los parlamentos aprueben leyes que limitan cómo las corporaciones tratan a sus empleados.

Ahora tengo la sensación de que si no pensamos muy seriamente en términos de ética, claro que está en juego nuestra felicidad, porque este nuevo eslabón de conocimiento tecnológico que estamos adquiriendo va a ser usado de forma muy incorrecta.

Hablamos de cientos de dilemas éticos, pero ¿cuáles son para ti los centrales, o los más urgentes?

Convivir con este tipo de máquinas va a ser algo muy complejo. No son decisiones triviales.

Te pongo ejemplos de cosas que ya han sucedido y que muestran lo sofisticados que son estos dilemas.

En ley, el Departamento de Justicia de Estados Unidos encargó un programa de inteligencia artificial para asistir a los jueces de forma muy concreta en dos tareas: la jurisprudencia y cuánto vale la libertad condicional, es decir, cuánto es lo que hay que pagar.

Cárcel

Getty Images
¿Quién debe decidir sobre condenas de cárcel, un juez o una máquina?
 

El sistema jurídico estadounidense está basado en jurisprudencia, es decir, lo que han hecho jueces anteriores sienta precedente. Por lo tanto, si hoy nos toca juzgar a una nueva persona, hemos de tener en cuenta lo que se ha hecho antes.

Si una persona se le da o no la libertad condicional, existen millones de casos anteriores.

Pues por qué no dotar a una inteligencia artificial avanzada para que haga un estudio pormenorizado de todo, que vaya mucho más allá de lo que cualquier humano podría hacer, con mucha más potencia, y haga una sugerencia de acuerdo a la jurisprudencia.

Parece muy lógico. Yo diría que tendría muchas ventajas para evitar la corrupción, por ejemplo.

¿Qué problema hubo inmediatamente? Pues que la inteligencia artificial tenía un sesgo contra los afroamericanos, porque fue entrenada con numerosos casos en que los delincuentes eran afroamericanos.

Ahí vemos la disyuntiva: claro que puede ser bueno tener esa inteligencia artificial; pero existe también el peligro de no entrenarla bien.

Voy a dar otro ejemplo. En medicina.

Médicos

Getty Images
Los expertos esperan que la tecnología cuántica pueda permitir avances nunca vistos en los campos de la ciencia, medicina, industria farmacéutica, etc.

Imagínense que tienen un niño enfermo y van al doctor.

¿Les gustaría que el médico tuviera un asesoramiento de una enfermedad que tal vez no sea sencilla y que haya habido 100.000 casos en la Tierra?

Él tal vez ha visto uno, dos o ningún caso.

De repente, puede acceder a 100.000 ejemplos, conocer 100 tratamientos diferentes y dar un consejo realmente útil.

¿Lo queremos o no?

Yo diría que cualquier padre querría tener el máximo de conocimiento en manos del facultativo que va a tratar a su hijo.

Esto no es ninguna entelequia. Esto se llama Watson y es un programa de IBM que ya existe, que ha sido contratado por diferentes empresas del mundo de la medicina.

¿Qué pasó? Que hizo un diagnóstico erróneo. Uno. Y se frenó.

De nuevo, vemos que la ventaja es impresionante, pero por un solo error se puso todo en duda.

Es bien curiosa esta situación. Imagínense que no hubiera coches y alguien viene y dice, mira, he inventado una máquina con la que podremos ir lejos, conocer países, transportar bienes y de repente un día hay un accidente y se muere una persona. Se prohibirían los coches.

Vivimos en un mundo en que le exigimos a la inteligencia artificial que sea perfecta, que no tenga fisuras.

Y lo estamos haciendo cuando nadie ha legislado todavía sobre qué pasa si se equivoca una máquina.

sistema binario

Getty
La mecánica cuántica promete grandes desarrollos tecnológicos
 

En el futuro, dices, todo va a ser programable y la inteligencia artificial podría llegar a jugar un papel muy importante en la transformación de los modelos económicos y políticos. A juzgar por las protestas que hemos visto en los últimos meses en América Latina y en otros continentes, probablemente mucha gente aprobaría la desaparición de los políticos.

Bueno, en Estados Unidos, donde hacen encuestas para cualquier cosa, hicieron una sobre si los votantes preferirían a un demócrata, un republicano a una inteligencia artificial, y el 24 por ciento optó por la inteligencia artificial.

O sea, ya podrían ser un partido político con muchas máquinas con escaños en el Parlamento.

Yo creo que la inteligencia artificial va a ir irrumpiendo poco a poco en la gestión de la sociedad, en su organización.

Y me pregunto: ¿no será mejor que la política energética de un país la decida una inteligencia artificial entrenada con los éxitos y fracasos de 100 países en 20 estadios de su evaluación, y no un ministro de turno que no sabe ni le interesa la energía, es abogado, y va a tomar decisiones condicionadas por su entorno político?

Seguramente, sí.

Es muy probable que sus recomendaciones sean mucho más sensatas que las del ministro.

¿Y cuán cerca estamos de algo así?

Ahora mismo es muy precipitado.

Yo creo que la inteligencia artificial está entrando en nuestras vidas en aspectos muy técnicos, como la potabilización del agua, la gestión del tráfico y de los vuelos.

Y se están empezando a atacar temas más sofisticados que tienen que ver con medicina, la optimización de procesos y la eficiencia de las empresas, y que el nivel que va a llegar ahora, antes que la política, es el de las relaciones con los humanos.

Mano robot tocando con un dedo otro dedo de una mano humana.

Getty Images
¿Existirán en el futuro las relaciones de pareja entre humanos y robots?
 

Es un área en la que se está investigando mucho.

Yo tengo compañeros que están trabajando en asistentes personales para gente mayor.

Solo en España, se calcula que hay 150.000 mujeres que nunca más pisarán la calle, porque están impedidas, porque no tienen familiares, porque nadie las va a ayudar, porque son muy mayores, no reciben ni la llamada de una persona.

La soledad es tremenda para mucha gente.

Bueno, pues tener un asistente, es decir, una inteligencia artificial que les hable con una voz amable, que conozca sus vida, se preocupe de cómo están de la rodilla puede hacer una gran diferencia.

Y muchas veces ni siquiera vamos a distinguir si estamos hablando con una máquina o con un humano.

La gran pregunta es si se va a conformar un humano con que su relación sea con una máquina.

Pues yo diría que muchos humanos tienen perros o gatos con los cuales hablan cada día, les cuentan su vida.

Hay muchos caballeros que prefieren tener un coche muy bonito a cualquier otras cosa.

Los humanos ya hemos demostrado que somos capaces de dar nuestro amor a seres inanimados o a animales de compañía, y yo creo que le daremos nuestra simpatía a una inteligencia artificial.

Claro que sí.

Si no lo creen en el año 1960, MIT condujo unos experimentos bajo el nombre de Eliza, que fueron un primer intento de hacer un psiquiatra artificial, que le preguntaba al paciente sobre su vida.

Lo pararon por la gran dependencia que aparecía en ciertas personas de querer hablar con el programa artificial.

Si uno lee en internet los fragmentos reales de los diálogos entre la máquina y los humanos y ve cómo claramente los humanos se ponen en manos de la inteligencia artificial.

Mascota

Getty Images
Los humanos tienen relaciones emocionales con sus mascotas. ¿Cuán cerca estamos de tenerlas con máquinas?
 

A pesar de que el libro plantea muy claramente los peligros que tiene la irrupción de la inteligencia artificial y el espacio de libertad y privacidad que le estamos cediendo, también podría decirse que tienes una visión muy optimista de lo que viene. ¿Cómo es ese mundo utópico que te imaginas, tan distinto a las tragedias que vemos en las películas?

Yo creo que tenemos la falsa sensación de que todo va a peor.

Pero yo les invito a pensar que hace siglos no habríamos podido estar aquí, disfrutando de una charla, en un lugar bello, con el tiempo tiempo libre para hacerlo.

Pese a las muchas excepciones que por desgracia existen, no estamos trabajando 80 horas a la semana, ni nos estamos matando con sables.

Aunque nos cueste creerlo, nos hemos pacificado, nos hemos hecho una sociedad más culta, más ecuánime, más equitativa. ¿Qué puede ser más equitativa? Claro que sí.

Pero como muestra con datos el profesor de Harvard Steve Pinker, al que siempre me gusta mencionar, realmente nuestro progreso no es tan negativo como se piensa.

Dejamos la violencia atrás a medida que vamos garantizando nuestra subsistencia natural, y no tenemos que luchar por los bienes esenciales ni competir por los recursos.

¿Qué han hecho todas las sociedades avanzadas de la antigüedad, como los griegos, cuando llegaron a un nivel de vivir bien?

Pues se dedicaron al saber, al arte, a la literatura, a pensar en cómo debían organizarse las grandes matemáticas, a pensar si estamos o no estamos solos en el universo.

Entonces, ¿por qué está todo el mundo pensando que si alcanzamos una inteligencia artificial muy elevada va a ser mala, va a ser negativa, va a odiar a los humanos?

Ella no va a competir por recursos. No.

Como inteligencia avanzada querrá saber cómo es el universo, si la conjetura de Goldbach en matemáticas es cierta o es falsa, seguirá los pasos de la humanidad cuando ha tenido la capacidad de dedicarse a los temas más elevados.

Hay una idea que resume muy bien tu optimismo. Dices que «los humanos lograrán crear máquinas éticas» y que «la bondad debería ser ley». ¿Pero cómo les enseñamos a las máquinas a ser buenas, cómo les enseñamos la bondad?

Bueno, ahora vienen los líos de verdad.

Lo primero que hemos de hacer es entrenar las máquinas para las tareas de hoy en día, a los coches autónomos, a los drones, a los seres artificiales que toman decisiones alejados de nosotros de forma autónoma.

Google AI

Getty Images
Desde los millones de dólares invertidos por Google en los vehículos sin conductor al lanzamiento de Skype de su traductor simultáneo de voz, las máquinas inteligentes han cambiado nuestro estilo de vida.
 

¿Cómo procedemos? Esas decisiones que toman seres autónomos, ¿bajo qué criterios éticos se están tomando?

Siempre se da el ejemplo del coche autónomo que de repente tiene ante sí un accidente y no tiene tiempo de frenar. Debe irse a la izquierda, por donde va caminando un niño, o a la derecha, por donde camina un adulto de 50 años.

¿Qué hace? ¿hacia dónde gira? ¿a quién mata? Casi todo el mundo dice que se salva la vida del niño y se mata al adulto.

Pero esa no es una decisión que se toma en el momento. Hay que programarla, hay que crear algoritmos. Y ya hay gente que lo está haciendo. Ya hay máquinas programadas para decidir sobre la vida y la muerte de los humanos.

Modifiquemos un poco el problema.

El coche va a chocar y tiene a la izquierda a un hombre de 20 años y a la derecha al señor de 50, pero esta vez usando reconocimiento facial los identifica. Y sabe que el muchacho es un delincuente y el de 50 años es una persona que ha hecho un bien por la comunidad substancial y que una comunidad depende de sus grandes obras.

¿Qué va a hacer la inteligencia artificial? ¿A quién elige? De repente, quizás ya no hay que matar al señor mayor, sino al joven.

Auto autónomo de Uber

AFP/Getty Images
En marzo de 2018, Elaine Herzberg murió cuando un automóvil de Uber que operaba en modo autónomo la atropelló.
 

Esto ya es un aperitivo para saber que programar a estas máquinas no tiene nada, nada de sencillo.

¿Qué línea filosófica elegimos? ¿Nos inclinamos por los imperativos categóricos de Kant, que dicen que no le hagas al otro lo que no quieres que te hagan a ti? Entonces, el coche autónomo no giraría ni a la izquierda ni a la derecha, sino que tendría que matar al conductor.

¿O escogemos el utilitarismo de Stuart Mill y Jeremy Bentham, que plantea que debe primar el bien de la mayoría? Si es así, deberíamos salvar al señor de 50, y no al joven delincuente.

¿Pero es esa la decisión correcta? Y cuando hablamos del bien de la mayoría, ¿es de ahora o dentro de 100 años, o de cuándo?

Todas estas preguntas me hacen reflexionar que programar ética artificial es una de las tareas monumentales a la que nos vamos a enfrentar en los próximos años, porque nos va a afectar a todos. Ese coche nos va a arrollar, a uno o a otro.

Hay adelantos prometedores como que la Comisión Europea ha emitido por primera vez unas directrices éticas para la inteligencia artificial que incluyen la supervisión e inteligibilidad de los códigos, ha invitado a los parlamentos de cada país a legislar, y luego hace un conjunto de recomendaciones de verificación de que todo está funcionando bien.

Y yo pienso que todos hemos de codecidir, hemos de estar en esos comités todas las personas, los ingenieros que programan, los científicos, los políticos, los economistas, los abogados, los periodistas, el dentista, el señor que trabaja en el campo, el minero, porque todos seremos afectados por las acciones que recibiremos de las inteligencias artificiales.

También es prometedor que en Estados Unidos ciertas corporaciones han empezado a tener códigos éticos internos.

Bienvenido es que es Google, por ejemplo, haya establecido la prohibición de trabajar en ningún proyecto militar internamente. Es un código interno, que no existe en otras compañías.

¿Por qué decidiste no nombrar en tu libro las redes sociales?

Porque pienso que son pasajeras.

Yo creo que obviamente ahora estamos deslumbrados por el hecho de poder tener un amigo donde sea y decirle en el acto lo que sea.

Pero poquito a poco vamos a entender que tal vez no era una panacea, porque nos quitan tiempo para pensar, nos quitan la capacidad de reflexión.

Los colegios más avanzados de Silicon Valley ya han prohibido todas las redes sociales y los teléfonos, porque hay una cierta reacción por parte de muchas personas que se han percatado de que hay una mejora tan sólo aparente de nuestra libertad.

Se produce exactamente lo contrario: aparecen las fake news, la desinformación, la manipulación.

Es como decir que hemos de estar todo el día delante de la tele. No, está muy bien tener la televisión, pero ¡pensar que hay americanos que están más de cinco horas al día delante de ella!

Si eso era el progreso de la humanidad, pues triste progreso ha sido. Esa es mi opinión.


*Esta entrevista es parte de la versión digital del Hay Festival Arequipa 2019, un encuentro de escritores y pensadores que se realizó en esa ciudad peruana entre el 7 y el 10 de noviembre de 2019.

https://www.24horas.cl/noticiasbbc/ya-hay-maquinas-programadas-para-decidir-sobre-la-vida-y-la-muerte-de-los-humanos-los-fascinantes-y-urgentes-dilemas-de-ensenarle-etica-a-inteligencias-artificiales-3826293

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.