Idear cómo construir robots éticos es uno de los desafíos más espinosos de la inteligencia artificial.
En el relato corto de 1942, ‘Círculo vicioso’, el afamado escritor de ciencia ficción Isaac Asimov introdujo las Tres Leyes de la Robótica, ingeniería de salvaguardias de unos principios éticos incorporados que pasarían a ser utilizados en decenas de cuentos y novelas. Estos eran: 1) Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño; 2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley; y 3) Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
El robot Nao, totalmente programable, se ha utilizado para experimentar con la ética de la máquina. Peter Adams |
Oportunamente, el planteamiento de ‘Círculo vicioso’ [Runaround] se continúa en 2015. La robótica de la vida real está citando mucho las leyes de Asimov en estos días, dado que sus creaciones se convierten en lo suficientemente autónomas para necesitar ese tipo de orientación. En mayo, una charla panel sobre los coches sin conductor en la Brookings Institution, un centro de estudios en Washington DC, se convirtió en una discusión sobre cómo se comportarían los vehículos autónomos en una crisis. ¿Qué pasa si los esfuerzos de un vehículo para salvar a sus propios pasajeros, por ejemplo, frenando de golpe arriesgan un choque en cadena con los vehículos que vienen detrás de él? O ¿qué ocurre si un coche autónomo se desvía para evitar a un niño, pero arriesga el atropello de alguien más cerca?
«Cada vez vemos más sistemas autónomos o automatizados en nuestra vida diaria», señala el participante en panel Karl-Josef Kuhn, ingeniero de Siemens en Munich, Alemania. Pero, él se pregunta, ¿cómo pueden los investigadores dotar a un robot para reaccionar cuando la «la decisión a tomar está entre dos malas opciones»?
El ritmo de desarrollo es tal que, estas dificultades pronto afectarán a los robots de atención a la salud, drones militares y otros dispositivos autónomos, capaces de tomar decisiones que podrían ayudar o dañar a los seres humanos. Los investigadores están cada vez más convencidos de que la aceptación de la sociedad de tales máquinas dependerá de si pueden ser programados para actuar de manera que maximicen la seguridad, estar en consonancia con las normas sociales y fomenten la confianza. «Necesitamos algunos progresos serios para averiguar lo que es relevante en la inteligencia artificial a fin de razonar con éxito en las situaciones éticas», subraya Marcello Guarini, filósofo de la Universidad de Windsor en Canadá.
Varios proyectos están abordando este reto, incluyendo iniciativas financiadas por la Oficina de Investigación Naval y el consejo de gobierno sobre financiación de ingeniería del Reino Unido. Deben abordar cuestiones científicas difíciles, como qué tipo de inteligencia, y cuánta es necesaria para la toma de decisiones éticas, y cómo se puede traducir eso en instrucciones para una máquina. Científicos informáticos, expertos en robótica, especialistas en ética y filósofos están manos a la obra.
«Si me hubieran preguntado hace cinco años si podríamos fabricar robots éticos, habría dicho que no», apunta Alan Winfield, un experto en robótica del Laboratorio de Robótica de Bristol, Reino Unido. «Ahora ya no creo que sea una idea tan loca.»
Máquinas de aprendizaje
En un experimento citado frecuentemente, un robot comercial de juguete, llamado Nao, fue programado para recordarle a la gente que tomara su medicina.
«A primera vista, esto parece sencillo», dice Susan Leigh Anderson, filósofa de la Universidad de Connecticut, en Stamford, que hizo el trabajo con su marido, el informático Michael Anderson de la Universidad de Hartford, en Connecticut. «Pero incluso en este tipo de tarea tan limitada, hay cuestiones involucradas de ética nada triviales.» Por ejemplo, ¿cómo debe proceder Nao si un paciente se niega su medicación? Si le permite saltarse la dosis podría causar daño a esa persona. Pero, insistir en que la tome sería intervenir en su autonomía.
Al enseñar a Nao a navegar en tales dilemas, los Anderson dieron ejemplos de casos en los que los bioéticos habían resuelto los conflictos que involucran la autonomía y el daño y beneficio a un paciente. Los algoritmos de aprendizaje, entonces, se ordenaron a través de muchos casos hasta encontrar patrones que pudieran guiar al robot en situaciones nuevas (1) .
Con este tipo de ‘aprendizaje automático’, un robot puede extraer conocimiento útil incluso de entradas ambiguas (véase go.nature.com/2r7nav). El enfoque sería, en teoría, ayudar al robot a mejorar en la toma de decisiones éticas, dada la posibilidad de encontrarse con más situaciones. Pero muchos temen que estas ventajas tienen un precio. Los principios que emergen no están escritos en el código computerizado, por lo que «no hay manera de saber por qué un programa podría llegar a una regla particular diciendo que algo es éticamente «correcto, o no», señala Jerry Kaplan, profesor de inteligencia artificial y ética de la Universidad de Stanford en California.
Superar este problema requiere una táctica distinta, según dicen muchos ingenieros; la mayoría lo intentan mediante la creación de programas con reglas formuladas explícitamente, en lugar de pedir a un robot que lo deduzca por sí mismo. El año pasado, Winfield publicó los resultados (2) de un experimento que se preguntaba: ¿cuál es el conjunto más simple de reglas que permitiría a una máquina rescatar a alguien en peligro de caer en un agujero? Lo más obvio, se percataba Winfield, es que el robot necesita la capacidad de detectar sus alrededores, reconocer la posición del agujero y de la persona, así como su propia posición con respecto a ambos. Pero el robot también necesita normas que le permiten anticiparse a los posibles efectos de sus propias acciones.
El experimento de Winfield utiliza robots del tamaño de un disco de hockey en movimiento sobre una superficie. Designó algunos de estos ‘H-robots» como representaciones los seres humanos, y uno de ellos -en representación de máquina ética- el ‘A-robot», en nombre de Asimov. Winfield programó el A-robot con una regla análoga a la primera ley de Asimov: si percibe un H-robot en peligro de caer en un agujero, tiene que moverse en la trayectoria del H-robot para salvarlo.
Winfield, hizo que los robots pasaran docenas de prueba, y encontró que el A-robot salvaba su cargo cada vez. Pero entonces, para ver lo que la norma de no-daño podría lograr frente a un dilema moral, enfrentó al A-robot con dos H-robots que vagaban en peligro de forma simultánea. Y ahora, ¿cómo se comportaría?
Los resultados sugieren que incluso un robot mínimamente ético podría ser útil, cuenta Winfield: el A-robot con frecuencia se las arregló para salvar a un «humano», usualmente, moviéndose hacia el primero más cercano a él. A veces, moviéndose rápido, incluso se las arreglaba para salvar a ambos. Pero el experimento también mostraba los límites del minimalismo. En casi la mitad de los ensayos, el A-robot entraba en un titubeo indefenso y dejaba perecer a los dos ‘seres humanos’. Solucionar esto requeriría reglas adicionales sobre cómo tomar esas decisiones. Si un H-robot fuera un adulto y otro fuera un niño, por ejemplo, ¿a quién salvaría primero el A-robot? En materia de juicios como estos, ni siquiera los seres humanos se ponen de acuerdo. Y, a menudo, como Kaplan señala, «no sabemos cómo codificar lo que tales reglas explícitas deberían ser, y están necesariamente incompletas».
Los defensores argumentan que un enfoque basado en reglas tiene una virtud importante: siempre queda claro por qué la máquina hace la elección que hace, ya que sus diseñadores establecen las reglas. Esa es una cuestión fundamental para los militares de Estados Unidos, para el que los sistemas autónomos son un objetivo estratégico clave. Si las máquinas ayudan a soldados o llevan a cabo misiones potencialmente letales, «la última cosa que uno quiere es enviar a un robot autónomo a una misión militar y tener que funcionar bajo unas reglas éticas que debe seguir en el medio de esas situaciones», comenta Ronald Arkin, que trabaja en el software de ética robótica en el Instituto de Tecnología de Georgia en Atlanta. Si un robot tenía que elegir entre salvar a un soldado o ir a combatir a un enemigo, sería importante saber de antemano lo que debería hacer.
‘Robeair’ está diseñado para atender a personas enfermas o de edad avanzada. Jiiji Press/AFP/Getty |
Con el apoyo del Departamento de Defensa de Estados Unidos, Arkin está diseñando un programa para asegurarse de que un robot militar opere de acuerdo con las leyes internacionales de compromiso. Un conjunto de algoritmos, denominado gobernador ético, calcula si una acción, como el disparar un misil es permisible, y permite que se continúe sólo si la respuesta es «sí».
En una prueba virtual del gobernador ético, en una simulación, se le dio la misión a un vehículo autónomo no tripulado, de atacar objetivos enemigos; pero no se le permitió hacerlo si había edificios con civiles cerca. En unos escenarios dados, que variaban la ubicación del vehículo respecto a una zona de ataque y de complejos civiles, como hospitales y edificios residenciales, los algoritmos decidieron cuándo sería permisible para el vehículo autónomo llevar a cabo su misión (3) .
Los autónomos y militarizados robots toman a mucha gente como peligrosos, y ha habido innumerables debates sobre si deben ser permitidos. Pero Arkin argumenta que estas máquinas podrían ser mejores que los soldados humanos en algunas situaciones, si están programados para no romper nunca unas reglas de combate que los humanos sí podrían burlar.
Los científicos informáticos trabajan en una rigurosamente programada ética de la máquina en un código que utiliza los estados lógicos, como «Si un enunciado es verdadero, avanzar; si es falso, no moverse”. La lógica es la opción ideal para la codificación de la ética-máquina, afirma Luís Moniz Pereira, científico computacional del Laboratorio Nova de Ciencias de la Computación e Informática en Lisboa. «La lógica es cómo razonamos y llegamos a nuestras decisiones éticas».
La elaboración de instrucciones capaces de los pasos lógicos que intervienen en la toma de decisiones éticas es un desafío. Por ejemplo, señala Pereira, los lenguajes lógicos utilizados por los programas de ordenador tienen problemas para llegar a conclusiones sobre escenarios hipotéticos, pero estos contrafactuales son cruciales en la resolución de ciertos dilemas éticos.
Una de ellos se ilustra con el problema de la carretilla, usted se imagina un carro de tren fuera de control, está a punto de matar a cinco personas inocentes que se encuentran en las vías. Puede salvarlos solamente si usted tira de una palanca que desvía el tren a otra vía, donde golpeará y matará a un transeúnte inocente. ¿qué haces? En otra configuración, la única manera de detener el carro es empujar el transeúnte a las vías.
La gente a menudo responden que está bien detener el carro pulsando la palanca, pero rechazan visceralmente la idea de empujar el transeúnte. La intuición básica, conocida por los filósofos como la doctrina del doble efecto, es que el daño infligido intencional está mal, incluso por buena causa. Sin embargo, infligir un daño podría ser aceptable si no es deliberado, simplemente como consecuencia de hacer un bien a otros, como el caso de que el transeúnte simplemente pasaba por las vías.
Esta es una línea muy difícil de análisis para un programa de toma de decisiones. Para empezar, el programa debe ser capaz de ver los dos futuros diferentes: uno en el que el carro mata a cinco personas, y otro en el que sólo mata a uno. El programa debe entonces preguntarse si la acción necesaria para salvar a los cinco es inadmisible, por el volumen de daño causado, o permisible porque el daño es sólo un efecto secundario de una buena causa.
Para averiguarlo, el programa debe ser capaz de decir lo que sucedería si elige no empujar al transeúnte o tirar de la palanca, para dar cuenta de los contrafactuales. «Sería como si un programa estuviese constantemente depurándose a sí mismo», comenta Pereira, «encontrar dónde en una línea de código algo podría cambiar, y predecir cuál sería el resultado del cambio». Pereira y Ari Saptawijaya, un científico computacional de la Universidad de Indonesia en Depok, han escrito un programa lógico (4) que puede sacar con éxito una decisión basada en la doctrina del doble efecto, así como de la doctrina más sofisticada del triple efecto, que tiene en cuenta si el daño causado es producto de la intención de la acción, o simplemente necesario para ello.
Humanos, moral y máquinas
El cómo se construya la ética de robots podría tener importantes consecuencias para el futuro de la robótica, dicen los investigadores. Michael Fisher, informático en la Universidad de Liverpool, Reino Unido, cree que los sistemas de seguir reglas obligadas podría ser tranquilizador para el público. «La gente va a tener miedo de los robots, si no están seguros de lo que están haciendo», dice. «Pero si podemos analizar y probar las razones de sus acciones, somos más propensos a superar ese problema de confianza». Él está trabajando con Winfield y otros, en un proyecto financiado por el gobierno para verificar que los resultados de los programas éticos de las máquinas sean siempre cognoscibles.
Por el contrario, el enfoque de la máquina que aprende promete que los robots pueden aprender de la experiencia, que en última instancia podría hacerlos más flexibles y útiles que sus contrapartes más rígidamente programados. Muchos expertos en robótica dicen que el mejor camino a seguir sería una combinación de ambos enfoques. «Es casi como una psicoterapia», apunta Pereira. «Probablemente no sólo se tiene que utilizar una teoría». El desafío, aún no resuelto, es combinar los enfoques de una manera viable.
Estos problemas pueden surgir más pronto que tarde en el campo del rápido movimiento del transporte autónomo. Actualmente, los coches sin conductor de Google están rodando a través de distintas partes de California (véase Nature 518, 20–23; 2015+++ ). En mayo, los camiones autónomos del fabricante alemán de automóviles Daimler, empezaron a conducir solos a través del desierto de Nevada. Los ingenieros están pensando seriamente en cómo programar estos coches tanto para obedecer las reglas como para adaptarse a las situaciones en la carretera. «Hasta ahora hemos estado tratando de hacer que los robots no hagan cosas que para los seres humanos están mal», como el no despegar la atención en los viajes largos o ser rápido con los frenos cuando ocurre algo inesperado, dice Bernhard Weidemann, portavoz de Daimler en Stuttgart. «En el futuro, tendremos que intentar programar cosas que para los seres humanos vemos como naturales, pero no así en las máquinas.»
# # # # # #
– Fuente: Nature 523, 24–26 (02 July 2015) doi:10.1038/523024a
(1) Anderson, M. & Anderson, S. L. AI Magazine 28, 15–26 (2007).
(2) Winfield, A. F. T., Blum, C. & Liu, W. in Advances in Autonomous Robotics Systems 85–96 (Springer, 2014).
(3) Arkin, R. C., Ulam, P. & Duncan, B. An Ethical Governor for Constraining Lethal Action in an Autonomous System Technical Report GIT-GVU-09-02 (2009).
(4) Pereira, L. M. & Saptawijaya, A. in Logic, Argumentation and Reasoning (eds Urbaniak, R. & Payette, G.) (Springer, in the press); available at http://go.nature.com/3xlske . – See more at: http://bitnavegante.blogspot.com.es/2015/07/etica-maquina-el-dilema-del-robot.html#sthash.28rJQ1dx.dpuf