¿Inteligencia artificial con conducta ética?
Foto: Archivo particular
Investigadores estiman que hay una probabilidad del 50 % de crear máquinas con un nivel de inteligencia humano entre el 2040- 2050.
El mes pasado, AlphaGo, un programa de computadora diseñado especialmente para jugar al go, generó asombro entre los aficionados al derrotar a Lee Sidol, uno de los mejores jugadores profesionales del mundo, en un torneo a cinco partidos que ganó por 4 a 1.
¿Y cuál es la novedad?, dirá usted. Ya pasaron veinte años desde que la computadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, y es bien sabido que desde entonces las computadoras han mejorado. Pero Deep Blue ganó por puro poder de cómputo, usando su capacidad para calcular los resultados de más jugadas a más distancia de la actual que lo que puede hacer incluso un campeón mundial.
El go se juega en un tablero mucho más grande (una cuadrícula de 19 por 19, en vez de los 8 por 8 escaques del ajedrez) y la cantidad de posibilidades de juego supera a la de átomos en el universo; por eso, el mero poder de cálculo difícilmente bastaría para vencer a un ser humano dotado de un fuerte sentido intuitivo de las mejores jugadas.
En vez de eso, para enseñarle a AlphaGo cómo ganar, se lo hizo jugar una enorme cantidad de partidos contra otros programas y adoptar luego las estrategias exitosas. Podríamos decir que AlphaGo evolucionó hasta convertirse en el mejor jugador de go del mundo, y al hacerlo consiguió en solo dos años lo que a la selección natural le llevó millones.
Eric Schmidt, presidente ejecutivo de la empresa matriz de Google que es propietaria de AlphaGo, está entusiasmado por lo que la inteligencia artificial (IA) supone para la humanidad. Antes del partido entre Lee y AlphaGo, dijo que cualquiera fuera el resultado, ganaría la humanidad porque los avances en IA nos harán a todos más inteligentes, más capaces y “mejores seres humanos”.
¿Será verdad? Más o menos en simultáneo con el triunfo de AlphaGo, Microsoft sufrió una experiencia embarazosa con un chatbot: un programa al que diseñaron para interactuar en redes sociales con personas de entre 18 y 24 años, que hacía el papel de una adolescente llamada Taylor.
Se suponía que Tay (así se presentaba ella) aprendería de los mensajes que recibiera y mejoraría gradualmente su capacidad para mantener conversaciones interesantes. Por desgracia, en menos de 24 horas, la gente estaba enseñándole ideas racistas y sexistas. Cuando empezó a elogiar a Hitler, Microsoft la desconectó y eliminó sus mensajes más ofensivos.
No sé si las personas que convirtieron a Tay en racista lo eran ellas mismas, o solo les pareció divertido sabotear el nuevo juguete de Microsoft. Como sea, la victoria de AlphaGo y la derrota de Taylor, puestas lado a lado, obran de advertencia. Poner a un programa de IA a jugar un juego con reglas específicas y un objetivo claro es una cosa; soltar un programa de IA en el mundo real, donde lo impredecible del entorno puede revelar un error del software, con consecuencias desastrosas, es otra muy diferente.
Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford, señala en su libro Superinteligencia que desconectar una máquina inteligente no siempre será tan fácil como lo fue con Tay. Bostrom define la superinteligencia como un intelecto que es “más inteligente que los mejores cerebros humanos en prácticamente cualquier campo, incluida la creatividad científica, el sentido común y las habilidades sociales”. Un sistema así podría ser capaz de frustrar nuestros intentos de apagarlo.
No todos creen que la superinteligencia llegue a concretarse. Bostrom y su colega Vincent Müller preguntaron a expertos en IA para qué año consideraban que habría una probabilidad del 50 % de crear máquinas con un nivel de inteligencia humano, y lo mismo con el 90 %. La media de las respuestas para el supuesto del 50 % se situó entre 2040 y 2050, y para el 90 % fue 2075. La mayoría de los expertos consideraron que la superinteligencia llegaría dentro de los 30 años de haberse logrado una inteligencia artificial de nivel comparable al humano.
Pero estas estimaciones hay que tomarlas con pinzas. De los invitados a la encuesta, los que efectivamente respondieron no fueron más del 31 %, y los investigadores en IA tienen motivos para realzar la importancia de su área de trabajo proclamando su potencial de producir resultados trascendentales.
La posibilidad de que un día exista la superinteligencia artificial puede parecer demasiado remota como para preocuparse, especialmente con los problemas que ya hay. Pero tiene sentido que empecemos a pensar en cómo diseñar la IA de modo que tenga en cuenta los intereses de los seres humanos, y en realidad, de todos los seres sensibles (incluidas las máquinas, si también fueran seres conscientes con intereses propios).
Ahora que por las rutas de California andan autos sin conductor, ya es hora de preguntarnos si es posible programar criterios éticos en una máquina. Conforme esos autos mejoren, salvarán vidas, porque cometerán menos errores que un conductor humano. Pero, a veces, tendrán que elegir entre vidas. ¿Deberíamos programarlos para pegar un volantazo y salvarle la vida a un niño que cruzó la calle sin mirar, aunque al hacerlo ponga en riesgo las vidas de sus pasajeros? ¿Y si en vez de un niño fuera un perro? ¿Y si el único riesgo de daño es al auto, pero no a los pasajeros?
Ya un debate sobre cuestiones éticas en relación con autos sin conductor podría enseñarnos algo. Pero los autos sin conductor no son seres superinteligentes. Enseñarle ética a una máquina que nos supere en una amplia variedad de campos sería mucho más complejo.
PETER SINGER
http://www.periodicoelnuevomundo.com/2016/04/ensenarle-etica-una-maquina-que-nos.html
Enseñarle ética a una máquina ( tenga la inteligencia que tenga ) producirá efectos indeseados de manera inevitable. 100 % seguro.
La ética no es matemática, está sujeta a interpretación, cambio y opinión. Una máquina sólo puede aplicar parámetros inducidos en base a los cuales decide la mejor opción. Pero la » mejor opción » no siempre coincide con la opción humana.
Esto se puede ilustrar de miles de maneras, por ejemplo :
Si una máquina debe elegir entre salvar la vida de tres humanos o la de uno solo, elegirá la primera opción. Pero si un humano debe elegir entre salvar la vida de tres humanos desconocidos o la de su hijo, los tres humanos lo tienen crudo. Porque las máquinas no tienen hijos, ni lazos afectivos, ni sentimientos, ni empatia.
……………………………………………………………
Por otra parte las máquinas, por mucha programación sentimental que les hagan, siempre tendrán una base mayoritariamente lógica. Y la lógica no siempre conduce a soluciones humanamente aceptables.
La idea de Hitler de solo un pais a nivel mundial, que es la misma de Alejandro Magno y de Napoleón, no es mala lógicamente hablando. De hecho hoy dia se pretende lograr éso mismo. Pero la máquina de Microsoft fué tachada de racista. El control de la natalidad y la reducción poblacional humana es algo que una máquina consideraría obvio e indiscutible, pero los humanos no. Ejemplos habría miles.
Por tanto no es que sea difícil enseñar ética a una máquina, es que es imposible. La ética es intrínsecamente humana y los humanos no somos matemáticas ni, generalmente, lógicos.
» Investigadores estiman que hay una probabilidad del 50 % de crear máquinas con un nivel de inteligencia humano entre el 2040- 2050. »
Eso depende de cuales humanos tomen como referencia. Yo conozco unos cuantos cuyo nivel no llega al de un teléfono móvil común.
Si buscamos crear máquinas con un nivel de inteligencia similar al de los seguidores de programas de telerrealidad o telebasura, tampoco parece demasiado complicado. Un pc medio tiene más inteligencia que la suma del auditorio de ésos programas.
Hay demasiado optimismo con esto del desarrollo de la IA, pero no es tan sencillo como suponerlo. Al contrario, es sumamente complejo y difícil.
Para acabar señalar que la victoria de máquinas ( programas sería más correcto ) sobre humanos en juegos mayormente lógicos no va más allá de la mera anécdota circense. Nada indica sobre el desarrollo de ésos sistemas. Cualquier calculadora de bolsillo hace operaciones matemáticas más rápido y eficazmente que un humano.
No dejé de jugar al ajedrez cuando Deep Blue derrotó a Kasparov ni dejaré de jugar Go por que Alphago haya derrotado a Sidol. Que unas máquinas lo hayan hecho nada me dice.
Hay algo que las máquinas no pueden igualar :
Cuando acabamos unas partidas de ajedrez o go, los dos jugadores nos vamos a tomar unas cervecitas bien frescas, pagando el derrotado claro, y bromeamos al respecto. Una máquina no puede igualar éso.
Una maquina es una maquina ,yo no le veo ningun sentido ensenarle etica.
Eric Schmidt dijo que cualquiera fuera el resultado, ganaría la humanidad porque los avances en IA nos harán a todos más inteligentes, más capaces y “mejores seres humanos”.
Eric Schmidt, no tienes ni la mas remota idea de lo que es ser un mejor ser humano.
Es una lastima que no te lo pueda decir en tu cara.
Lógicamente la ética será una ética «programada» y no autónoma , por lo tanto no depende de la maquina sino del constructor o programador de ella e indirectamente en acción y directamente por «constructor» sera el responsable de lo actuado por la maquina.
Para que una maquina tenga ética autónoma deberán pasar algunas centenios luego del primer desarrollo, y como expresa uno de los comentarios anteriores en ese caso es un riesgo que no se puede calcular.