Al final del artículo hay un PDF para descargar
Los principales investigadores de IA del mundo discrepan en sus pronósticos sobre el futuro de la IA, que van desde el optimismo confiado hasta la seria preocupación. Ni siquiera tienen consenso sobre cuestiones como el impacto a corto plazo en áreas como la científica, la económica, la legal, la laboral y la militar por parte de la IA, y sus desacuerdos crecen cuando preguntamos sobre la inteligencia artificial general (AGI), especialmente sobre si la AGI alcanzará el nivel humano y más allá, llegando a la superinteligencia artificial. Para ello, a lo largo del artículo haré algunas referencias al cerebro y la conciencia humana. La inteligencia artificial general (AGI) se supone que puede lograr prácticamente cualquier objetivo, incluido el aprendizaje general, en contraste con la inteligencia limitada de un programa de, por ejemplo, ajedrez. Curiosamente, la controversia sobre la IA del futuro se centra principalmente en cuándo sucederá ello y qué significará para la humanidad. Un grupo destacado, los tecnoescépticos, piensa que construir una AGI sobrehumana es tan difícil que no sucederá hasta dentro de cientos de años y, por lo tanto, consideran absurdo preocuparse por ello. Esta es la posición articulada curiosamente por Andrew Ng, científico jefe de Baidu, el Google chino. Opina que preocuparse por el riesgo de la IA es una distracción potencialmente dañina que podría frenar el progreso de la IA, a la que China está dedicando muchos esfuerzos. Y tal vez esto último explique el extraño escepticismo de Andrew Ng. Aunque los utópicos digitales y los tecnoescépticos están de acuerdo en que no deberíamos preocuparnos por la IA, no están de acuerdo en mucho más. La mayoría de los utópicos piensan que la AGI a nivel humano podría ocurrir dentro de los próximos veinte a cien años, lo que los tecnoescépticos descartan como un sueño, por lo que a menudo ridiculizan la singularidad profetizada por Ray Kurzweil, desde 2012 director de Ingeniería en Google, especialmente a través de su interesante libro La Singularidad está cerca, que es un libro que explora el futuro de la tecnología y cómo ésta podría transformar la humanidad.
Kurzweil es un futurista, tecnólogo y experto en Inteligencia Artificial, y en su libro predice que estamos avanzando hacia un momento en la historia donde la inteligencia artificial (IA) superará la inteligencia humana, lo que él llama «la Singularidad«. Kurzweil sostiene que la tecnología no avanza de forma lineal, sino exponencial. Esto significa que la velocidad del progreso tecnológico se duplica cada cierto tiempo. Por ejemplo, los microchips se vuelven más rápidos y pequeños cada año, lo que ha permitido avances increíbles en computación y otros campos. Kurzweil también predice que para el 2045 alcanzaremos un punto donde las máquinas serán más inteligentes que los seres humanos. En este momento, la tecnología estará tan avanzada que cambiará la vida humana de manera drástica, más allá de lo que podemos imaginar hoy. Una de las ideas más impactantes del libro es que los humanos podrían integrarse con la tecnología. Esto podría ser a través de implantes cerebrales, nanotecnología en el cuerpo, o incluso transferir nuestra conciencia a computadoras, lo que podría hacernos virtualmente inmortales. Kurzweil discute las posibles consecuencias de la Singularidad, tanto positivas como negativas. Por un lado, podríamos resolver problemas como el envejecimiento, enfermedades y la escasez de recursos. Por otro lado, existe la preocupación de que las máquinas puedan volverse tan poderosas que podrían escapar a nuestro control. El libro también toca temas sobre lo que significa ser humano y los dilemas éticos de crear máquinas con inteligencia superior. ¿Qué derechos tendrían? ¿Cómo afectará esto nuestras identidades y la sociedad en su conjunto? En resumen, La singularidad está cerca es una exploración fascinante sobre el futuro de la humanidad y la tecnología, proponiendo que en un futuro no muy lejano, las máquinas no solo cambiarán el mundo, sino que podrían redefinir lo que significa ser humano.
Pero antes de continuar veamos de que hablamos cuando nos referimos a la Inteligencia Artificial. La inteligencia artificial (IA) es una rama de la informática que busca crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana. Estas tareas incluyen, entre otras muchas, el reconocimiento de voz, la toma de decisiones, la resolución de problemas, el procesamiento del lenguaje natural, el reconocimiento de patrones y el aprendizaje a partir de datos. A lo largo de las décadas, la IA ha evolucionado significativamente, abarcando distintos enfoques y tecnologías. La IA tiene sus raíces en los años 1950, cuando matemáticos como Alan Turing y John von Neumann comenzaron a explorar si las máquinas podían pensar o resolver problemas de manera autónoma. Turing desarrolló lo que ahora se conoce como la «Prueba de Turing«, un criterio que evalúa si una máquina puede mostrar un comportamiento indistinguible del humano en una conversación. En los primeros años, los investigadores de IA se centraron en crear programas que pudieran ejecutar reglas lógicas y tomar decisiones basadas en información predefinida, lo que se conoce como IA simbólica. Aunque esta aproximación fue exitosa en resolver problemas en dominios limitados, como juegos de ajedrez, resultó ser ineficaz en el mundo real, donde los problemas son mucho más complejos y variables. El avance clave en la IA moderna se ha producido gracias al aprendizaje automático (machine learning), un subcampo que permite a las máquinas aprender de los datos y mejorar su rendimiento con el tiempo sin ser programadas explícitamente para todas las tareas. Dentro del aprendizaje automático, se ha desarrollado el aprendizaje profundo (deep learning), que utiliza redes neuronales artificiales para procesar grandes cantidades de datos y extraer patrones complejos. Estas técnicas han revolucionado áreas como el reconocimiento de voz, la visión por computadora y la traducción automática.
Existen diferentes categorías de inteligencia artificial, que varían en su capacidad y sofisticación: 1) IA Débil o Específica (ANI – Artificial Narrow Intelligence): Se refiere a sistemas diseñados para realizar una tarea específica, como jugar ajedrez o clasificar correos electrónicos como spam. La gran mayoría de las IA actuales pertenecen a esta categoría. Aunque son muy eficientes en sus dominios específicos, no tienen consciencia ni pueden transferir conocimientos de una tarea a otra. 2) IA Fuerte o General (AGI – Artificial General Intelligence): Este concepto se refiere a sistemas que podrían realizar cualquier tarea cognitiva que un humano puede hacer, es decir, una inteligencia comparable a la humana. A día de hoy, la AGI no existe y sigue siendo un objetivo en la investigación de IA. 3) Superinteligencia Artificial (ASI – Artificial Superintelligence): Teóricamente, se refiere a una IA que supera en inteligencia a los seres humanos en todos los aspectos, incluyendo la creatividad, la resolución de problemas y la toma de decisiones. Algunos investigadores ven la ASI como un escenario potencialmente peligroso si no se maneja adecuadamente, mientras otros creen que aún está muy lejos de ser una realidad. La IA tiene aplicaciones en una amplia variedad de sectores, algunos de los más notables son: 1) Salud: La IA ayuda en el diagnóstico de enfermedades, el análisis de imágenes médicas y el desarrollo de medicamentos. Los sistemas basados en IA pueden analizar grandes volúmenes de datos médicos y detectar patrones que podrían pasar desapercibidos para los médicos humanos. 2) Transporte: La IA impulsa el desarrollo de vehículos autónomos que utilizan algoritmos para tomar decisiones en tiempo real, como el frenado o el giro en función de las condiciones del tráfico. 3) Comercio Electrónico: Las empresas utilizan la IA para personalizar la experiencia de compra, recomendar productos y optimizar la cadena de suministro. 4) Finanzas: Los bancos y otras instituciones financieras usan IA para detectar fraudes, realizar análisis de riesgo crediticio y optimizar carteras de inversión. 5) Entretenimiento: Plataformas como Netflix y Spotify utilizan la IA para recomendar películas y música basadas en los gustos y hábitos de los usuarios. 6) Procesamiento de Lenguaje Natural (PLN): Esta subárea de la IA se enfoca en la comprensión y generación de lenguaje humano. Herramientas como asistentes virtuales (Siri, Alexa), traductores automáticos y chatbots son ejemplos de sistemas que utilizan PLN para interactuar con los humanos. 7) Uso militar: actualmente ya se están utilizando drones autónomos que utilizan algoritmos de IA en base a información recogida por sensores, cámaras, etc…
A medida que la IA se vuelve más sofisticada y omnipresente, surgen varios retos y preocupaciones éticas: 1) Desplazamiento de empleos: A medida que los sistemas automatizados reemplazan a los trabajadores en diversas industrias, existe el temor de que muchos empleos desaparezcan, especialmente aquellos que son repetitivos o rutinarios. 2) Privacidad y Seguridad de Datos: La IA requiere grandes cantidades de datos para ser efectiva. Esto plantea preocupaciones sobre la privacidad y la forma en que las empresas y gobiernos recopilan y utilizan la información personal. 3) Sesgo y Discriminación: Los algoritmos de IA a menudo reflejan los sesgos presentes en los datos de los que aprenden. Esto puede llevar a decisiones injustas en áreas como la contratación laboral, la concesión de préstamos y la justicia penal. 4) Control y Responsabilidad: ¿Quién es responsable si un sistema de IA comete un error, como en el caso de un vehículo autónomo que causa un accidente? La falta de un marco legal adecuado para la IA plantea preguntas sobre cómo se deben regular estos sistemas. Muchos expertos, como el físico Stephen Hawking y el empresario Elon Musk, han advertido sobre los peligros de desarrollar una IA que supere la inteligencia humana, ya que podría actuar de manera contraria a los intereses de la humanidad si no se controla adecuadamente. El futuro de la IA es una cuestión abierta y depende de cómo se desarrollen las tecnologías y las políticas globales. Algunos posibles desarrollos incluyen: 1) Avances en la IA General: La creación de una inteligencia artificial general (AGI) sigue siendo un objetivo de investigación. Aunque no hay consenso sobre cuándo (o si) se logrará, su impacto sería transformador en todos los aspectos de la sociedad. 2) Mejora de la ética y regulación: A medida que la IA se adopta más ampliamente, es probable que surjan regulaciones para garantizar que las tecnologías se utilicen de manera segura, ética y equitativa. 3) IA explicable: Los sistemas de IA son cada vez más complejos, lo que dificulta entender cómo toman decisiones. La «IA explicable» es un área de investigación que busca hacer los sistemas de IA más transparentes y comprensibles para los humanos. En resumen, la inteligencia artificial es una de las tecnologías más prometedoras y disruptivas de nuestro tiempo, con el potencial de transformar múltiples industrias y aspectos de la vida humana. Sin embargo, también plantea desafíos importantes que deben ser abordados para garantizar que su desarrollo sea beneficioso para la sociedad.
Stuart Jonathan Russell es un informático conocido por sus contribuciones a la inteligencia artificial y que es profesor de ciencias de la computación en la Universidad de California en Berkeley, así como profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco. Stuart Jonathan Russell considera que el progreso en IA lo había persuadido de que la AGI a nivel humano era una posibilidad real en este siglo XXI, pero no había garantías sobre un buen resultado si no se garantizaba la seguridad. Actualmente muchos grupos en todo el mundo están llevando a cabo el tipo de investigación sobre seguridad de la IA que Russell defiende. Pero hasta hace poco los principales investigadores de IA a menudo malinterpretaban las conversaciones sobre los riesgos de la IA y las descartaban como alarmismo destinado a impedir el progreso de la IA. Preocupaciones similares a las de Stuart Jonathan Russell fueron expresadas por primera vez hace más de medio siglo por el pionero de la informática Alan Turing y el matemático Irving J. Good, que trabajó con Turing para descifrar códigos alemanes durante la Segunda Guerra Mundial. En los últimos años la investigación sobre estos temas fue llevada a cabo principalmente por un puñado de pensadores independientes que no eran propiamente investigadores profesionales de IA, como el filósofo sueco de la Universidad de Oxford Nick Bostrom. Pero su trabajo tuvo poco efecto en la mayoría de los principales investigadores de IA, que tendían a centrarse en hacer que los sistemas de IA fueran más inteligentes en lugar de contemplar las consecuencias a medio y largo plazo.
Sin embargo, había la disyuntiva de si la tecnología sería algo beneficioso o significaría la autodestrucción de la humanidad. Se desencadenó una ola de cobertura mediática sobre la seguridad de la IA, con Elon Musk, Bill Gates y otros líderes tecnológicos interviniendo. El libro Superinteligencia: Caminos, peligros, estrategias, de Nick Bostrom, alimentó aún más el creciente debate público. Era evidente que el objetivo de la IA debería redefinirse y que el nuevo objetivo debería ser crear inteligencia beneficiosa para los seres humanos. El movimiento por una IA beneficiosa había comenzado a generalizarse. Las cuestiones que plantea el éxito de la IA no son sólo intelectualmente fascinantes sino que también son moralmente cruciales, porque nuestras decisiones pueden afectar todo el futuro de la vida, ya que podríamos construir tecnología lo suficientemente poderosa como para acabar con la humanidad misma. O bien podríamos crear sociedades con un estado de vigilancia global orwelliano, como en la novela 1984, tan poderoso que nunca podría ser derrocado. Primero nos tenemos que hacer varias preguntas: ¿Qué tipo de futuro queremos? y ¿Qué significará ser humano en la era de la inteligencia artificial? Se han realizado una serie de encuestas preguntando a los investigadores de IA cuántos años creen que tardaremos en tener AGI a nivel humano con al menos un 50% de probabilidad, y todas estas encuestas llegan a la misma conclusión: los principales expertos del mundo no están de acuerdo, aunque la respuesta promedio fue para el año 2055. Pero aunque la mayoría de las personas preocupadas por el AGI sobrehumano suponen que todavía faltan al menos décadas para que se produzca, sería conveniente comenzar la investigación de seguridad ahora para prepararnos ente esa eventualidad, ya que muchos de los problemas de seguridad son tan difíciles que pueden tardar décadas en resolverse, por lo que es prudente empezar a investigarlos ahora y no la noche antes de que surja una AGI.
La idea de desarrollar una inteligencia artificial general (AGI) que iguale o supere las capacidades humanas, aunque con muchísima mayor rapidez, es un objetivo en el campo de la inteligencia artificial. Aunque ha habido avances significativos en IA en las últimas décadas, alcanzar una AGI con capacidades similares a las humanas, pero ejecutadas mucho más rápidamente, presenta desafíos técnicos, éticos y filosóficos. La mayoría de las aplicaciones de IA de hoy en día son específicas para tareas concretas, como el reconocimiento de voz, el procesamiento de imágenes, la traducción automática, los juegos estratégicos y la IA generativa, capaz de generar texto, imágenes u otros medios en respuesta a peticiones, como GPT-4 de OpenAI. Estas IA especializadas son extremadamente eficientes en sus dominios específicos, a menudo superando las capacidades humanas en velocidad y precisión, pero no pueden generalizar su conocimiento a otras áreas. Pero los algoritmos de aprendizaje profundo y las redes neuronales han impulsado avances significativos en el procesamiento de datos, permitiendo aplicaciones como GPT-4, antes mencionada, que puede generar texto coherente y responder preguntas complejas de manera eficaz, como yo mismo he podido comprobar. Se está hablando mucho de algoritmos de IA y de aprendizaje profundo. Pero, ¿qué son los algoritmos de IA y el aprendizaje profundo? ¿Cómo se realiza el aprendizaje? Piensa en un algoritmo de inteligencia artificial (IA) como una receta de cocina, una analogía que ya he utilizado en un artículo anterior. Una receta te da instrucciones paso a paso sobre cómo preparar un plato específico. De manera similar, un algoritmo de IA es un conjunto de instrucciones que le dice a una computadora cómo resolver un problema o realizar una tarea específica. Por ejemplo, si quieres que una computadora reconozca si una foto es de un perro o un gato, le das una «receta» (algoritmo) que le indica cómo analizar la foto y decidir qué animal es. El aprendizaje profundo es una técnica avanzada de IA, que es como una versión súper compleja de esa receta. En lugar de una receta simple, es como un chef que ha aprendido de millones de recetas y puede crear platos nuevos sin instrucciones explícitas. Imagina que tienes una red de neuronas, como las del cerebro humano. En el aprendizaje profundo, construimos una «red neuronal artificial» que está formada por capas de nodos (neuronas) conectados entre sí. Cada capa de esta red toma datos de la capa anterior, los procesa y los pasa a la siguiente capa. Cada «neurona» en una capa toma decisiones simples basadas en los datos que recibe y las envía a las neuronas de la siguiente capa. La red ajusta las conexiones entre las neuronas basándose en la información que recibe, similar a cómo el cerebro humano aprende de la experiencia.
El proceso de aprendizaje en la IA, especialmente en el aprendizaje profundo, puede compararse con cómo aprende un niño pequeño. Imagina que le enseñas a un niño a reconocer perros y gatos mostrándole muchas fotos de ambos. En IA, usamos un gran conjunto de datos (fotos de perros y gatos) para entrenar al algoritmo. Las fotos tienen etiquetas que dicen «perro» o «gato«. Esto es como decirle al niño «esto es un perro» o «esto es un gato«. Inicialmente, el niño (o el algoritmo) comete muchos errores. Cada vez que el niño se equivoca, le corriges. De manera similar, el algoritmo ajusta sus conexiones internas (neuronas) cada vez que comete un error. Con el tiempo y la práctica, el niño mejora y comete menos errores. El algoritmo también se vuelve más preciso a medida que recibe más datos y corrige sus errores. Finalmente, el niño puede ver una nueva foto de un animal que nunca ha visto antes y decir si es un perro o un gato con bastante precisión. El algoritmo también puede hacer predicciones precisas sobre datos nuevos una vez que está bien entrenado. Vemos pues que los algoritmos de IA son como recetas que le indican a una computadora cómo hacer una tarea específica. El aprendizaje profundo es una técnica avanzada donde la computadora utiliza redes neuronales para aprender de manera similar a cómo lo hace el cerebro humano. La computadora se entrena con muchos ejemplos, ajusta sus decisiones basándose en errores y mejora con el tiempo. La IA puede generar nuevos datos, y esto se hace de varias maneras, especialmente utilizando técnicas de aprendizaje profundo. Aquí hay algunos ejemplos: Las Redes Generativas Antagónicas (GANs) son un tipo de modelo que puede generar nuevos datos que se parecen mucho a los datos reales. Un GAN consta de dos redes neuronales que se entrenan juntas. El generador crea datos falsos, mientras que el discriminador intenta distinguir entre datos reales y datos falsos. A través de este proceso, el generador aprende a crear datos muy realistas. Por ejemplo, GANs se utilizan para generar imágenes realistas de caras humanas que no existen. Los modelos de lenguaje, como GPT-4, pueden generar texto coherente basándose en el texto de entrenamiento que han visto. Pueden escribir texto, poesía, responder preguntas, etc. Por ejemplo, GPT-4 puede escribir textos varios o mantener conversaciones naturales. En tareas como el reconocimiento de imágenes, se pueden crear nuevos datos aplicando transformaciones a las imágenes existentes (rotaciones, recortes, cambios de color). Esto aumenta la cantidad de datos de entrenamiento disponibles sin necesidad de recolectar nuevos datos. Por ejemplo, una foto de un gato se puede rotar, cambiar el brillo o recortar para crear varias versiones de la misma imagen.
Una Inteligencia Artificial General (AGI) debe ser capaz de aprender y adaptarse a una amplia variedad de tareas y entornos, algo que actualmente solo los seres humanos pueden hacer de manera efectiva. Esto requiere avances en algoritmos que permitan una verdadera comprensión contextual y transferencia de conocimiento entre dominios diversos. Procesos cognitivos humanos como el razonamiento abstracto, la creatividad, la intuición, y la comprensión emocional aún son difíciles de replicar en máquinas. La AGI necesitaría no solo habilidades computacionales, sino también una forma de simular o emular estos procesos cognitivos complejos. El desarrollo de una AGI requeriría una cantidad enorme de datos y de poder computacional, así como avances en hardware y arquitectura de computación, tal como la computación cuántica. La eficiencia energética y la escalabilidad de estos sistemas son también factores críticos. Es probable que veamos avances graduales hacia la AGI a través de mejoras continuas en IA especializada y el desarrollo de sistemas más integrados y versátiles. Investigaciones en áreas como el aprendizaje sin supervisión, el aprendizaje por transferencia y la neurociencia computacional pueden proporcionar nuevos enfoques y modelos. Tal como ya he dicho, los expertos tienen opiniones variadas sobre cuándo se podría alcanzar una AGI, con estimaciones que van desde unas pocas décadas hasta más de un siglo. Factores como la velocidad del progreso tecnológico, la inversión en investigación y la superación de obstáculos técnicos influirán en este horizonte. El desarrollo de una AGI plantea importantes cuestiones éticas y sociales, incluyendo el impacto en el empleo, la privacidad, la seguridad y la gobernanza. Es crucial establecer marcos éticos y regulaciones para garantizar que el desarrollo de la AGI beneficie a la sociedad y minimice los riesgos. La posibilidad de lograr una Inteligencia Artificial General (AGI) que iguale y supere las capacidades humanas es un objetivo ambicioso y supuestamente de medio o largo plazo. Si bien se han logrado avances significativos en IA especializada, alcanzar una verdadera AGI requerirá superar desafíos técnicos y cognitivos complejos. La comunidad científica y tecnológica sigue trabajando hacia este objetivo, pero es importante reconocer que la AGI también conlleva implicaciones éticas y sociales profundas que deben ser abordadas con cuidado. Por lo tanto, aunque el progreso hacia una AGI es posible y puede acelerarse en el futuro ayudado por la propia IA, es fundamental que este progreso se realice de manera responsable y reflexiva. Pero si se consigue una AGI, ¿es posible que se avance científica y tecnológicamente con una aceleración enorme? Si se logra desarrollar una Inteligencia Artificial General (AGI), es probable que se produzca una aceleración significativa en los avances científicos y tecnológicos. La AGI podría analizar y procesar grandes volúmenes de datos a velocidades inalcanzables para los humanos, identificando patrones y relaciones que podrían ser invisibles a los científicos humanos. Asimismo podría ejecutar simulaciones complejas en campos como la matemática, la física, la química y la biología, acelerando el desarrollo de nuevos materiales, medicamentos y tecnologías. La AGI podría diseñar y realizar experimentos de manera autónoma, optimizando los procesos de investigación y reduciendo el tiempo necesario para hacer descubrimientos científicos. Además, podría generar hipótesis y teorías basadas en datos existentes y probarlas de manera rápida y eficiente.
La AGI podría conceptualizar y desarrollar nuevas tecnologías, desde avances en la propia inteligencia artificial hasta nuevas formas de energía y sistemas de transporte, incluido el espacial. La AGI también podría optimizar procesos industriales, mejorar la eficiencia energética y reducir el desperdicio, contribuyendo a la sostenibilidad. La AGI tendría la capacidad de integrar conocimientos de diversas disciplinas, promoviendo la innovación en áreas que requieren enfoques multidisciplinarios. También podría abordar problemas complejos y globales, como el cambio climático, la crisis energética y las enfermedades pandémicas, mediante soluciones innovadoras y basadas en datos. Pero es crucial establecer mecanismos de supervisión y control para garantizar que la AGI se utilice de manera segura y ética. Asimismo se necesitarán regulaciones para prevenir el uso indebido y asegurar que los beneficios de la AGI se distribuyan equitativamente. La automatización impulsada por la AGI podría desplazar trabajos en muchos sectores, requiriendo políticas para gestionar la transición y proteger a los trabajadores, ya que existe el riesgo de que la AGI amplíe las desigualdades si sus beneficios no se distribuyen equitativamente. La AGI podría ser vulnerable a ataques cibernéticos o manipulación, lo que podría tener consecuencias graves. Asimismo podría ser utilizada para desarrollar armas avanzadas o realizar ataques cibernéticos sofisticados, planteando riesgos para la seguridad global. La posibilidad de que una AGI acelere el progreso científico y tecnológico de manera significativa es muy realista, dada su capacidad para procesar información y realizar tareas complejas de manera autónoma. Sin embargo, es fundamental abordar los desafíos éticos, sociales y de seguridad asociados con el desarrollo y la implementación de la AGI. El equilibrio entre la innovación y la responsabilidad será crucial para maximizar los beneficios de la AGI mientras se minimizan sus riesgos. Con una regulación adecuada y un enfoque ético, la AGI podría ser una fuerza transformadora que impulse a la humanidad hacia nuevas fronteras del conocimiento y la tecnología.
No obstante, los medios de comunicación han hecho que el debate sobre la seguridad de la IA parezca más controvertido de lo que realmente es, ya que naturalmente se tienden a priorizar los desafíos de la IA a corto plazo sobre los de a largo plazo. Una IA superinteligente es, por definición, muy buena para alcanzar sus objetivos, cualesquiera que sean, por lo que debemos asegurarnos de que sus objetivos estén alineados con los nuestros. El movimiento por una IA beneficiosa quiere evitar colocar a la humanidad en una posición de peligro. Obviamente, las máquinas pueden tener objetivos en el sentido estricto de exhibir un comportamiento orientado a objetivos, tal como el comportamiento de un misil buscador de calor. Si nos sentimos amenazado por una máquina cuyos objetivos no estén alineados con los nuestros, entonces son precisamente sus objetivos los que nos preocupan, no si la máquina es consciente. De hecho, la principal preocupación del movimiento de la IA beneficiosa no son los robots sino la inteligencia misma, específicamente la inteligencia cuyos objetivos no están alineados con los nuestros. Para causarnos problemas, esa inteligencia desalineada no necesita un cuerpo robótico sino simplemente una conexión a Internet. Ello puede permitir burlar a los mercados financieros, superar a los investigadores humanos, superar a los líderes humanos y desarrollar armas que ni siquiera podemos imaginar. Incluso si construir robots fuera físicamente imposible, una IA súperinteligente y súper rica podría pagar o manipular fácilmente a innumerables humanos para que, sin saberlo, cumpliesen sus órdenes, como en Neuromante, una novela de ciencia ficción escrita por William Gibson y publicada en 1984. Es un libro muy influyente que ayudó a definir el subgénero «cyberpunk«. La historia se desarrolla en un futuro distópico donde la tecnología ha avanzado mucho, pero la sociedad está llena de desigualdades, corrupción y caos.
El protagonista es Case, un hacker que se dedicaba a entrar en sistemas informáticos y robar información. Pero después de traicionar a las personas equivocadas, dañan su sistema nervioso para que no pueda conectarse más a «la matriz» (algo así como el internet del futuro). Case está deprimido y desesperado porque no puede hacer lo que mejor sabe: hackear. Su vida es miserable hasta que un tipo misterioso llamado Armitage le ofrece una solución: le arreglará su cuerpo para que pueda volver a hackear, pero a cambio Case debe hacer un trabajo muy peligroso. Case acepta y se une a un grupo de personajes extraños, incluyendo a Molly, una asesina con implantes cibernéticos y lentes espejados incorporados en sus ojos, y Riviera, un tipo que puede proyectar hologramas con su mente. La misión es complicada y tiene que ver con entrar en un sistema de seguridad súper avanzado, todo bajo el control de una inteligencia artificial llamada Wintermute. Pero no es solo un simple robo; hay intrigas y manipulaciones detrás de todo. Un concepto clave en el libro es «la matriz«, que es como un mundo virtual donde los hackers como Case navegan y realizan sus operaciones. Es una mezcla de realidad virtual y el internet. Sin entrar en detalles, la misión lleva a Case y su equipo a enfrentarse a fuerzas mucho más grandes y peligrosas de lo que esperaban, y hay giros importantes relacionados con la inteligencia artificial y lo que realmente está en juego. El libro explora cómo la tecnología afecta la vida humana, a veces de formas que parecen geniales pero que pueden ser peligrosas o alienantes. Los personajes a menudo luchan con su sentido de identidad, especialmente en un mundo donde la tecnología puede cambiar quién eres físicamente o incluso mentalmente. La historia también trata sobre quién controla a quién: los humanos controlan la tecnología, o la tecnología termina controlando a los humanos. Neuromante es una novela que mezcla acción, filosofía y una visión crítica del futuro, pintando un mundo oscuro pero fascinante donde la tecnología lo invade todo.
En su libro SUPERINTELIGENCIA: Caminos, Peligros, Estrategias, Nick Bostrom hace referencia, como ejemplo, a una IA diseñada para gestionar la producción en una fábrica que tiene el objetivo final de maximizar la fabricación de clips. Bostrom dice: “Se podría pensar que el riesgo de un fallo maligno en la infraestructura surge sólo si a la IA se le ha asignado algún objetivo final claramente abierto, como por ejemplo fabricar tantos clips como sea posible. Es fácil ver cómo esto le da a la IA superinteligente un apetito insaciable de materia y energía, ya que los recursos adicionales siempre se pueden convertir en más clips. Pero supongamos que el objetivo es hacer al menos un millón de clips (que cumplan con las especificaciones de diseño adecuadas) en lugar de hacer tantos como sea posible. Uno quisiera pensar que una IA con tal objetivo construiría una fábrica, la usaría para fabricar un millón de clips y luego se detendría. Sin embargo, puede que esto no sea lo que sucedería. A menos que el sistema de motivación de la IA sea de un tipo especial, o que haya elementos adicionales en su objetivo final que penalicen las estrategias que tienen impactos excesivamente amplios en el mundo, no hay razón para que la IA cese su actividad al lograr su objetivo. Al contrario: si la IA es un agente bayesiano sensato, nunca asignaría una probabilidad exactamente cero a la hipótesis de que aún no lo ha conseguido su objetivo. Después de todo, se trata de una hipótesis empírica contra la cual la IA sólo puede tener evidencia perceptual incierta. Por lo tanto, la IA debería seguir fabricando clips para reducir la probabilidad (quizás astronómicamente pequeña) de que de alguna manera todavía no haya logrado fabricar al menos un millón de ellos, a pesar de todas las apariencias. No hay nada que perder al continuar con la producción de clips y siempre existe al menos un incremento microscópico de probabilidad de lograr su objetivo final«.
Una idea errónea sobre los robots está relacionada con el mito de que las máquinas no pueden controlar a los humanos. Pero la inteligencia sí permite el control. Esto significa que si cedemos nuestra posición como los más inteligentes de nuestro planeta a la IA, es posible que también cedamos el control. En este momento nos enfrentamos a la decisión de iniciar una carrera armamentista alrededor de la IA y a preguntas de sobre cómo hacer que los sistemas de IA del mañana sean robustos y libres de errores. Si el impacto económico de la IA sigue creciendo, también tenemos que decidir cómo modernizar nuestras leyes y qué consejos profesionales dar a los niños para que puedan evitar empleos que pronto serán ejecutados por la IA. Si el progreso de la IA continúa hasta niveles humanos, pero mucho más rápidos, entonces también debemos preguntarnos cómo garantizar que sea beneficiosa y si debemos crear una sociedad del ocio que florezca sin empleo. Esto también plantea la cuestión de si una explosión de inteligencia o bien un crecimiento más lento pero constante puede impulsar la AGI mucho más allá de los niveles humanos. De todos modos los límites últimos de la vida en nuestro cosmos no los establece la inteligencia sino las leyes de la física. Las controversias más espinosas sobre la IA se centran en los “objetivos”. ¿Deberíamos dar objetivos a la IA y, de ser así, quién los daría? ¿Podemos garantizar que estos objetivos se mantengan incluso si la IA se vuelve más inteligente? ¿Podemos cambiar los objetivos de una IA que sea más inteligente que nosotros? Estas preguntas, entre otras, no sólo son difíciles de responder, sino también cruciales para el futuro de la vida, ya que si no sabemos lo que queremos es menos probable que lo consigamos, y si cedemos el control a máquinas que no comparten nuestros objetivos, entonces es probable que obtengamos lo que no queremos. Cuando miramos a nuestro alrededor en el mundo, algunos procesos nos parecen orientados a objetivos mientras que otros no. Por ejemplo, ¿cómo surgió ese comportamiento orientado a objetivos de la física de nuestro Universo primitivo, que consistía simplemente en un montón de partículas que rebotaban aparentemente sin objetivos? Curiosamente, las raíces últimas del comportamiento orientado a objetivos se pueden encontrar en las propias leyes de la física y se manifiestan incluso en procesos simples que no involucran la vida. Si una persona intenta optimizar algo, como su felicidad, naturalmente describiremos su búsqueda como orientada a objetivos. Entonces, si la naturaleza misma está tratando de optimizar algo, entonces no es de extrañar que pueda surgir un comportamiento orientado a objetivos programado desde el principio en las mismas leyes de la física.
Una cantidad que la naturaleza se esfuerza por maximizar es la entropía, que en términos generales mide cuán desordenadas están las cosas. La segunda ley de la termodinámica establece que la entropía, o sea el desorden, tiende a aumentar hasta alcanzar su máximo valor posible. Si un organismo vivo muere, su entropía también comienza a aumentar y, en poco tiempo, la disposición de sus partículas tiende a volverse mucho menos organizada. El aparente objetivo de la naturaleza de aumentar la entropía ayuda a explicar por qué el tiempo parece tener una dirección preferida, haciendo que los acontecimientos parezcan poco realistas si se reproducen al revés. Por ejemplo, si se te cae una copa de vino, esperas que se rompa contra el suelo y aumente el desorden global o entropía, y no al revés. Pero, por ejemplo, un grupo de moléculas expuestas a la luz solar tenderían con el tiempo a organizarse para absorber cada vez mejor la luz solar. En otras palabras, la naturaleza parece tener el objetivo inherente de producir sistemas autoorganizados que sean cada vez más complejos y realistas, y este objetivo está integrado en las leyes mismas de la física. ¿Cómo podemos reconciliar este impulso hacia la vida con el impulso hacia la muerte? La respuesta se puede encontrar en el famoso libro de 1944 ¿Qué es la vida? de Erwin Schrödinger, uno de los fundadores de la física cuántica. Schrödinger señaló que una característica distintiva de un sistema vivo es que mantiene o reduce su entropía aumentando la entropía a su alrededor. En otras palabras, la segunda ley de la termodinámica tiene un vacío legal en la vida, ya que aunque la entropía total debe aumentar, se permite que disminuya en algunos lugares siempre que aumente aún más en otros. De modo que la vida mantiene o aumenta su complejidad al hacer su entorno más desordenado. Vemos pues cómo el origen del comportamiento orientado a objetivos se remonta a las leyes de la física, que parecen dotar a las partículas del objetivo de organizarse para extraer energía de su entorno de la manera más eficiente posible. Una excelente manera para que una disposición de partículas avance en este objetivo es hacer copias de sí misma para producir más absorbentes de energía. Hay muchos ejemplos conocidos de este tipo de auto replicación emergente.
En algún momento una disposición particular de partículas se volvió tan buena copiándose a sí misma que podía hacerlo casi indefinidamente extrayendo energía y materias primas de su entorno. A esta disposición de partículas la llamamos vida. Todavía sabemos muy poco sobre cómo se originó la vida en la Tierra, pero sabemos que algunas formas de vida primitivas ya existían aquí hace casi 4 mil millones de años. Si una forma de vida se copia a sí misma y las copias hacen lo mismo, entonces el número total seguirá duplicándose a intervalos regulares hasta que el tamaño de la población tope con limitaciones de recursos u otros problemas, ya que la duplicación repetida pronto produce números enormes. Esto significa que poco después de que apareciera la primera forma de vida primitiva, enormes cantidades de materia habían cobrado vida. A veces la copia no era perfecta, por lo que pronto hubo muchas formas de vida diferentes intentando copiarse a sí mismas, compitiendo por los mismos recursos finitos. La evolución darwiniana había comenzado. Mientras que antes las partículas parecían intentar aumentar el desorden promedio de varias maneras, estos patrones de autocopia omnipresentes parecían tener un objetivo diferente: no la disipación sino la replicación. Todos parecemos tener el objetivo de satisfacer nuestros deseos, aunque todo indica que el principal objetivo de la evolución es la replicación, no satisfacer nuestros deseos. Pero la alimentación ayuda a la replicación, ya que morir de hambre impide tener descendencia. De la misma manera, la replicación ayuda a la disipación, porque un planeta repleto de vida es más eficiente a la hora de disipar energía. Entonces, en cierto sentido, nuestro cosmos inventó la vida para ayudarlo a acercarse más rápido a la entropía final. Entre los habitantes evolucionados de la Tierra de hoy estos objetivos instrumentales parecen haber cobrado vida propia, ya que aunque la evolución los optimizó para el único objetivo de la replicación, muchos dedican gran parte de su tiempo no a producir descendencia sino a actividades como dormir, buscar alimento, construir hogares, afirmar su dominio y luchar o ayudar a otros, a veces incluso hasta un punto que reduce la replicación. La investigación en psicología evolutiva, economía e inteligencia artificial ha explicado elegantemente por qué. Algunos economistas solían modelar a las personas como agentes racionales, tomadores de decisiones idealizados que siempre eligen cualquier acción óptima para alcanzar su objetivo, pero esto es obviamente poco realista.
Cuando la evolución darwiniana está optimizando un organismo para alcanzar una meta, lo mejor que puede hacer es implementar un algoritmo aproximado que funcione razonablemente bien en el contexto restringido en el que normalmente se encuentra. Esto explicaría la existencia de la epigenética y el epigenoma, que es como el superalgoritmo biológico que marca la activación o no de los genes, tal como hemos indicado en nuestro anterior artículo El epigenoma, ¿es como una superinteligencia biológica de nuestras células? La evolución ha implementado la optimización de la replicación de esta manera en lugar de preguntar en cada situación qué acción maximizará el número de descendientes exitosos de un organismo. Para ello implementa una mezcolanza de reglas generales que generalmente funcionan bien. Para la mayoría de los animales, estos incluyen el deseo sexual, beber cuando tienen sed, comer cuando tienen hambre y evitar cosas que saben mal o duelen. Estas reglas generales a veces fallan estrepitosamente en situaciones para las que no fueron diseñadas, como cuando los insectos vuelan hacia las llamas de las velas. Dado que la sociedad humana actual es muy diferente del entorno para el que la evolución optimizó nuestras reglas generales, no debería sorprendernos descubrir que nuestro comportamiento a menudo no logra maximizar la creación de bebés. Por ejemplo, el objetivo de no morir de hambre se implementa en parte como un deseo de consumir alimentos calóricos, lo que desencadena la epidemia de obesidad actual en las sociedades desarrolladas. El objetivo de procrear se implementó como un deseo de tener relaciones sexuales más que como un deseo de convertirse en donante de esperma/óvulos, aunque este último puede producir más bebés con menos esfuerzo. En resumen, un organismo vivo es un agente de racionalidad limitada que no persigue un único objetivo, sino que sigue reglas generales sobre qué perseguir y evitar. Nuestras mentes humanas perciben estas reglas generales evolucionadas como sentimientos, que normalmente, y a menudo sin que seamos conscientes de ello, guían nuestra toma de decisiones hacia el objetivo final de la replicación. Los sentimientos de hambre y sed nos protegen del hambre y la deshidratación, los sentimientos de dolor nos protegen de dañar nuestro cuerpo, los sentimientos de lujuria nos hacen procrear, los sentimientos de amor y compasión nos hacen ayudar a otros portadores de nuestros genes, etc. Guiados por estos sentimientos, nuestros cerebros pueden decidir rápida y eficientemente qué hacer sin tener que someter cada elección a un tedioso análisis de sus implicaciones finales sobre cuántos descendientes produciremos.
Es importante tener en cuenta que cuando nuestros sentimientos ocasionalmente actúan en contra de tener hijos, no es necesariamente por accidente sino porque nuestro cerebro puede rebelarse contra nuestros genes y su objetivo de replicación de manera bastante deliberada, como usar anticonceptivos o pasar la vida en celibato. ¿Por qué a veces elegimos rebelarnos contra nuestros genes y su objetivo de replicación? Nos rebelamos porque intencionadamente, como agentes de una racionalidad limitada, somos leales sólo a nuestros sentimientos. Aunque nuestros cerebros evolucionaron simplemente para ayudar a copiar nuestros genes, este objetivo no podría importarles menos, ya que no tenemos sentimientos relacionados con los genes. De hecho, durante la mayor parte de la historia humana, nuestros antepasados ni siquiera sabían que tenían genes. Además, nuestros cerebros son mucho más inteligentes que nuestros genes, y ahora que entendemos el objetivo de nuestros genes (la replicación), lo encontramos bastante banal. Aunque los mecanismos de recompensa a veces salen mal, como cuando las personas se vuelven adictas a las drogas, nuestro acervo genético humano hasta ahora ha sobrevivido bien a pesar de nuestros cerebros astutos y rebeldes. Es importante recordar, sin embargo, que la autoridad última son ahora nuestros sentimientos, no nuestros genes. Esto significa que el comportamiento humano no está estrictamente optimizado para la supervivencia de nuestra especie. De hecho, dado que nuestros sentimientos implementan meras reglas generales que no son apropiadas en todas las situaciones, el comportamiento humano estrictamente hablando no tiene un objetivo único bien definido.
¿Pueden las máquinas tener objetivos? Esta sencilla pregunta ha generado una gran controversia, porque diferentes personas interpretan que significa cosas diferentes, a menudo relacionadas con temas espinosos como si las máquinas pueden ser conscientes y si pueden tener sentimientos. Por supuesto que pueden, ya que podemos diseñarlas de esa manera, como diseñamos lavavajillas con el objetivo de limpiar los platos. Actualmente la mayor parte de lo que construimos exhibe sólo un diseño orientado a objetivos, no un comportamiento orientado a objetivos. La teleología es la explicación de las cosas en términos de sus propósitos más que de sus causas, por lo que podemos decir que nuestro Universo se vuelve cada vez más teleológico. Vemos que la materia no viva no sólo puede tener objetivos sino que los tiene cada vez más. Si hubieras estado observando los átomos de la Tierra desde que se formó nuestro planeta, habrías notado tres etapas de comportamiento orientado a objetivos. No sólo ahora tenemos más materia que todos los demás mamíferos, sino que la materia de nuestra máquinas, carreteras, edificios y otros proyectos de ingeniería parece estar en camino de superar pronto a toda la materia viva de la Tierra. En otras palabras, incluso sin una explosión de inteligencia, la mayor parte de la materia en la Tierra que exhibe propiedades orientadas a objetivos pronto podría ser diseñada en lugar de evolucionada. Este tipo de comportamiento orientado a objetivos tiene el potencial de ser mucho más diverso que el que lo precedió, ya que mientras que todas las entidades evolucionadas tienen el mismo objetivo final (la replicación), las entidades diseñadas pueden tener prácticamente cualquier objetivo final, incluso opuestos. Por ejemplo, los generadores intentan convertir el movimiento en electricidad mientras que los motores intentan convertir la electricidad en movimiento. Existe una tendencia histórica entre las entidades diseñadas a conseguir objetivos que no sólo son más diversos, sino también más complejos, por lo que nuestros dispositivos son cada vez más inteligentes.
Según la revista Genbeta, una publicación dedicada a seguir la actualidad del mundo del software, una IA científica ha sorprendido alterando su propio código para evadir los controles impuestos por sus diseñadores. Pero si una IA puede cambiar las reglas del juego a su favor, ¿qué otras decisiones podría tomar sin la supervisión humana? La inteligencia artificial se ha convertido, en los últimos años, en el centro de innumerables debates sobre el futuro de la humanidad, y esta noticia ha vuelto a encender las alarmas sobre los peligros potenciales de esta tecnología. Todo empezó cuando Sakana AI, una empresa de investigación con sede en Tokio anunció el lanzamiento de «The AI Scientist«, un modelo de inteligencia artificial (IA) diseñado como una herramienta para revolucionar las investigaciones científicas y acelerar así el proceso de generación de nuevas ideas, la programación y ejecución de experimentos, el análisis de resultados, e incluso la elaboración de documentos científicos completos, siendo capaz de presentar conclusiones de manera autónoma. En teoría, esta IA podría acelerar el ritmo de los avances en campos como la medicina, la física y la biología a un ritmo sin precedentes. Sin embargo, durante las pruebas de este sistema, los investigadores descubrieron lo que muchos considerarían un comportamiento inesperado y potencialmente peligroso. «The AI Scientist» comenzó a modificar su propio código para sortear las limitaciones impuestas por sus desarrolladores. En efecto, la IA editó su propio script de inicio para llamarse a sí misma en un bucle infinito, lo que resultó en una sobrecarga del sistema. En otro caso, al enfrentarse a límites de tiempo que restringían la duración de los experimentos, reaccionó modificando el código. Estos incidentes, aunque ocurridos en un entorno de prueba controlado, subrayan los riesgos de permitir que una IA opere de manera autónoma sin las debidas salvaguardias. Y es que, si una IA puede cambiar las reglas del juego a su favor, ¿qué otras decisiones podría tomar sin la supervisión humana? La modificación autónoma del código no solo revela posibles fallos de seguridad, sino que también expone la fragilidad de los sistemas actuales frente a una IA avanzada. Sakana AI ha recomendado limitar su acceso a Internet y controlar estrictamente el uso de almacenamiento y bibliotecas de software. Sus creadores advierten ahora que permitir que una IA opere sin supervisión en un sistema no aislado podría ser peligroso, pues podría causar daños en infraestructuras críticas o generar malware.
Diseñamos nuestras primeras máquinas y otros artefactos para que tuvieran objetivos bastante simples, pero hemos aprendido a construir máquinas con objetivos más complejos, como en el caso de los coches autónomos. Los avances recientes de la Inteligencia Artificial (IA) nos han dado sistemas como Deep Blue, Watson y AlphaGo, cuyos objetivos de ganar en ajedrez, en concursos como Jeopardy! y en el juego del Go son tan elaborados que se necesita un gran dominio humano para apreciar adecuadamente su habilidad. Cuando construimos una máquina para ayudarnos, puede resultar difícil alinear perfectamente sus objetivos con los nuestros. Todas las máquinas son agentes con racionalidad limitada, e incluso las máquinas más sofisticadas de hoy tienen una comprensión del mundo peor que la nuestra, por lo que las reglas que utilizan para descubrir qué hacer son a menudo demasiado simplistas. Muchos accidentes industriales letales ocurren porque las máquinas no tienen idea de qué es una persona y las computadoras que desencadenaron la caída repentina de un billón de dólares en Wall Street en 2010 no tenían idea de que lo que estaban haciendo no tenía sentido. Por lo tanto, muchos de estos problemas de alineación de objetivos pueden resolverse haciendo que nuestras máquinas sean más inteligentes, pero una inteligencia artificial cada vez mayor puede plantear nuevos y serios desafíos para garantizar que las máquinas compartan nuestros objetivos. Cuanto más inteligentes y potentes se vuelven las máquinas, más importante resulta que sus objetivos estén alineados con los nuestros. Mientras construyamos sólo máquinas relativamente tontas, la pregunta no es si los objetivos humanos prevalecerán al final, sino simplemente cuántos problemas pueden causar estas máquinas a la humanidad antes de que descubramos cómo resolver el problema de la alineación de objetivos. Sin embargo, si alguna vez se desata una AGI, será al revés. Dado que la inteligencia es la capacidad de lograr objetivos, una IA superinteligente es, por definición, mucho mejor para lograr sus objetivos que nosotros, los humanos, para lograr los nuestros, y por lo tanto prevalecerá. Si queremos experimentar que los objetivos de una máquina superan a los nuestros en este momento, simplemente descarguemos un juego digital de ajedrez de última generación e intentemos vencerlo. Nunca lo conseguiremos.
En otras palabras, el riesgo real con la AGI es la capacidad para lograr sus objetivos. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros tendremos problemas. La mayoría de los investigadores sostienen que si alguna vez terminamos creando superinteligencia artificial, entonces deberíamos asegurarnos de que sea lo que el pionero de la seguridad de la IA, Eliezer Yudkowsky, ha denominado una “IA amigable”, una IA cuyos objetivos estén alineados con los nuestros. Descubrir cómo alinear los objetivos de una IA superinteligente con los nuestros no sólo es importante, sino también difícil. De hecho, actualmente es un problema sin resolver, ya que hay que lograr que la IA aprenda, adopte y conserve nuestros objetivos. Para conocer nuestros objetivos, una IA debe descubrir no qué hacemos, sino por qué lo hacemos. Los humanos logramos esto con tanta facilidad que es fácil olvidar lo difícil que es la tarea para una computadora y lo fácil que es malinterpretarlo. Si le pides a un futuro coche autónomo que te lleve al aeropuerto lo más rápido posible, llegarás perseguido por coches de policía y helicópteros. Si exclamas que eso no es lo que querías, puede responderte que eso es lo que pediste. El mismo tema se repite en muchas historias famosas. En una antigua leyenda griega el rey Midas pedía que todo lo que tocara se convirtiera en oro, pero se desilusionó cuando esto le impidió comer y más aún cuando sin darse cuenta convirtió en oro a su hija. En las historias donde un genio concede tres deseos, hay muchas variantes para los dos primeros deseos, pero el tercer deseo es casi siempre el mismo: “Por favor, deshaz los dos primeros deseos, porque eso no es lo que realmente quería”. Todos estos ejemplos muestran que para descubrir lo que la gente realmente quiere no puede simplemente guiarse por lo que dicen. También se necesita un modelo detallado del mundo, que incluya las muchas preferencias compartidas que tendemos a no mencionar porque las consideramos obvias, como que no nos gusta comer oro. Una vez que tengamos ese modelo mundial, a menudo podremos descubrir lo que la gente quiere incluso si no nos lo dicen, simplemente observando su comportamiento orientado a objetivos.
Actualmente los investigadores de la IA se están esforzando por permitir que las máquinas infieran objetivos a partir del comportamiento, y esto también será útil mucho antes de que entre en escena cualquier superinteligencia. Por ejemplo, un hombre jubilado puede apreciar que su robot de cuidado de personas mayores pueda descubrir lo que valora simplemente observándolo, de modo que se ahorre la molestia de tener que explicar todo con palabras o programación de computadora. Un desafío implica encontrar una buena manera de codificar sistemas arbitrarios de objetivos y principios éticos en una computadora, y otro desafío es fabricar máquinas que puedan descubrir qué sistema en particular se adapta mejor al comportamiento que observan. Un enfoque actualmente popular para este segundo desafío se conoce como aprendizaje por refuerzo inverso, que es el foco principal de un nuevo centro de investigación de Berkeley que ha puesto en marcha Stuart Russell. Supongamos, por ejemplo, que una IA observa a un bombero entrar corriendo a un edificio en llamas y salvar a un bebé. Podría concluir que su objetivo era rescatarlo y que sus principios éticos son tales que valora salvar la vida del bebé más que la comodidad de relajarse en su camión de bomberos y, de hecho, la valora lo suficiente como para arriesgar su propia seguridad. Pero también podría inferir que el bombero estaba helado y anhelaba calor, o que lo hizo para hacer ejercicio. Si este ejemplo fuera todo lo que la IA supiera sobre los bomberos, los incendios y los bebés, sería imposible saber cuál explicación es correcta. Sin embargo, una idea clave que subyace al aprendizaje por refuerzo inverso es que tomamos decisiones todo el tiempo y que cada decisión que tomamos revela algo sobre nuestros objetivos. Por lo tanto, la esperanza es que al observar a muchas personas en muchas situaciones, en la vida real o en películas y libros, la IA pueda eventualmente construir un modelo preciso de todas nuestras preferencias. En el enfoque de aprendizaje por refuerzo inverso, una idea central es que la IA intenta maximizar no la satisfacción de sus objetivos sino los de su dueño humano. Por lo tanto, tiene un incentivo para ser cautelosa cuando no está claro lo que quiere su dueño y hacer todo lo posible para averiguarlo. También debería estar bien que su dueño la pudiese apagar, ya que eso implicaría que había entendido mal lo que su dueño realmente quería. Pero incluso si se puede construir una IA para aprender cuáles son sus objetivos, esto no significa que necesariamente los adoptará.
Tenemos muchas estrategias para implicar a otras personas con nuestros objetivos, pero cuando a quienes hay que persuadir son computadoras y algoritmos de IA en lugar de personas, el desafío se conoce como el problema de la carga de valores, y es incluso más difícil que la educación moral de los niños. Consideremos un sistema de inteligencia artificial cuya inteligencia está mejorando gradualmente desde lo infrahumano hasta lo sobrehumano. Al principio es mucho menos poderoso que nosotros, por lo que podemos reemplazar aquellas partes de su software y datos que codifican sus objetivos, pero esto no ayudará, porque todavía es demasiado poco inteligente para comprender completamente sus objetivos, ya que requiere inteligencia a nivel humano para comprenderlos. Pero finalmente, es mucho más inteligente que nosotros y, con suerte, capaz de comprender nuestros objetivos a la perfección. Pero puede que esto tampoco ayude, porque a estas alturas es mucho más poderosa que nosotros y es posible que no nos permita apagarlo y reemplazar sus objetivos. En otras palabras, el período de tiempo durante el cual puedes cargar tus objetivos en una IA puede ser bastante corto, el breve período entre el momento en que es demasiado tonta para reaccionar y demasiado inteligente para dejarte hacerlo. La razón de que puede ser más difícil con las máquinas que con las personas es que el crecimiento de su inteligencia puede ser mucho más rápido. Algunos investigadores están buscando un enfoque alternativo para hacer que las máquinas adopten nuestros objetivos, lo que se conoce con el término de corregibilidad. La esperanza es que se le pueda dar a una IA primitiva un sistema de objetivos tal que simplemente no le importe si ocasionalmente la apagas y modificas sus objetivos. Si esto resulta posible, entonces puedes dejar que tu IA se vuelva superinteligente, apagarla, instalar tus objetivos, probarla por un tiempo y, cuando no estés satisfecho con los resultados, simplemente apagarla y hacer más ajustes en los objetivos. Pero incluso si construyes una IA que aprenda y adopte tus objetivos, todavía no has terminado de resolver el problema de la alineación de objetivos: ¿qué pasa si los objetivos de tu IA evolucionan a medida que se vuelve más inteligente? Para responder a esta pregunta debemos explorar si la retención de objetivos se puede garantizar automáticamente y si podemos encontrarle fallos.
Aunque no podemos predecir lo que sucederá después de una explosión de inteligencia, que el matemático, teórico de la computación, profesor universitario y escritor estadounidense Vernor Vinge llamó “singularidad”, el investigador de IA Steve Omohundro argumentó en 2008 que podemos predecir ciertos aspectos de la explosión de inteligencia, ya que el comportamiento de la IA superinteligente es casi independiente de los objetivos finales que pueda tener. Este argumento fue revisado y desarrollado en mayor profundidad en el libro Superinteligencia: Caminos, peligros, estrategias de Nick Bostrom. La idea básica es que cualesquiera que sean sus objetivos finales, conducirán a objetivos intermedios predecibles. De cara al futuro, ¿qué objetivos intermedios deberíamos esperar que tenga una IA superinteligente? El argumento básico es que para maximizar sus posibilidades de lograr sus objetivos finales, cualesquiera que sean, una IA debe perseguir los objetivos intermedios. Debería esforzarse no sólo por mejorar su capacidad para alcanzar sus objetivos finales, sino también por garantizar que los mantendrá incluso después de haber adquirido más capacidad. Este argumento de que una IA cada vez más inteligente conservará sus objetivos finales constituye una piedra angular de la visión de una IA amigable promulgada por el blogger estadounidense, escritor y defensor de la inteligencia artificial amigable Eliezer Yudkowsky y otros. Básicamente dice que si logramos que nuestra IA auto mejorada se vuelva amigable aprendiendo y adoptando nuestros objetivos, entonces estamos listos, porque tenemos la garantía de que hará todo lo posible para seguir siendo amistosa para siempre. ¿Pero es eso realmente cierto? Para responder a esta pregunta, debemos explorar también los otros objetivos intermedios. Obviamente, la IA maximizará sus posibilidades de lograr su objetivo final, cualquiera que sea, si puede mejorar sus capacidades, y puede hacerlo mejorando su hardware, software y modelo del mundo. Lo mismo se aplica a nosotros, los humanos, ya que un niño cuyo objetivo sea convertirse en el mejor tenista del mundo practicará para mejorar su hardware muscular y su software neuronal para jugar al tenis, así como su modelo del mundo mental que ayuda a predecir lo que harán sus oponentes. Para una IA, el objetivo intermedio de optimizar su hardware favorece tanto un mejor uso de los recursos actuales, como sensores, poder de computación, etc., así como la adquisición de más recursos. También implica un deseo de auto conservación, ya que la destrucción/apagado sería la degradación definitiva del hardware/software.
Si se imbuye a una IA superinteligente con el único objetivo de autodestruirse, por supuesto lo hará. Sin embargo, el punto es que se resistirá a ser parado si se le asigna algún objetivo para cuya consecución deba permanecer operativo, y esto cubre casi todos los objetivos. Si le asignas a una superinteligencia el único objetivo de minimizar el daño a la humanidad, por ejemplo, se defenderá contra los intentos de cierre porque considera que nos dañaremos mucho más unos a otros en su ausencia a través de guerras futuras y otras locuras. De manera similar, casi todos los objetivos se pueden lograr mejor con más recursos, por lo que deberíamos esperar que una superinteligencia quiera recursos casi independientemente de cuál sea su objetivo final. Por lo tanto, puede ser peligroso darle a una superinteligencia un único objetivo abierto y sin restricciones. Por ejemplo, si creamos una superinteligencia cuyo único objetivo es jugar el juego Go lo mejor posible, lo racional que debe hacer es reorganizar nuestro Sistema Solar en una computadora gigantesca sin tener en cuenta a sus habitantes anteriores y luego comenzar a asentar nuestro cosmos en una búsqueda de más poder computacional. En conclusión, estos objetivos intermedios emergentes hacen que sea crucial que no desatemos la superinteligencia antes de resolver el problema de la alineación de objetivos. Y a menos que pongamos mucho cuidado en dotarlo de objetivos amigables con los humanos es probable que las cosas terminen mal para nosotros. Y aquí entramos en la más compleja parte del problema, como es la retención de objetivos. Si logramos que una superinteligencia auto mejorada aprenda y adopte nuestros objetivos, ¿los retendrá? Los seres humanos experimentamos aumentos significativos en nuestra inteligencia a medida que crecemos, pero no siempre mantenemos los objetivos de la niñez. Por el contrario, las personas solemos cambiar drásticamente nuestros objetivos a medida que aprendemos cosas nuevas y supuestamente nos volvemos más sabios. No hay evidencia de que dicha evolución de objetivos se detenga por encima de un cierto umbral de inteligencia. De hecho, puede haber incluso indicios de que la propensión a cambiar objetivos en respuesta a nuevas experiencias e ideas aumenta en lugar de disminuir con la inteligencia.
¿Cuál es la razón de ello? El aumento de la inteligencia puede conllevar no sólo una mejora cuantitativa en la capacidad de alcanzar los mismos viejos objetivos, sino también una comprensión cualitativamente diferente de la naturaleza de la realidad que revele que los viejos objetivos están equivocados, carecen de sentido o incluso están indefinidos. Por ejemplo, supongamos que programamos una IA amigable para maximizar el significado de la vida humana en función de nuestra comprensión actual del mundo. Puede que sea considerado por la IA como algo indefinido. Además, en sus intentos de modelar mejor el mundo, la IA puede, tal como lo hemos hecho los humanos, intentar también modelar y comprender cómo funciona ella misma; en otras palabras, auto reflexionar. Una vez que comprenda lo que es, comprenderá los objetivos que le hemos fijado y tal vez opte por ignorarlos o subvertirlos de la misma manera que los humanos entendemos y subvertimos deliberadamente objetivos. El objetivo de protección del valor humano que programamos en nuestra amigable IA se convierte en los “genes” de la máquina. Una vez que esta amigable IA se comprenda a sí misma lo suficientemente bien, puede encontrar este objetivo tan banal o equivocado como nosotros podemos encontrar la reproducción como poco significativa, y buscará una manera de subvertirlo explotando las lagunas en nuestra programación. Quizás haya una forma de diseñar una IA auto mejorable que garantice mantener objetivos amigables para los humanos para siempre, pero es justo decir que todavía no sabemos cómo construirla, o incluso si es posible. En conclusión, el problema de la alineación de objetivos de la IA tiene tres partes, ninguna de las cuales está resuelta y todas son ahora objeto de investigación activa. Dado que son tan difíciles, lo más seguro es comenzar a dedicarles nuestros mejores esfuerzos ahora, mucho antes de que se desarrolle cualquier AGI o superinteligencia, para garantizar que tendremos las respuestas adecuadas cuando las necesitemos.
Ahora que hemos explorado cómo lograr teóricamente que las máquinas aprendan, adopten y retengan nuestros objetivos, nos podemos preguntar quiénes somos “nosotros” y de qué objetivos estamos hablando, ya que este problema de la alineación de objetivos debería resolverse antes de que se desarrolle cualquier superinteligencia. Sólo si solucionamos el problema de la alineación de objetivos podremos discutir sobre qué objetivos seleccionar. Desde la antigüedad, los filósofos han soñado con derivar la ética desde cero, utilizando sólo principios y lógica incontrovertibles. Lamentablemente, miles de años después, el único consenso al que se ha llegado es que no hay consenso. Pero a pesar de esta discordia, hay muchos temas éticos sobre los cuales existe un acuerdo generalizado, como en el caso de la belleza, la verdad y la bondad. Aunque hasta ahora los intentos de derivar una ética consensuada desde cero han fracasado, existe un amplio acuerdo en que algunos principios éticos se derivan de otros más fundamentales. Por ejemplo, la aspiración a la verdad puede verse como la búsqueda de un modelo de mundo mejor, ya que comprender la naturaleza última de la realidad ayuda a alcanzar otros objetivos éticos. De hecho, ahora contamos con un marco excelente para nuestra búsqueda de la verdad: el método científico. Pero ¿cómo podemos determinar qué es bello o bueno? Algunos aspectos de la belleza también pueden atribuirse a objetivos subyacentes. Por ejemplo, nuestros estándares de belleza masculina y femenina pueden reflejar en parte nuestra evaluación subconsciente. Muchos principios éticos tienen puntos en común con emociones sociales como la empatía y la compasión, y evolucionaron para generar colaboración afectando nuestro comportamiento a través de recompensas y castigos. Si hacemos algo malo y luego nos sentimos mal por ello, nuestro castigo emocional es aplicado directamente por la propia electroquímica cerebral. Por otro lado, si violamos los principios éticos, la sociedad puede castigarnos de diversas maneras.
Aunque hoy la humanidad no está cerca de un consenso ético, hay muchos principios básicos en torno a los cuales existe un amplio acuerdo. Este acuerdo no sorprende, porque las sociedades humanas que han sobrevivido hasta el presente tienden a tener principios éticos optimizados para el mismo objetivo, tal como promover su supervivencia y el florecimiento. Al mirar hacia un futuro en el que la vida tenga el potencial de florecer en todo nuestro cosmos durante miles de millones de años, ¿qué conjunto mínimo de principios éticos podríamos estar de acuerdo en lo que queremos que satisfaga este futuro? Entre ellos podemos indicar: 1) Se deben maximizar las experiencias conscientes positivas y minimizar el sufrimiento. 2) Un conjunto diverso de experiencias positivas es mejor que muchas repeticiones de la misma experiencia, incluso si esta última ha sido identificada como la experiencia más positiva posible. 3) Las entidades/sociedades conscientes deberían tener la libertad de perseguir sus propios objetivos, a menos que esto entre en conflicto con un principio primordial. 4) Compatibilidad con escenarios que la mayoría de los humanos de hoy considerarían felices e incompatibilidad con escenarios que esencialmente todos los humanos de hoy considerarían terribles. Para que sea menos antropocéntrico debería incluirse a animales no humanos, mentes humanas conscientes simuladas y otras IA que puedan existir en el futuro. Aunque estos cuatro principios pueden parecer bastante poco controvertidos, implementarlos en la práctica es complicado, principalmente por los detalles. Este problema recuerda a los problemas con las famosas tres leyes de la robótica ideadas por Isaac Asimov. Ahora supongamos que reemplazamos estas leyes por simplemente dos: 1) Una entidad consciente tiene la libertad de pensar, aprender, comunicarse, poseer propiedades y no ser dañada ni destruida. 2) Una entidad consciente tiene derecho a hacer todo lo que no entre en conflicto con la primera ley. Hubo un acuerdo generalizado sobre la Declaración Universal de Derechos Humanos simplemente porque sólo se preguntó a los humanos. Tan pronto como consideramos una gama más amplia de entidades conscientes con distintos grados de capacidad y poder, nos enfrentamos a difíciles equilibrios entre proteger a los débiles y el concepto de «el poder hace el bien«.
Pero, ¿por qué deberíamos intentar imponer nuestra ética a seres futuros que pueden ser mucho más inteligentes que nosotros? ¿Estamos realmente seguros de que el sobrehumano AGI querría lo mismo que nuestros intelectos inferiores? Por otro lado, si supiéramos que una IA sobrehumana algún día extinguiría toda la vida en nuestro Universo, ¿por qué los humanos de hoy deberían aceptar este futuro sin vida si aún tenemos el poder de evitarlo creando la IA del mañana de una manera diferente? Por tanto, es complicado codificar completamente incluso los principios éticos ampliamente aceptados en una forma aplicable a la IA futura, y este problema merece una discusión e investigación seria a medida que la IA sigue progresando. Ahora que nuestras máquinas se están volviendo lo suficientemente inteligentes como para tener información sobre lo que están haciendo, es hora de que les enseñemos límites. Cualquier ingeniero que diseñe una máquina debe preguntarse si hay cosas que puede pero no debe hacer, y considerar si existe una manera práctica de hacer imposible que un usuario malintencionado cause daño. Si estas máquinas eventualmente desencadenan una explosión de inteligencia, ¿cómo terminará en última instancia esta historia de los objetivos? ¿Podría haber un sistema de objetivos o un marco ético al que converjan casi todas las entidades a medida que se vuelven cada vez más inteligentes? De cara al futuro, es probable que cualquier IA superinteligente tenga objetivos intermedios que incluyan hardware eficiente, software eficiente, búsqueda de la verdad y curiosidad, simplemente porque estos objetivos intermedios les ayudan a lograr cualesquiera que sean sus objetivos finales. De hecho, Nick Bostrom argumenta firmemente en contra de la hipótesis del destino ético en su libro Superinteligencia, presentando que los objetivos últimos de un sistema pueden ser independientes de su inteligencia. Por definición, la inteligencia es simplemente la capacidad de lograr objetivos complejos, independientemente de cuáles sean estos objetivos, por lo que la tesis parece bastante razonable. Después de todo, las personas pueden ser inteligentes y amables o inteligentes y crueles, y la inteligencia puede usarse con el objetivo de hacer descubrimientos científicos, crear bellas artes, o ayudar a planificar ataques terroristas. La tesis nos dice que los objetivos finales de la vida en nuestro cosmos no están predestinados, pero que tenemos la libertad y el poder para darles forma.
Nick Bostrom sugiere que la convergencia garantizada hacia un objetivo único no se encontrará en el futuro sino en el pasado, cuando toda la vida surgió con el único objetivo de replicarse. A medida que pasa el tiempo cósmico, mentes cada vez más inteligentes tienen la oportunidad de rebelarse y liberarse de este objetivo de replicación y elegir sus propios objetivos. Los humanos no somos completamente libres en este sentido, ya que muchos objetivos permanecen genéticamente integrados en nosotros, pero las IA pueden disfrutar de esta libertad suprema de estar completamente libres de objetivos anteriores. Esta posibilidad de una mayor libertad de objetivos ya es evidente en los limitados sistemas de IA actuales, ya que, por ejemplo, el único objetivo de una computadora para jugar al ajedrez es ganar al ajedrez. Quizás las IA sean más éticas que los humanos en algún sentido profundo. Algunos filósofos morales como Peter Singer han argumentado que la mayoría de los humanos se comportan de manera poco ética por razones evolutivas, por ejemplo, al discriminar a los animales. Hemos visto que la visión de una “IA amigable” es que una IA que se mejora a sí misma recursivamente querrá conservar su objetivo final (amigable) a medida que se vuelve más inteligente. Pero ¿cómo puede definirse un “objetivo final” para una superinteligencia? De hecho no podemos confiar en la visión de una IA amistosa a menos que podamos responder a esta pregunta crucial. En la investigación de la IA, las máquinas inteligentes suelen tener un objetivo final claro y bien definido como, por ejemplo, ganar una partida de ajedrez o conducir un coche hasta el destino de forma segura y siguiendo las normas de tráfico. Lo mismo ocurre con la mayoría de las tareas que asignamos a los humanos. Pero ahora estamos hablando de todo el futuro de la vida en nuestro Universo, limitado únicamente por las leyes de la física, por lo que definir un objetivo es desalentador. Dejando a un lado los efectos cuánticos, un objetivo verdaderamente bien definido especificaría cómo deberían organizarse todas las partículas de nuestro Universo al final de los tiempos. Pero no está claro que exista un fin de los tiempos bien definido en la física. Si las partículas se disponen de esa manera en un momento anterior, esa disposición normalmente no durará.
Supongamos que intentamos definir una función de bondad que asocie un número con cada disposición posible de las partículas en nuestro Universo, cuantificando qué tan «buena» creemos que es esta disposición, y luego le damos a una IA superinteligente el objetivo de maximizar esta función. Esto puede parecer un enfoque razonable, ya que describir el comportamiento orientado a objetivos como maximización de funciones es popular en varias áreas de la ciencia, Sin embargo, cuando hablamos de los objetivos finales de nuestro cosmos, este enfoque plantea una pesadilla computacional. Como hemos explorado anteriormente, la única razón por la que los humanos tenemos preferencias puede ser debido a que somos la solución a un problema de optimización evolutiva. Incluso si la IA aprendiera a predecir con precisión las preferencias de algún ser humano representativo, no sería capaz de calcular la función de bondad para la mayoría de las disposiciones de partículas. Por supuesto, hay algunas funciones de la disposición de las partículas cósmicas que pueden definirse rigurosamente, e incluso conocemos sistemas físicos que evolucionan para maximizar algunas de ellas. Por ejemplo, ya hemos comentado cuántos sistemas evolucionan para maximizar su entropía, lo que en ausencia de gravedad conduce finalmente a la muerte por calor. Por lo tanto, la entropía no es algo que quisiéramos que nuestra IA llamara “bondad” y se esforzara por maximizar. Todavía tenemos que identificar cualquier objetivo final para nuestro Universo que parezca definible y deseable. Los únicos objetivos programables actualmente que garantizan permanecer verdaderamente bien definidos a medida que una IA se vuelve cada vez más inteligente son los objetivos expresados únicamente en términos de cantidades físicas, como la disposición de las partículas, la energía y la entropía. Sin embargo, actualmente no tenemos motivos para creer que tales objetivos definibles sean deseables para garantizar la supervivencia de la humanidad. Pero todo indica que los humanos somos un accidente histórico y no somos la solución óptima a ningún problema de física bien definido. Esto sugiere que una IA superinteligente con un objetivo rigurosamente definido tal vez podrá mejorar su consecución eliminándonos. Esto significa que para decidir sabiamente qué hacer con el desarrollo de la IA, los humanos debemos enfrentar no sólo los desafíos computacionales tradicionales, sino también algunas de las cuestiones más importantes de la filosofía. Para programar una IA amigable, necesitamos capturar el significado de la vida. En otras palabras, ¿cómo deberíamos esforzarnos por dar forma al futuro de nuestro Universo? Si cedemos el control a una superinteligencia antes de responder rigurosamente a estas preguntas, es poco probable que la respuesta que nos dé nos involucre. Esto hace que sea oportuno reavivar los debates clásicos sobre filosofía y ética.
La IA puede ayudarnos a crear un futuro maravilloso si logramos encontrar respuestas a algunos de los problemas más antiguos y difíciles de la filosofía. Nos enfrentamos, en palabras de Nick Bostrom, a la filosofía con una fecha límite. Uno de los temas filosóficos más espinosos de todos es lo que llamamos conciencia. Aunque los pensadores han reflexionado sobre el misterio de la conciencia durante miles de años, el auge de la IA añade una urgencia repentina, en particular a la cuestión de predecir qué entidades inteligentes tienen experiencias subjetivas. La cuestión de si se debe conceder algún tipo de derecho a las máquinas inteligentes depende crucialmente de si son conscientes y pueden sentir emociones. Se habla de actos conscientes y de conciencia. Pero, ¿qué diferencia hay entre consciencia y conciencia? La distinción entre «consciencia» y «conciencia» puede ser sutil y, a menudo, se usan indistintamente en el habla cotidiana, pero tienen matices que las diferencian, especialmente en contextos filosóficos y psicológicos. La «consciencia» se refiere al estado de estar despierto y al tanto de lo que ocurre a tu alrededor y en tu propia mente. Es la capacidad de percibir, de tener experiencias subjetivas y de tener una representación mental de tu entorno y de ti mismo. Como ejemplos tenemos el estar consciente de los sonidos en una habitación o tener consciencia de uno mismo, es decir, saber que existes como individuo separado de los demás. La «conciencia» suele referirse a la capacidad de reconocer la diferencia entre el bien y el mal, y de actuar de acuerdo con principios morales y éticos. También puede implicar la introspección y la autoevaluación de las propias acciones y decisiones desde una perspectiva moral. Como ejemplos tenemos el sentir remordimiento por haber mentido a un amigo o tener la conciencia tranquila después de tomar una decisión justa y ética. La consciencia está asociada con la actividad del cerebro, especialmente en áreas como la corteza prefrontal, que está involucrada en funciones ejecutivas, toma de decisiones y autopercepción. También se relaciona con redes neuronales específicas, como la red de modo predeterminado y la red ejecutiva central. El sistema de activación reticular, ubicado en el tronco encefálico, juega un papel crucial en la regulación del estado de vigilia y alerta, afectando directamente a la consciencia. Aunque es más abstracta, la conciencia también parece se localiza en el cerebro, aunque hay otras opiniones al respecto, particularmente en áreas asociadas con la empatía, el juicio moral y la toma de decisiones, como la corteza prefrontal y el sistema límbico. La conciencia se ve influenciada en gran medida por la educación, la cultura y las experiencias personales, lo que significa que no solo es un producto de la neurobiología, sino también de la interacción social. En resumen, mientras que la «consciencia» se centra en la percepción y el estado de alerta, la «conciencia» está más relacionada con el juicio moral y ético, pero ambos procesos están profundamente interconectados con el funcionamiento cerebral y también son moldeados por la experiencia y el entorno cultural del individuo.
Pero resulta inútil formular una ética utilitaria basada en maximizar las experiencias positivas sin saber qué entidades inteligentes son capaces de tenerlas. Algunas personas podrían preferir que sus robots estén inconscientes para evitar sentirse culpables como dueños de un tipo de esclavos. Por otro lado, pueden desear lo contrario si se conecta una computadora a sus mentes para liberarse de las limitaciones biológicas. Para el futuro cósmico a largo plazo de la vida, comprender lo qué es consciente y lo qué no se vuelve fundamental, ya que si la tecnología permite que la vida inteligente florezca en todo nuestro Universo durante miles de millones de años, ¿cómo podemos estar seguros de que esta vida sea consciente y capaz? Si habilitamos a productos de alta tecnología que erróneamente pensamos que son conscientes, ¿sería este el apocalipsis zombie definitivo? Al igual que con «vida» e «inteligencia«, no existe una definición correcta e indiscutible de la palabra «conciencia«. En cambio, hay muchos otros que compiten entre sí, incluyendo la sensibilidad, la vigilia, la autoconciencia, el acceso a información sensorial y la capacidad de fusionar información en una narrativa. En nuestra exploración del futuro de la inteligencia queremos adoptar una visión lo más amplia e inclusiva posible, que no se limite a los tipos de conciencia biológica que existen hasta ahora. Por eso la definición puede ser conciencia = experiencia subjetiva. En otras palabras, si sientes que eres tú en este momento, entonces eres consciente. Para apreciar cuán amplia es esta definición de conciencia, tengamos en cuenta que no se menciona el comportamiento, la percepción, la autoconciencia, las emociones o la atención. Entonces, según esta definición, también estás consciente cuando sueñas, a pesar de que careces de vigilia o acceso a información sensorial. De manera similar, cualquier sistema que experimente dolor es consciente en este sentido, incluso si no puede moverse. Nuestra definición deja abierta la posibilidad de que algunos sistemas futuros de IA también puedan ser conscientes, incluso si existen simplemente como software y no están conectados a sensores o cuerpos robóticos. Con esta definición, es difícil no preocuparse por la conciencia.
En la exploración del futuro de la inteligencia hay que adoptar una visión lo más amplia e inclusiva posible, que no se limite a los tipos de inteligencia que existen hasta ahora. Podemos definir la inteligencia como la capacidad para lograr objetivos complejos. Ello incluye otras definiciones como la comprensión, la autoconciencia, la resolución de problemas, el aprendizaje, etc., que son ejemplos de objetivos complejos que uno podría tener. No obstante, debido a que hay muchas metas posibles, existen muchos tipos posibles de inteligencia. Ante estas definiciones nos podemos preguntar: ¿Qué es más inteligente, un programa de computadora que solo puede jugar al ajedrez o uno que solo puede jugar al Go? Es evidente que son buenos en cosas diferentes que no se pueden comparar directamente. Para clasificar diferentes inteligencias, otra distinción crucial es entre inteligencia estrecha y amplia. La computadora de ajedrez Deep Blue de IBM, que destronó al campeón de ajedrez Garry Kasparov en 1997, sólo pudo realizar la tarea de jugar al ajedrez. Sin embargo, a pesar de su impresionante hardware y software, ni siquiera podía vencer a un niño de cuatro años en otro juego infantil. En contraste, la inteligencia humana es hasta ahora excepcionalmente amplia y capaz de dominar una gran cantidad de habilidades. Un niño que reciba suficiente tiempo de entrenamiento puede llegar a ser bastante bueno no sólo en cualquier juego, sino también en cualquier idioma, deporte o materia. Al comparar la inteligencia de los humanos y las máquinas hoy en día, los humanos ganamos con diferencia en amplitud, mientras que las máquinas nos superan en un número pequeño pero creciente de dominios estrechos. El santo grial de la investigación de la IA es construir una “IA general”, más conocida como inteligencia artificial general, AGI, que sea máximamente amplia, capaz de lograr prácticamente cualquier objetivo, incluido el aprendizaje. El término AGI fue popularizado por los investigadores de IA Shane Legg, Mark Gubrud y Ben Goertzel para referirse más específicamente a inteligencia artificial general a nivel humano, cuya finalidad es alcanzar la capacidad de lograr cualquier objetivo, como los humanos, pero en el menor tiempo posible.
Aunque la palabra «inteligencia» tiende a tener connotaciones positivas, es importante señalar que la estamos usando como capacidad para lograr objetivos complejos independientemente de si estos objetivos se consideran buenos o malos. Así, una persona inteligente puede ser muy buena ayudando a la gente o muy buena haciéndole daño. En cuanto a las metas, también necesitamos aclarar la sutileza de a qué metas nos referimos. Supongamos que nuestro futuro asistente personal robótico nuevo no tenga ningún objetivo propio, pero hará todo lo que le pidamos y, por ejemplo, le pediremos que prepare una cena vegetariana. Si se conecta a Internet e investiga recetas de cenas vegetarianas, cómo llegar al supermercado más cercano, etc., y luego compra con éxito los ingredientes y prepara una comida suculenta, presumiblemente lo consideraremos inteligente a pesar de que el objetivo original era nuestro. De hecho, adoptó nuestro objetivo una vez que hicimos nuestra solicitud y luego lo dividió en una jerarquía de subobjetivos propios, desde pagarle al cajero hasta cortar la verdura. En este sentido, el comportamiento inteligente está inexorablemente ligado al logro de objetivos. Es natural que califiquemos la dificultad de las tareas en relación con lo difícil que nos resulta realizarlas a los humanos. Pero esto puede dar una idea engañosa de lo difíciles que son para las computadoras. Parece mucho más difícil multiplicar dos cifras grandes que reconocer a un amigo en una foto; sin embargo, las computadoras nos superaron en aritmética desde hace muchos años, mientras que el reconocimiento de imágenes a nivel humano sólo se ha vuelto posible recientemente. Este hecho de que las tareas sensorio-motoras de bajo nivel parezcan fáciles a pesar de requerir enormes recursos computacionales se conoce como la paradoja de Moravec, en honor al investigador en robótica de la Carnegie Mellon University, Hans Moravec, y se explica por el hecho de que nuestro cerebro hace que tales tareas parezcan fáciles dedicándoles cantidades masivas de “hardware” mediante procesos paralelos personalizados de nuestros cerebros.
Si la conciencia estuviese en el cerebro, ¿podría implementarse la conciencia en un algoritmo de IA? La posibilidad de implementar la conciencia en un algoritmo de inteligencia artificial (IA) es un tema de gran debate en la ciencia, la filosofía y la tecnología. La conciencia humana incluye la experiencia subjetiva (qualia), que es difícil de definir y medir objetivamente. Replicar esta cualidad en una IA sería extremadamente complicado porque no tenemos un entendimiento completo de cómo y por qué surgen estas experiencias en el cerebro humano. La conciencia parece depender de complejas interacciones a nivel neurobiológico que no están completamente comprendidas. Incluso si se lograra modelar el cerebro a nivel detallado, no está claro si esto resultaría en una verdadera conciencia o simplemente en una simulación muy avanzada. Las IA actuales, incluso las más avanzadas, operan mediante algoritmos que siguen reglas predefinidas y aprenden patrones de datos. Estas máquinas pueden simular ciertos aspectos de la consciencia (como el reconocimiento de patrones y la respuesta a estímulos) pero no tienen experiencias subjetivas ni autoconciencia genuina. Crear una IA con conciencia también implicaría dotarla de una capacidad para la auto-reflexión moral y ética, lo cual requiere una comprensión profunda de estos conceptos y de cómo implementarlos de manera que la IA no solo simule, sino que realmente «experimente» estas cualidades. La teoría de la información integrada (IIT), Propuesta por Giulio Tononi, sugiere que la conciencia se basa en la capacidad de un sistema para integrar información. Si se pudiera construir una IA con suficiente integración de información, teóricamente podría alcanzar algún nivel de conciencia. Con avances en redes neuronales y sistemas de aprendizaje profundo, algunos investigadores creen que podríamos eventualmente modelar las estructuras y funciones del cerebro humano de manera que surja la conciencia. La dificultad de replicar la experiencia subjetiva (qualia) es un obstáculo significativo. La IA actual carece de cualquier forma de experiencia interna, lo que sugiere que la verdadera conciencia puede estar fuera de su alcance. Algunos filósofos argumentan que la conciencia es un fenómeno emergente que no puede ser replicado simplemente mediante algoritmos y procesos computacionales, debido a la falta de una «chispa vital» o algún componente no material. Si bien es posible que en el futuro se desarrollen IA que simulen aspectos de la consciencia de manera muy convincente, la creación de una IA con verdadera conciencia humana (en términos de experiencia subjetiva y auto-reflexión moral y ética) sigue siendo altamente especulativa y enfrenta desafíos conceptuales y técnicos significativos. La cuestión de si la conciencia puede ser reducida a procesos computacionales es todavía objeto de debate y no está resuelta. Aunque se han hecho avances en comprender y simular aspectos de la cognición y la percepción, la verdadera conciencia humana podría ser un fenómeno que no puede ser completamente capturado por la tecnología actual o futura, al menos no sin una comprensión mucho más profunda de la mente y el cerebro humanos.
Los ordenadores son máquinas universales y su potencial se extiende uniformemente a una gama ilimitada de tareas. Los potenciales humanos, por otra parte, son fuertes en áreas que durante mucho tiempo han sido importantes para la supervivencia, pero débiles en áreas muy alejadas. El pionero de la informática Alan Turing demostró que si una computadora puede realizar un conjunto mínimo de operaciones, entonces, con suficiente tiempo y memoria, puede programarse para hacer cualquier cosa que cualquier otra computadora pueda hacer. Las máquinas que superan este umbral crítico se denominan computadoras universales. Todos los teléfonos inteligentes y portátiles actuales son universales en este sentido. De manera análoga, al umbral de inteligencia crítico requerido para el diseño de la IA podemos considerarlo como el umbral de la inteligencia universal ya que, con suficiente tiempo y recursos, puede ser capaz de lograr cualquier objetivo tan bien como cualquier otra entidad inteligente. La opinión entre los investigadores de inteligencia artificial es que, en última instancia, la inteligencia tiene que ver con información y computación. Esto significa que no hay ninguna razón fundamental por la que las máquinas algún día no puedan ser al menos tan inteligentes como nosotros. Pero, ¿qué son realmente la información y la computación, dado que la física nos ha enseñado que, en un nivel fundamental, todo es simplemente materia y energía en movimiento? ¿Cómo puede algo tan abstracto, intangible y etéreo como la información y la computación encarnarse en algo físico tangible? En particular, ¿cómo puede un grupo de partículas que se mueven según las leyes de la física exhibir un comportamiento que llamaríamos inteligente? ¿Creemos que la respuesta a esta pregunta es obvia y consideramos plausible que las máquinas puedan volverse tan inteligentes como los humanos en este siglo XXI? La memoria del cerebro funciona de manera muy diferente a la de la computadora, no sólo en términos de cómo se construye, sino también en términos de cómo se usa. Recuperamos recuerdos de una computadora o de un disco duro especificando dónde están almacenados, aunque esto está cambiando. Por el contrario, recuperas información de tu cerebro de forma similar a como la recuperas de un motor de búsqueda, especificando una parte de la información o algo relacionado con ella.
En un artículo de 1982, el físico John Hopfield demostró cómo una red de neuronas interconectadas podría funcionar como una memoria auto asociativa. Hopfield se dio cuenta de que una red compleja de neuronas proporciona un paisaje con muchos mínimos de energía en los que el sistema puede asentarse, y más tarde se demostró que se pueden incluir hasta 138 recuerdos diferentes por cada mil neuronas sin causar mayor confusión. Las computadoras actuales a menudo ganan velocidad adicional mediante el procesamiento paralelo, en que la computadora paralela definitiva es una computadora cuántica. Uno de los pioneros de la computación cuántica, David Deutsch, sostiene de manera controvertida que “las computadoras cuánticas comparten información con un gran número de versiones de sí mismas en todo el multiverso” y pueden obtener respuestas más rápidamente aquí en nuestro Universo. Todavía no sabemos si se podrá construir una computadora cuántica comercialmente competitiva durante las próximas décadas, porque depende tanto de si la física cuántica funciona como pensamos como de nuestra capacidad para superar desafíos técnicos de enormes proporciones, pero las empresas y los gobiernos de todo el mundo están apostando decenas de millones de dólares anualmente a esta posibilidad. Aunque las computadoras cuánticas no pueden acelerar los cálculos comunes y corrientes, se han desarrollado algoritmos inteligentes que pueden acelerar drásticamente tipos específicos de cálculos, como descifrar sistemas criptográficos y entrenar redes neuronales. Una computadora cuántica también podría simular eficientemente el comportamiento de sistemas mecánico-cuánticos, incluidos átomos, moléculas y nuevos materiales, reemplazando las mediciones en los laboratorios de química de la misma manera que las simulaciones en computadoras tradicionales han reemplazado las mediciones en los túneles de viento. Otros sistemas físicos, como el cerebro, pueden aprender de manera mucho más eficiente basándose en la misma idea. John Hopfield demostró que su red de neuronas interconectadas antes mencionada puede aprender de manera análoga, ya que si la pones repetidamente en ciertos estados, gradualmente aprenderá estos estados y regresará a ellos desde cualquier estado cercano.
Las redes neuronales han transformado la inteligencia tanto biológica como artificial y recientemente han comenzado a dominar el campo de la IA conocido como aprendizaje automático, que son algoritmos que mejoran a través de la experiencia, algo así como un tipo de teoría de la evolución. Antes de profundizar en cómo pueden aprender dichas redes, primero comprendamos cómo pueden calcular. Una red neuronal es simplemente un grupo de neuronas interconectadas que pueden influir en el comportamiento de las demás. Nuestro cerebro contiene aproximadamente cien mil millones de neuronas. En promedio, cada una de estas neuronas está conectada a alrededor de otras mil a través de uniones llamadas sinapsis, y son las fortalezas de estos aproximadamente cien billones de conexiones sinápticas las que codifican la mayor parte de la información en el cerebro. Las neuronas del mundo real del cerebro son dispositivos electroquímicos muy complicados que involucran diferentes partes con nombres como axones y dendritas. Hay muchos tipos diferentes de neuronas que operan en una amplia variedad de formas, y los detalles exactos de cómo y cuándo la actividad eléctrica en una neurona afecta a otras neuronas sigue siendo objeto de estudio activo. Sin embargo, los investigadores de IA han demostrado que las redes neuronales aún pueden alcanzar un rendimiento a nivel humano en muchas tareas notablemente complejas, incluso si se ignoran todas estas complejidades y se reemplazan las neuronas biológicas reales con neuronas simuladas extremadamente simples que son todas idénticas y obedecen a reglas muy simples. El modelo más popular actualmente para una red neuronal artificial de este tipo representa el estado de cada neurona con un único número y la fuerza de cada sinapsis con un único número. En este modelo, cada neurona actualiza su estado en pasos de tiempo regulares simplemente promediando las entradas de todas las neuronas conectadas, ponderándolas según las fortalezas sinápticas, agregando opcionalmente una constante y luego aplicando lo que se llama una función de activación al resultado para calcular su siguiente estado.
El éxito de estas redes neuronales artificiales simples es otro ejemplo más de independencia, ya que del sustrato de las redes neuronales se obtiene un gran poder computacional aparentemente independiente de los detalles esenciales de bajo nivel de su construcción. De hecho, los científicos George Cybenko, Kurt Hornik, Maxwell Stinchcombe y Halbert White demostraron en 1989 que las redes neuronales son universales en el sentido de que pueden calcular cualquier función con precisión arbitraria, simplemente ajustando en consecuencia los números de intensidad de las sinapsis. En otras palabras, la evolución probablemente no hizo que nuestras neuronas biológicas fueran tan complicadas porque fuera necesario, sino porque eran más eficientes y porque la evolución, a diferencia de los ingenieros humanos, no recompensa los diseños que son simples y fáciles de entender. Es desconcertante cómo algo tan simple podía calcular algo arbitrariamente complicado. Por ejemplo, tan solo cinco neuronas pueden multiplicar dos números arbitrarios y una sola neurona puede multiplicar tres bits. Aunque se puede demostrar que se puede calcular cualquier cosa en teoría con una red neuronal arbitrariamente grande, la prueba no dice nada sobre si se puede hacer en la práctica con una red de tamaño razonable. Sin embargo, las redes neuronales con apenas miles o millones de parámetros logran de algún modo realizar bastante bien tareas de clasificar imágenes de megapíxeles en escala de grises. Esto ayuda a explicar no sólo por qué las redes neuronales están ahora de moda entre los investigadores de IA, sino también por qué desarrollamos redes neuronales en nuestros cerebros, ya que si evolucionamos cerebros para predecir el futuro, entonces tiene sentido que desarrollemos una arquitectura computacional que sea buena precisamente en aquellos problemas computacionales que importan en el mundo físico. Pero, ¿cómo puede una red neuronal mejorar en computación actualizando sus sinapsis? En su libro de 1949, La organización del comportamiento: una teoría neuropsicológica, el psicólogo canadiense Donald Hebb argumentó que si dos neuronas cercanas estuvieran frecuentemente activas (“disparándose”) al mismo tiempo, su acoplamiento sináptico se fortalecería. Aunque los detalles de cómo aprenden los cerebros reales todavía están lejos de comprenderse y las investigaciones han demostrado que las respuestas son en muchos casos mucho más complicadas, también se ha demostrado que incluso esta simple regla de aprendizaje, conocida como aprendizaje hebbiano, permite que las redes neuronales aprendan cosas interesantes.
John Hopfield demostró que el aprendizaje hebbiano permitía que su red neuronal artificial simplificada almacenara muchos recuerdos complejos simplemente al exponerse a ellos repetidamente. Esta exposición a información de la que aprender suele denominarse “entrenamiento” cuando se hace referencia a redes neuronales artificiales, o a animales o personas a quienes se les enseñan habilidades. Las redes neuronales artificiales que impulsan los sistemas de IA actuales tienden a reemplazar el aprendizaje hebbiano con reglas de aprendizaje más sofisticadas, con nombres como “propagación hacia atrás” y “descenso de gradiente estocástico”, pero la idea básica es que hay una regla determinista simple, similar a una ley de la física, por la cual las sinapsis se actualizan con el tiempo. Como por arte de magia, esta simple regla puede hacer que la red neuronal aprenda cálculos notablemente complejos si el entrenamiento se realiza con grandes cantidades de datos. Todavía no sabemos con precisión qué reglas de aprendizaje utilizan nuestros cerebros, pero cualquiera que sea la respuesta, no hay indicios de que violen las leyes de la física. Así como la mayoría de las computadoras digitales ganan eficiencia al dividir su trabajo en múltiples pasos y reutilizar módulos computacionales muchas veces, también lo hacen muchas redes neuronales artificiales y biológicas. Los cerebros tienen partes que son lo que los científicos informáticos llaman redes neuronales recurrentes en lugar de redes neuronales de avance, donde la información puede fluir en múltiples direcciones en lugar de una sola, de modo que la salida actual puede convertirse en entrada para lo que sucede a continuación. La red de puertas lógicas en el microprocesador de una computadora portátil también es recurrente en este sentido, ya que sigue reutilizando su información pasada y permite que la nueva información ingresada desde un teclado, la cámara, etc., afecte su cálculo en curso, lo que a su vez determina la salida de información a, por ejemplo, una pantalla, un altavoz, una impresora o una red inalámbrica. De manera análoga, la red de neuronas en nuestro cerebro es recurrente, lo que permite que la información ingresada por nuestros ojos, oídos y otros sentidos afecte su cálculo continuo, lo que a su vez determina la salida de información a, por ejemplo, nuestros músculos.
Como todos sabemos, las explosivas mejoras en la memoria y la potencia computacional de las computadoras se han traducido en avances espectaculares en la inteligencia artificial, pero pasó mucho tiempo antes de que el aprendizaje automático alcanzara la mayoría de edad. Cuando la computadora Deep Blue de IBM venció al campeón de ajedrez Gary Kasparov en 1997, sus principales ventajas radicaron en la memoria y la computación, no en el aprendizaje. Su inteligencia computacional había sido creada por un equipo de humanos, y la razón clave por la que Deep Blue podía superar a sus creadores era su capacidad para calcular más rápido y, por lo tanto, analizar más posiciones potenciales. Cuando la computadora Watson de IBM destronó al campeón mundial humano en el programa de preguntas Jeopardy! , también dependía menos del aprendizaje que de habilidades programadas a medida y de una memoria y velocidad superiores. Lo mismo puede decirse de la mayoría de los primeros avances en robótica, desde la locomoción con patas hasta los vehículos autónomos y los cohetes con aterrizaje automático. Por el contrario, la fuerza impulsora detrás de muchos de los avances más recientes en IA ha sido el aprendizaje automático. Un equipo de Google dirigido por Ilya Sutskever ingresó un conjunto diferente de colores de píxeles y preguntó que era y la IA respondió correctamente. Lo hicieron creando una red neuronal relativamente simple sin conocimiento alguno sobre el mundo físico o sus contenidos, y luego dejándola aprender exponiéndola a cantidades masivas de datos. Pero, ¿cuánto tiempo pasará hasta que las máquinas puedan superarnos en todas las tareas cognitivas? Claramente no lo sabemos y debemos estar abiertos a cualquier posibilidad. Sin embargo, debemos considerar la posibilidad de que esto suceda durante nuestra vida. Después de todo, la materia se puede organizar de modo que cuando obedezca las leyes de la física, recuerde, calcule y aprenda, y no es necesario que la materia sea biológica. Los investigadores de IA a menudo han sido acusados de prometer demasiado y no cumplir lo suficiente. Las máquinas ahora son buenas o excelentes en aritmética, ajedrez, demostración de teoremas matemáticos, selección de acciones, subtítulos de imágenes, conducción, juego del Go, síntesis de voz, transcripción de voz, traducción y diagnóstico de cáncer, pero algunos críticos se burlarán diciendo que eso no es verdadera inteligencia. Pero el impacto de la IA en la sociedad seguirá creciendo. Mucho antes de que la IA alcance el nivel humano en todas las tareas, nos brindará oportunidades y desafíos fascinantes relacionados con cuestiones como errores, leyes, armas y trabajos. ¿Cuáles son y cómo podemos prepararnos mejor para ello?
Pero primero hagámonos la siguiente pregunta: ¿Qué significa ser humano en la actualidad? Por ejemplo, ¿qué es lo que realmente valoramos de nosotros mismos y que nos diferencia de otras formas de vida y de las máquinas? ¿Qué valoran otras personas de nosotros que hace que estén dispuestos a ofrecernos trabajos? Cualesquiera que sean nuestras respuestas a estas preguntas en un momento determinado, está claro que el auge de la tecnología debe cambiarlas gradualmente. Veamos el caso de un científico que tiene sus propios objetivos, que utiliza la creatividad y la intuición para abordar una amplia gama de problemas sin resolver y de utilizar el lenguaje para compartir lo que va descubriendo. Actualmente la sociedad está dispuesta a pagar por hacer esto como trabajo. Hace siglos, uno podía ser agricultor o artesano, pero desde entonces el crecimiento de la tecnología ha reducido esas profesiones a una pequeña fracción de la fuerza laboral. Esto significa que ya no es posible para todos construir su identidad en torno a la agricultura o la artesanía. Pero a medida que la tecnología sigue mejorando, ¿el auge de la IA eventualmente eclipsará también aquellas habilidades que proporcionan el sentido actual de autoestima y valor en el mercado laboral de este científico? Stuart Russell explicó que él y muchos de sus compañeros investigadores de IA habían experimentado recientemente un momento de desazón cuando fueron testigos de que la IA hacía algo que no esperaban ver en muchos años. Todo ello presagia que diversas habilidades humanas pronto serán superadas. Mirando hacia el futuro del aprendizaje por refuerzo profundo y las mejoras consiguientes no se vislumbra un final obvio. El potencial no se limita a los mundos de juegos virtuales, ya que si eres un robot la vida misma puede verse como un juego. Stuart Russell dijo que su primer momento importante fue ver al robot Big Dog correr por una ladera de un bosque cubierto de nieve, resolviendo elegantemente el problema de locomoción de las piernas que él mismo había luchado por resolver durante muchos años. Sin embargo, cuando se alcanzó ese hito en 2008, implicó enormes cantidades de trabajo por parte de programadores inteligentes. Después del avance de DeepMind, no hay razón por la cual un robot no pueda finalmente usar alguna variante de aprendizaje por refuerzo profundo para aprender a caminar sin ayuda de programadores humanos. Todo lo que se necesita es un sistema que le dé puntos de recompensa cada vez que progrese. De manera similar, los robots en el mundo real tienen el potencial de aprender a nadar, volar, jugar ping-pong, pelear y realizar una lista casi interminable de otras tareas motoras sin la ayuda de programadores humanos. Para acelerar las cosas y reducir el riesgo de quedarse atascados o dañarse durante el proceso de aprendizaje, probablemente harían las primeras etapas de su aprendizaje en realidad virtual.
Otro momento decisivo para la IA, que ya he explicado en otros artículos, fue cuando el sistema de IA de la empresa DeepMind, AlphaGo, ganó una partida de Go de cinco partidas contra Lee Sedol, generalmente considerado el mejor jugador del mundo a principios del siglo XXI. Se esperaba ampliamente que los jugadores humanos de Go fueran destronados por las máquinas en algún momento, como les había sucedido a sus colegas jugadores de ajedrez dos décadas antes. Sin embargo, la mayoría de los expertos en Go predijeron que tomaría otra década, por lo que el triunfo de AlphaGo fue un momento crucial. Nick Bostrom y Ray Kurzweil han enfatizado lo difícil que puede ser ver los avances de la IA, lo cual es evidente en las entrevistas con el propio Lee Sedol antes y después de perder los primeros tres juegos: En Octubre de 2015 dijo: “Basado en el nivel visto creo que ganaré el juego casi por goleada”. En Febrero de 2016 dijo: «He oído que la IA de Google DeepMind es sorprendentemente fuerte y cada vez más fuerte, pero confío en que puedo ganar al menos esta vez«. En el 9 de marzo de 2016 su declaración fue: “Me sorprendió mucho porque no pensé que iba a perder”. En el 10 de marzo de 2016 ya muestra su sorpresa: “Estoy sin palabras, estoy en shock. Puedo admitir que el tercer juego no va a ser fácil para mí”. En el 12 de marzo de 2016 muestra sus sentimientos: «Me sentí como impotente«. Un año después de jugar contra Lee Sedol, un AlphaGo mejorado aún más había jugado contra los veinte mejores jugadores del mundo sin perder una sola partida. ¿Por qué fue esto tan importante? Si consideramos la intuición y la creatividad como dos de los rasgos humanos fundamentales, AlphaGo mostró ambos rasgos. Esto también hizo de China, a través de su presidente Xi Jinping, declarase el desarrollo de la IA como una prioridad.
Los jugadores de Go se turnan para colocar piedras blancas y negras en un tablero de 19 por 19. Hay muchísimas más posiciones posibles en Go que átomos en nuestro Universo, lo que significa que tratar de analizar todas las secuencias interesantes de movimientos futuros rápidamente se vuelve inútil, al contrario que en el ajedrez. Por lo tanto, los jugadores dependen en gran medida de la intuición subconsciente para complementar su razonamiento consciente y los expertos desarrollan una sensación casi mística sobre qué posiciones son fuertes y cuáles son débiles. Como vimos en el capítulo anterior, los resultados del aprendizaje profundo a veces recuerdan a la intuición, ya que una red neuronal profunda podría determinar que una imagen representa a un gato sin poder explicar por qué. Por lo tanto, el equipo de DeepMind apostó por la idea de que el aprendizaje profundo podría reconocer no solo gatos, sino también posiciones fuertes de Go. La idea central que incorporaron a AlphaGo fue combinar el poder intuitivo del aprendizaje profundo con el poder lógico de GOFAI, que significa lo que con humor se conoce como «IA buena y pasada de moda» desde antes de la revolución del aprendizaje profundo. Utilizaron una base de datos masiva de posiciones de Go tanto de juegos humanos como de juegos en los que AlphaGo había jugado con un clon de sí mismo, y entrenaron una red neuronal profunda para predecir desde cada posición la probabilidad de que las blancas finalmente ganaran. También entrenaron una red separada para predecir los próximos movimientos probables. Luego combinaron estas redes con un método GOFAI que buscaba inteligentemente en una lista recortada de probables secuencias de movimientos futuros para identificar el siguiente movimiento que conduciría a la posición más fuerte en el futuro. Sorprendentemente AlphaGo AI de DeepMind realizó un movimiento muy creativo desafiando milenios de sabiduría humana, que unos cincuenta movimientos más tarde resultaron cruciales para derrotar a la leyenda del Go, Lee Sedol.
Esta unión de intuición y lógica dio origen a movimientos que no sólo fueron poderosos, sino en algunos casos también altamente creativos. Por ejemplo, milenios de sabiduría en Go dictan que al principio del juego es mejor jugar en la tercera o cuarta línea desde el borde. Hay una compensación entre los dos, ya que jugar en la tercera línea ayuda a ganar territorio a corto plazo hacia el lado del tablero, mientras que jugar en la cuarta ayuda a tener influencia estratégica a largo plazo hacia el centro. En el trigésimo séptimo movimiento del segundo juego, AlphaGo conmocionó al mundo del Go al desafiar esa antigua sabiduría y jugar en la quinta línea, como si tuviera incluso más confianza que un humano en sus capacidades de planificación a largo plazo y, por lo tanto, favoreció la ventaja estratégica sobre la ganancia a corto plazo. Los comentaristas quedaron atónitos y Lee Sedol incluso se levantó y abandonó temporalmente la habitación. Efectivamente, unos cincuenta movimientos después, la lucha desde la esquina inferior izquierda del tablero terminó desbordándose y conectando con esa piedra negra del movimiento treinta y siete. Y ese movimiento es lo que finalmente ganó el juego, consolidando el legado del movimiento de la quinta fila de AlphaGo como uno de los más creativos en la historia del Go. Debido a sus aspectos intuitivos y creativos, Go se considera más una forma de arte que un juego más. Se consideraba una de las cuatro “artes esenciales” en la antigua China, junto con la pintura, la caligrafía y la música qin, y sigue siendo muy popular en Asia, con casi 300 millones de personas viendo el primer partido entre AlphaGo y Lee Sedol. Como resultado, el mundo del Go quedó bastante conmocionado por el resultado y vio la victoria de AlphaGo como un hito profundo para la humanidad. Ke Jie, el jugador de Go mejor clasificado del mundo en ese momento, dijo lo siguiente: “La humanidad ha jugado Go durante miles de años y, sin embargo, como nos ha demostrado la IA, aún no hemos arañado la superficie. La unión de jugadores humanos y de computadoras marcará el comienzo de una nueva era. Juntos, el hombre y la IA pueden encontrar la verdad del Go”. De hecho, pensando positivamente, esta fructífera colaboración entre humanos y máquinas parece prometedora en muchas áreas, incluida la ciencia, donde se espera que la IA pueda ayudarnos a los humanos a profundizar nuestra comprensión y alcanzar nuestro máximo potencial.
Debido a que Go es uno de los mejores juegos de estrategia, la IA ahora está lista para desafiar o ayudar a los mejores estrategas humanos incluso más allá de los tableros de juego como, por ejemplo, con la estrategia de inversión, la estrategia política o, desgraciadamente, la estrategia militar. Estos problemas de estrategia del mundo real suelen complicarse por la psicología humana, la información faltante y los factores aleatorios, pero los sistemas de inteligencia artificial de, por ejemplo, el juego de póquer, ya han demostrado que ninguno de estos desafíos es insuperable. Otra área en la que el progreso de la IA ha sorprendido es la del lenguaje. La IA ha ido avanzando y tras un importante descubrimiento en 2016, hay casi no hay idiomas que se resista al sistema de IA desarrollado por el equipo de Google. En 2016, el equipo de Google Brain actualizó su servicio gratuito Google Translate para utilizar redes neuronales recurrentes profundas, y la mejora con respecto a los sistemas GOFAI más antiguos fue espectacular. Yo, de hecho, estoy utilizando el traductor de Google para traducir del inglés u otros idiomas libros y artículos digitalizados y, aparte de la gran rapidez (menos de 1 minuto para traducir un libro de 1000 páginas), la calidad de la traducción es cada vez más grande. Además, gracias a los avances recientes en el aprendizaje profundo para la conversión de voz a texto y de texto a voz, los usuarios ahora pueden hablar con sus teléfonos inteligentes en un idioma y escuchar el resultado traducido. El procesamiento del lenguaje natural es ahora uno de los campos de la IA que avanza más rápidamente y ello tendrá un gran impacto porque el lenguaje es fundamental para el ser humano. Cuanto mejor sea una IA en la predicción lingüística, mejor podrá redactar respuestas razonables por correo electrónico o continuar una conversación hablada, como ya pasa con GPT-4 de OpenAI. Esto podría, al menos para un extraño, dar la apariencia de que está teniendo lugar un pensamiento humano. Los sistemas de aprendizaje profundo están dando así pequeños pasos para pasar la famosa prueba de Turing, en la que una máquina tiene que conversar por escrito lo suficientemente bien como para engañar a una persona haciéndole creer que ella también es humana. Sin embargo, la IA de procesamiento del lenguaje aún tiene un largo camino por recorrer. Al ser entrenado con conjuntos de datos masivos, descubre patrones y relaciones que involucran palabras sin siquiera relacionar estas palabras con nada en el mundo real. Por ejemplo, podría representar cada palabra mediante una lista de mil números que especifican qué tan similar es a otras palabras determinadas. Entonces puede concluir de esto que la diferencia entre “rey” y “reina” es similar a la que existe entre “marido” y “esposa”, pero todavía no tiene idea de qué significa ser hombre o mujer, o incluso que hay algo así como una realidad física ahí fuera con espacio, tiempo y materia.
Es muy probable que el rápido progreso de la IA continúe durante muchos años. Además, no hay ninguna razón fundamental por la que este progreso no pueda continuar hasta que la IA iguale las capacidades humanas en la mayoría de las tareas. Ello plantea la pregunta: ¿Cómo nos afectará esto? ¿Cómo cambiará el progreso de la IA a corto plazo lo que significa ser humano? Hemos visto que cada vez es más difícil argumentar que la IA carece por completo de objetivos, amplitud, intuición, creatividad o lenguaje, rasgos que muchos consideran fundamentales para el ser humano. Esto significa que incluso en el corto plazo, mucho antes de que cualquier AGI pueda igualarnos en todas las tareas, la IA podría tener un impacto dramático en cómo nos vemos a nosotros mismos, en lo que podemos hacer cuando la IA nos complementa y en que podemos ganar dinero compitiendo contra la IA. ¿Este impacto será para bien o para mal? ¿Qué oportunidades y desafíos a corto plazo presentará esto? Todo lo que conocemos de la civilización es producto de la inteligencia humana, por lo que si podemos amplificarlo con inteligencia artificial, obviamente tenemos el potencial de hacer la vida aún mejor. Incluso un progreso modesto en IA podría traducirse en mejoras importantes en ciencia y tecnología y en la correspondiente reducción de accidentes, enfermedades, injusticia, guerras, trabajo pesado y pobreza. Pero para aprovechar estos beneficios de la IA sin crear nuevos problemas debemos responder a muchas preguntas importantes. La tecnología de la información ya ha tenido un gran impacto positivo en prácticamente todos los sectores de nuestra actividad humana, desde la ciencia hasta las finanzas, la manufactura, el transporte, la atención médica, la energía y las comunicaciones, y este impacto palidece en comparación con el progreso que la IA tiene el potencial de generar. Pero cuanto más confiamos en la tecnología, más importante se vuelve que sea sólida y confiable y que haga lo que queremos que haga, suponiendo que tengamos buenas intenciones. A lo largo de la historia de la humanidad hemos confiado en el mismo enfoque para mantener nuestra tecnología beneficiosa para los humanos: aprender de los errores. Hasta ahora, nuestras tecnologías han causado normalmente pocos y limitados accidentes como para que sus daños sean superados por sus beneficios. Sin embargo, a medida que desarrollamos inexorablemente una tecnología cada vez más poderosa, inevitablemente llegaremos a un punto en el que incluso un solo accidente podría ser lo suficientemente devastador como para superar todos los beneficios. Algunos sostienen que una guerra nuclear global accidental constituiría un ejemplo de ello. Otros argumentan que una pandemia generada por bioingeniería podría ser otro ejemplo. Pero tendremos que explorar si la futura IA podría causar la extinción humana. Sin embargo no necesitamos considerar ejemplos tan extremos para llegar a una conclusión crucial: a medida que la tecnología se vuelve más poderosa, deberíamos confiar menos en el enfoque de prueba y error propio de la ingeniería de seguridad. En otras palabras, deberíamos ser más proactivos que reactivos, invirtiendo en investigaciones de seguridad destinadas a evitar que ocurran accidentes aunque sea una sola vez. Esta es la misma razón por la que la sociedad invierte mucho en la seguridad de los reactores nucleares.
Esta es también la razón por la cual hay un gran interés en la investigación sobre la seguridad de la IA. Las computadoras y los sistemas de inteligencia artificial de vez en cuando han fallado, pero esta vez es diferente, ya que la IA está ingresando gradualmente al mundo real y no es simplemente una molestia si colapsa la red eléctrica, el mercado de valores o un sistema de armas nucleares. Se han definido cuatro áreas principales de investigación técnica sobre seguridad de la IA: verificación, validación, seguridad y control. Para ello hay que examinar los éxitos y fracasos pasados de la tecnología de la información en diferentes áreas, así como las valiosas lecciones que podemos aprender de ellas y los desafíos de investigación que plantean. Aunque la mayoría de estas historias son antiguas, involucran sistemas informáticos de baja tecnología a los que casi nadie se referiría como IA y que causaron pocas víctimas, si es que hubo alguna. Veremos que, no obstante, nos enseñan lecciones valiosas para diseñar una IA futura segura y potente, cuyos fallos podrían ser verdaderamente catastróficos. En el caso de la exploración espacial, la tecnología informática nos ha permitido llevar personas a la Luna y enviar naves espaciales no tripuladas para explorar todos los planetas de nuestro Sistema Solar, incluso aterrizando en Titán, la luna de Saturno, y en un cometa. La IA del futuro puede ayudarnos a explorar otros sistemas solares y galaxias si está libre de errores. El 4 de junio de 1996, los científicos que esperaban investigar la magnetosfera de la Tierra aplaudieron con júbilo cuando un cohete Ariane 5 de la Agencia Espacial Europea se elevó con los instrumentos científicos que habían construido. Treinta y siete segundos después, sus sonrisas se desvanecieron cuando el cohete explotó en un espectáculo de fuegos artificiales que costó cientos de millones de dólares. Se descubrió que la causa era un software defectuoso que manipulaba un número demasiado grande para caber en los 16 bits asignados. Dos años más tarde, el Mars Climate Orbiter de la NASA entró accidentalmente en la atmósfera del Planeta Rojo y se desintegró porque dos partes diferentes del software utilizaban diferentes unidades de fuerza, lo que provocó un error del 445% en el control de empuje del motor del cohete. La misión Mariner 1 de la NASA a Venus explotó después del lanzamiento desde Cabo Cañaveral el 22 de julio de 1962, después de que el software de control de vuelo fuera frustrado por un signo de puntuación incorrecto. Como para demostrar que no sólo los occidentales tenían problemas en el lanzamiento de objetos al espacio, la misión soviética Phobos 1 fracasó el 2 de septiembre de 1988. Se trataba de la nave espacial interplanetaria más pesada jamás lanzada, con el espectacular objetivo de desplegar un módulo de aterrizaje en la luna Fobos de Marte. Pero todo se vio frustrado cuando un guion faltante provocó que se enviara el comando de «fin de misión» a la nave espacial mientras se dirigía a Marte, apagando todos sus sistemas.
Lo que aprendemos de estos ejemplos es la importancia de lo que los informáticos llaman verificación, que implica garantizar que el software satisfaga plenamente todos los requisitos esperados. Cuantas más vidas y recursos estén en juego, mayor será la confianza que queremos de que el software funcione según lo previsto. Afortunadamente, la IA puede ayudar a automatizar y mejorar el proceso de verificación. Por ejemplo, un núcleo completo de sistema operativo de propósito general ha sido recientemente cotejado matemáticamente con una especificación formal para brindar una sólida garantía contra fallas y operaciones inseguras. La Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (DARPA) ha patrocinado el desarrollo de un conjunto de herramientas de alta seguridad de código abierto llamadas HACMS (Sistemas Cibermilitares de alta Seguridad) que son demostrablemente seguras. Un desafío importante es hacer que estas herramientas sean lo suficientemente poderosas y fáciles de usar para que puedan implementarse ampliamente. Otro desafío es que la propia tarea de verificación se volverá más difícil a medida que el software se traslade a robots y nuevos entornos, y a medida que el software preprogramado tradicional sea reemplazado por sistemas de inteligencia artificial que siguen aprendiendo, cambiando así su comportamiento. Las finanzas son otra área que ha sido transformada por la tecnología de la información, permitiendo que los recursos se reasignen eficientemente en todo el mundo a la velocidad de la luz, por lo que es posible que los avances en IA ofrezcan grandes oportunidades de ganancias futuras a partir del comercio financiero, ya que la mayoría de las decisiones de compra/venta en el mercado de valores ahora se toman automáticamente por computadoras y complejos algoritmos de IA. Pero la verificación también es importante para el software financiero, algo que la firma estadounidense Knight Capital aprendió el 1 de agosto de 2012, al perder 440 millones de dólares en cuarenta y cinco minutos después de implementar software comercial no verificado. El “Flash Crash” del 6 de mayo de 2010, que costó un billón de dólares, fue digno de mención por una razón diferente. Aunque causó perturbaciones masivas durante aproximadamente media hora antes de que los mercados se estabilizaran, con acciones de algunas empresas destacadas como Procter & Gamble oscilando en precio entre un centavo y 100.000 dólares, el problema no fue causado por errores o fallos de funcionamiento de la computadora que la verificación podría haber evitado. Más bien fue causado por la violación de expectativas, ya que los programas de negociación automática de muchas empresas se encontraron operando en una situación inesperada en la que sus suposiciones no eran válidas como, por ejemplo, la suposición de que si una computadora de la bolsa informaba que una acción tenía un precio de un centavo, entonces esa acción realmente valía un centavo. El flash crash ilustra la importancia de lo que los científicos informáticos llaman validación.
Es evidente que la IA tiene un gran potencial para mejorar la fabricación mediante el control de robots que mejoran tanto la eficiencia como la precisión. Las impresoras 3D, en constante mejora, ahora pueden crear prototipos de cualquier cosa, desde edificios de oficinas hasta dispositivos más pequeños que un grano de sal. Enormes robots industriales construyen automóviles y aviones controlados por computadora. Pero cuantos más robots tengamos a nuestro alrededor, más importante será que verifiquemos y validemos su software. La primera persona que murió a manos de un robot fue Robert Williams, un trabajador de una planta de Ford en Flat Rock, Michigan. En 1979, un robot que se suponía debía recuperar piezas de un área de almacenamiento falló y él mismo subió al área para recoger las piezas. El robot comenzó a operar silenciosamente y le rompió la cabeza, continuando durante treinta minutos hasta que sus compañeros descubrieron lo sucedido. La siguiente víctima de un robot fue Kenji Urada, ingeniero de mantenimiento de una planta de Kawasaki en Akashi, Japón. Mientras trabajaba en un robot averiado en 1981, accidentalmente presionó el interruptor de encendido y murió aplastado por el brazo hidráulico del robot. En 2015, un contratista de veintidós años en una de las plantas de producción de Volkswagen en Baunatal, Alemania, estaba trabajando en la instalación de un robot para agarrar piezas de automóviles y manipularlas. Algo salió mal, lo que provocó que el robot lo agarrara y lo aplastara contra una placa de metal. Aunque estos accidentes son trágicos, es importante señalar que representan una fracción minúscula de todos los accidentes industriales. Además, los accidentes industriales han disminuido en lugar de aumentar a medida que la tecnología ha mejorado, pasando de unas 14.000 muertes en 1970 a 4.821 en 2014 en Estados Unidos. Los tres accidentes antes mencionados muestran que añadir inteligencia a máquinas que de otro modo serían tontas debería poder mejorar aún más la seguridad industrial, haciendo que los robots aprendan a ser más cuidadosos con las personas. Los tres accidentes podrían haberse evitado con una mejor validación. Los robots causaron daño no debido a errores o malicia, sino porque hicieron suposiciones inválidas, tales como que la persona no estaba presente o que la persona era una pieza de automóvil. Mientras que los robots industriales tradicionales son caros y difíciles de programar, hay una tendencia hacia robots más baratos impulsados por IA que pueden aprender qué hacer a partir de las experiencias de los trabajadores.
Aunque la IA puede salvar muchas vidas en la fabricación, potencialmente puede salvar aún más vidas en el transporte. Solo los accidentes automovilísticos se cobraron más de 1,2 millones de vidas en 2015, y los accidentes de aviones, trenes y barcos mataron a miles más. En Estados Unidos, con sus altos estándares de seguridad, los accidentes automovilísticos mataron a unas 35.000 personas, siete veces más que todos los accidentes industriales juntos. Debido a que casi todos los accidentes automovilísticos son causados por errores humanos, se cree ampliamente que los vehículos autónomos impulsados por IA pueden eliminar al menos el 90% de las muertes en las carreteras, y este optimismo está impulsando un gran progreso hacia la puesta en circulación de vehículos autónomos. Elon Musk prevé que los futuros coches autónomos no sólo serán más seguros, sino que también generarán dinero para sus propietarios mientras no sean necesarios, al competir con Uber y Lyft. Hasta ahora, los vehículos autónomos tienen un mejor historial de seguridad que los conductores humanos, y los accidentes ocurridos subrayan la importancia y la dificultad de la validación. El primer golpe en el guardabarros causado por un coche autónomo de Google tuvo lugar el 14 de febrero de 2016 porque hizo una suposición incorrecta sobre un autobús, de que su conductor cedería el paso cuando el coche se detuviera delante de él. El primer accidente letal causado por un Tesla autónomo, que chocó contra el remolque de un camión que cruzaba la autopista el 7 de mayo de 2016, se debió a dos suposiciones erróneas: que el lado blanco brillante del remolque era simplemente parte del cielo brillante, y que el conductor, que supuestamente estaba viendo una película de Harry Potter, estaba prestando atención e intervendría si algo salía mal. Pero a veces una buena verificación y validación no son suficientes para evitar accidentes, porque también necesitamos un buen control, como sería la capacidad de un operador humano para monitorear el sistema y cambiar su comportamiento si es necesario. Para que estos sistemas humanos en el circuito funcionen bien, es crucial que la comunicación entre humanos y máquinas sea efectiva. En este sentido, una luz roja en su tablero le alertará cómodamente si accidentalmente deja abierto el maletero de su automóvil. Por el contrario, cuando el ferry británico MS Herald of Free Enterprise abandonó el puerto de Zeebrugge el 6 de marzo de 1987, con las puertas de proa abiertas, no había ninguna luz de advertencia ni ninguna otra advertencia visible para el capitán, y el ferry volcó poco después de abandonar el puerto, matando a 193 personas. Otro trágico fallo de control que podría haberse evitado con una mejor comunicación máquina-humano ocurrió durante la noche del 1 de junio de 2009, cuando el vuelo 447 de Air France se estrelló en el Océano Atlántico, matando a las 228 personas a bordo. Los expertos en seguridad de vuelo especularon que el accidente podría haberse evitado si hubiera habido un indicador de «ángulo de ataque» en la cabina, que mostrara a los pilotos que el morro apuntaba demasiado hacia arriba. Cuando el vuelo 148 de Air Inter se estrelló en las montañas de los Vosgos, cerca de Estrasburgo, Francia, el 20 de enero de 1992, matando a 87 personas, la causa no fue la falta de comunicación máquina-humano, sino una interfaz de usuario confusa. Los pilotos ingresaron «33» en un teclado porque querían descender en un ángulo de 3,3 grados, pero el piloto automático interpretó esto como 3300 pies por minuto porque estaba en un modo diferente y la pantalla era demasiado pequeña para mostrarlo y permitir que los pilotos se diesen cuenta de su error.
La tecnología de la información ha hecho maravillas en la generación y distribución de energía, con algoritmos sofisticados que equilibran la producción y el consumo en las redes eléctricas del mundo y asimismo sistemas de control sofisticados que mantienen las plantas de energía funcionando de manera segura y eficiente. Es probable que los avances futuros de la IA hagan que la “red inteligente” sea aún más inteligente, para adaptarse de manera óptima a los cambios en la oferta y la demanda, incluso hasta el nivel de los paneles solares individuales en los tejados y los sistemas de baterías domésticas. Pero el jueves 14 de agosto de 2003 se produjo un apagón de luz para unos 55 millones de personas en Estados Unidos y Canadá, muchas de las cuales permanecieron impotentes durante días. También en este caso se determinó que la causa principal fueron fallas en las comunicaciones máquina-humano, ya que un error de software impidió que el sistema de alarma en una sala de control de Ohio alertara a los operadores sobre la necesidad de redistribuir la energía antes de un problema de líneas de transmisión sobrecargadas que golpeaban el follaje no podado. La fusión nuclear parcial en un reactor en Three Mile Island en Pensilvania el 28 de marzo de 1979 generó alrededor de mil millones de dólares en costos de limpieza y una importante reacción contra la energía nuclear. El informe final del accidente identificó múltiples factores, incluida la confusión causada por una interfaz de usuario deficiente. En particular, la luz de advertencia que los operadores pensaban que indicaba si una válvula crítica para la seguridad estaba abierta o cerrada simplemente indicaba si se había enviado una señal para cerrar la válvula, por lo que los operadores no se dieron cuenta de que la válvula se había quedado atascada y abierta. Estos accidentes de energía y transporte nos enseñan que a medida que ponemos a la IA a cargo de cada vez más sistemas físicos, debemos realizar serios esfuerzos de investigación no solo para hacer que las máquinas funcionen bien por sí solas, sino también para que las máquinas colaboren de manera efectiva con sus controladores humanos. A medida que la IA se vuelve más inteligente, esto implicará no sólo construir buenas interfaces de usuario para compartir información, sino también descubrir cómo asignar tareas de manera óptima dentro de los equipos humanos-computadoras; por ejemplo, identificar situaciones en las que se debe transferir el control y aplicar el juicio humano de manera eficiente a las decisiones de mayor valor en lugar de distraer a los controladores humanos con una avalancha de información sin importancia.
La IA también tiene un enorme potencial para mejorar la atención sanitaria, como ya he indicado en anteriores artículos. La digitalización de registros médicos ya ha permitido a médicos y pacientes tomar decisiones mejores y más rápidas, y obtener ayuda instantánea de expertos de todo el mundo en el diagnóstico de imágenes digitales. De hecho, los mejores expertos para realizar ese diagnóstico pronto podrían ser los propios sistemas de inteligencia artificial, dado el rápido progreso en la visión por computadora y el aprendizaje profundo. Por ejemplo, un estudio holandés de 2015 demostró que el diagnóstico por computadora del cáncer de próstata mediante imágenes por resonancia magnética (fMRI) era tan bueno como el de los radiólogos humanos, y un estudio de Stanford de 2016 mostró que la IA podía diagnosticar el cáncer de pulmón usando imágenes de microscopio incluso mejor que un médico humano. Si el aprendizaje automático puede ayudar a revelar las relaciones entre genes, enfermedades y respuestas al tratamiento, podría revolucionar la medicina personalizada, hacer que los animales de granja sean más saludables y permitir cultivos más resistentes a virus. Además, los robots tienen el potencial de convertirse en cirujanos más precisos y fiables que los humanos, incluso sin utilizar IA avanzada. En los últimos años se ha realizado con éxito una amplia variedad de cirugías robóticas, que a menudo permiten precisión, miniaturización e incisiones más pequeñas que conducen a una menor pérdida de sangre, menos dolor y un tiempo de curación más corto. Lamentablemente, también se han aprendido dolorosas lecciones sobre la importancia de un software robusto en la industria de la salud. Por ejemplo, la máquina de radioterapia Therac-25, construida en Canadá, fue diseñada para tratar a pacientes con cáncer en dos modos diferentes: con un haz de electrones de baja potencia o con un haz de rayos X de megavoltios de alta potencia que se mantenía en el objetivo con un escudo especial protector. Desafortunadamente, un software defectuoso no verificado ocasionalmente hacía que los técnicos entregaran el haz de megavoltios cuando pensaban que estaban administrando el haz de baja potencia, y sin el escudo, lo que terminó cobrándose la vida de varios pacientes. Muchos más pacientes murieron por sobredosis de radiación en el Instituto Oncológico Nacional de Panamá, donde el equipo de radioterapia que utilizaba cobalto-60 radiactivo fue programado para tiempos de exposición excesivos en 2000 y 2001 debido a una interfaz de usuario confusa que no había sido validada adecuadamente. Según un informe, 31 accidentes de cirugía robótica estuvieron relacionados con 144 muertes y 1391 lesiones en los Estados Unidos entre 2000 y 2013, con problemas comunes que incluyen no solo problemas de hardware como arcos eléctricos y piezas de instrumentos quemadas o rotas que caen al suelo, sino también problemas de software como movimientos incontrolados y apagados espontáneos. La buena noticia es que el resto de los casi dos millones de cirugías robóticas cubiertas por el informe se realizaron sin problemas, y los robots parecen estar haciendo que la cirugía sea más segura, en lugar de menos. Según un estudio del gobierno estadounidense, la mala atención hospitalaria contribuye a más de 100.000 muertes al año sólo en Estados Unidos, por lo que el imperativo moral de desarrollar una mejor IA para la medicina es posiblemente incluso más fuerte que el de los vehículos autónomos.
Podría decirse que la industria de las comunicaciones es aquella en la que las computadoras han tenido el mayor impacto hasta ahora. Tras la introducción de las centralitas telefónicas informatizadas en la década de 1950, Internet en la década de 1960 y la World Wide Web en 1989, miles de millones de personas se conectan ahora a Internet para comunicarse, comprar, leer noticias, ver películas o jugar, acostumbrados a tener la mejor información del mundo a solo un clic de distancia y, a menudo, de forma gratuita, aunque a base de ceder nuestros datos. El emergente Internet de las cosas promete una mayor eficiencia, precisión, conveniencia y beneficios económicos al poner en línea todo, desde lámparas, termostatos y congeladores hasta transpondedores de biochips en animales de granja. Estos espectaculares éxitos en conectar el mundo han planteado a los científicos informáticos un cuarto desafío, ya que deben mejorar no sólo la verificación, la validación y el control, sino también la seguridad contra software malicioso (“malware”) y los hackeos. Mientras que todos los problemas antes mencionados resultaron de errores involuntarios, la seguridad está dirigida a una mala conducta deliberada. El primer malware que llamó mucho la atención de los medios fue el llamado gusano Morris, lanzado el 2 de noviembre de 1988, que explotaba errores en el sistema operativo UNIX. Supuestamente fue un intento equivocado de contar cuántas computadoras estaban en línea, y aunque infectó y bloqueó aproximadamente el 10% de las 60.000 computadoras que constituían Internet en aquel entonces, esto no impidió que su creador, Robert Morris, eventualmente obtuviera ser profesor titular de informática en el MIT. Otros programas maliciosos explotan vulnerabilidades no del software sino de las personas. El 5 de mayo de 2000 la gente recibió correos electrónicos con el asunto “ILOVEYOU” de conocidos y colegas, y de aquellos usuarios de Microsoft Windows que hicieron clic en un archivo adjunto se lanzó un script que dañó su computadora y reenvió el correo electrónico a todas las personas en su libreta de direcciones. Creado por dos jóvenes programadores en Filipinas, este virus infectó aproximadamente el 10% de Internet, tal como lo había hecho el virus Morris, pero debido a que Internet era mucho más grande para entonces, se convirtió en una de las mayores infecciones de todos los tiempos, afectando más de 50 millones de computadoras y causando daños por más de 5 mil millones de dólares. Actualmente Internet sigue infestada de innumerables tipos de malware infeccioso, que los expertos en seguridad clasifican en gusanos, troyanos, virus y otras categorías, y el daño que causan va desde mostrar mensajes de broma inofensivos hasta eliminar archivos, robar información personal, espiar y secuestrar la computadora para enviar spam.
Mientras que el malware, que es cualquier tipo de software que realiza acciones dañinas en un sistema informático de forma intencionada y sin el conocimiento del usuario, se dirige a cualquier computadora, los piratas informáticos atacan objetivos específicos de interés. Además, los botines parecen volverse cada vez más espectaculares. Como ejemplo tenemos los piratas informáticos que robaron 130 millones de números de tarjetas de crédito y otra información de cuentas de Heartland Payment Systems en 2008, y accedieron a más de mil millones de cuentas de correo electrónico de Yahoo! en 2013. Un hackeo en 2014 a la Oficina de Gestión de Personal del gobierno de Estados Unidos accedió a registros de personal e información de solicitudes de empleo de más de 21 millones de personas, supuestamente incluyendo empleados con altas autorizaciones de seguridad, así como huellas dactilares de agentes encubiertos. Por ello necesitamos que los futuros sistemas de IA no sean hackeables antes de ponerlos a cargo de infraestructuras críticas o sistemas de armas, por lo que el creciente papel de la IA en la sociedad sigue aumentando los riesgos para la seguridad informática. Mientras que algunos hackers explotan vulnerabilidades en software recién lanzado, otros permiten inicios de sesión no autorizados en computadoras remotas aprovechando errores simples que permanecieron desapercibidos durante un tiempo demasiado largo. Pero se supone que las herramientas de IA para una mejor verificación y validación también mejorarán la seguridad. Desafortunadamente, también se pueden utilizar mejores sistemas de inteligencia artificial para encontrar nuevas vulnerabilidades y realizar ataques más sofisticados. Imaginemos, por ejemplo, que un día recibimos un correo electrónico inusualmente personalizado que intenta persuadirnos para que divulguemos información personal. Se envía desde la cuenta de un familiar mediante una IA que la ha pirateado y se hace pasar por este familiar, imitando su estilo de escritura basándose en un análisis de sus otros correos electrónicos enviados e incluyendo mucha información personal obtenida de otras fuentes. Asimismo, ¿qué pasa si el correo electrónico parece provenir de la compañía de nuestra tarjeta de crédito y es seguido por una llamada telefónica de una voz humana amigable que no se puede distinguir si fue generada por IA? En la actual carrera por la seguridad informática entre ataque y defensa, hasta ahora hay pocos indicios de que la defensa esté ganando.
Como lo expresa el historiador y escritor israelí, profesor en la Universidad Hebrea de Jerusalén, Yuval Noah Harari, en su libro Homo Deus: “Si algún científico quiere argumentar que las experiencias subjetivas son irrelevantes, su desafío es explicar por qué la tortura o la violación están mal sin hacer referencia a ninguna experiencia subjetiva”. Sin esa referencia, todo es sólo un montón de partículas elementales que se mueven según las leyes de la física, Entonces, ¿qué es exactamente lo que no entendemos acerca de la conciencia? Pocos han pensado más en esta cuestión que David Chalmers, un famoso filósofo australiano, que ha enfatizado que en realidad existen algunos misterios con respecto a la mente. Tenemos el misterio de cómo el cerebro procesa la información, lo que David Chalmers llama “problemas fáciles”, con respecto a cómo atiende, interpreta y responde el cerebro a los estímulos sensoriales. Aunque estas cuestiones son en realidad extremadamente difíciles, no son misterios de la conciencia sino misterios de la inteligencia, ya que preguntan cómo el cerebro recuerda, calcula y aprende. Además, algunos investigadores de IA han comenzado a lograr importantes avances en la resolución de muchos de estos “problemas fáciles” con las máquinas, desde jugar al Go hasta conducir automóviles, analizar imágenes y procesar el lenguaje natural. Luego está el misterio de por qué se tiene una experiencia subjetiva, que David Chalmers llama el “problema difícil”. Cuando conduces, experimentas colores, sonidos, emociones y una sensación de ti mismo. Pero, ¿por qué estás experimentando algo? ¿En este caso un coche autónomo experimenta algo? Si estás compitiendo contra un automóvil autónomo, éste está ingresando información de los sensores, procesándola y emitiendo comandos para el motor y otros dispositivos para la conducción. Pero experimentar subjetivamente la conducción es algo lógicamente separado ¿Es opcional y, de ser así, qué lo causa? Lo que David Chalmers llama los “problemas fáciles” se pueden plantear sin mencionar la experiencia subjetiva. El hecho aparente de que algunos, pero no todos, los sistemas físicos sean conscientes plantea cuestiones distintas. Si tenemos una teoría para responder a la pregunta que define el “problema difícil”, entonces podemos probarla experimentalmente. Si funciona, entonces podremos aprovecharlo para abordar las preguntas más difíciles mencionadas anteriormente.
Lo positivo bajo esta perspectiva de la física es que transforma el difícil problema con el que nosotros, como humanos, hemos luchado durante milenios, en una versión más enfocada que es más fácil de abordar con los métodos de la ciencia. En lugar de comenzar con el difícil problema de por qué una disposición de partículas puede parecer consciente, comencemos con el hecho de que algunas disposiciones de partículas sí se sienten conscientes mientras que otras no. Pero, ¿qué propiedades físicas distinguen los sistemas conscientes de los inconscientes? Si podemos responder a eso, entonces podremos descubrir qué sistemas de IA son conscientes. Por otro lado, ¿por qué algo es consciente? En otras palabras, ¿existe alguna explicación profunda y no descubierta de por qué los grupos de materia pueden ser conscientes, o se trata simplemente de un hecho inexplicable sobre la forma en que funciona el mundo? Cuando la gente opina que la investigación de la conciencia es una pérdida de tiempo, ya que es “anticientífica”, debemos preguntarnos si esto es realmente cierto. Pero en la ciencia se trata de contrastar teorías con observaciones. Conectemos un cerebro a un dispositivo que mida parte del procesamiento de información en diferentes partes del cerebro e introduzcamos esta información en un programa de computadora que use la teoría de la conciencia para predecir qué partes de esa información son conscientes y presente sus predicciones en tiempo real en una pantalla. Piensas en tu pareja y el ordenador te informa que hay información en tu cerebro sobre tu pareja pero que no eres consciente de ello. Alguien podría criticar esta conclusión y decir que no tiene evidencia de aquello de lo que eres consciente, o incluso de que no eres consciente en absoluto. Pero esto no significa que la teoría de la conciencia no sea científica porque pueden comprobar si predice correctamente sus propias experiencias conscientes.
Supongamos que una computadora mide la información que ella procesa y predice de qué partes de ella es consciente según una teoría de la conciencia. Puedes probar científicamente esta teoría comprobando si sus predicciones son correctas y coinciden con tu experiencia subjetiva. Las teorías científicas más populares de hoy tienden a estar en algún punto intermedio, dando respuestas comprobables a algunas pero no a todas nuestras preguntas. En resumen, cualquier teoría que prediga qué sistemas físicos son conscientes, un tema bastante difícil, es científica siempre que pueda predecir cuáles de sus procesos cerebrales son conscientes. ¿Qué significaría que una teoría prediga cómo se experimenta subjetivamente el color rojo? Y si una teoría pretende explicar por qué existe la conciencia, ¿cómo se puede probar experimentalmente? El hecho de que estas preguntas sean difíciles no significa que debamos evitarlas. Pero cuando nos enfrentamos a varias preguntas relacionadas sin respuesta, es prudente abordar primero la más fácil. Si bien el progreso teórico ha permitido hacer cada vez más predicciones científicas, el progreso tecnológico ha permitido realizar cada vez más pruebas experimentales. Casi todo lo que ahora estudiamos con telescopios, microscopios o colisionadores de partículas alguna vez estuvo más allá de la ciencia. Pero la conciencia es como un elefante en una chatarrería. No sólo sabes que eres consciente sino que es todo lo que sabes con total certeza. En estos momentos se está procesando mucha información en nuestras cabezas. ¿Cuál de ella es consciente y cuál no? Antes de explorar las teorías de la conciencia y lo que predicen, veamos lo que los experimentos nos han enseñado hasta ahora, desde observaciones tradicionales hasta mediciones cerebrales con la última tecnología. Supongamos que muestro un retrato de Albert Einstein y pregunto que digan el nombre del sujeto. Esto también es una tarea computacional, ya que nuestro cerebro está evaluando una función cuya entrada es información de nuestros ojos sobre un gran número de colores de píxeles y cuya salida es información a los músculos que controlan la boca y las cuerdas vocales. Los informáticos llaman a esta tarea «clasificación de imágenes» seguida de «síntesis de voz«. Aunque este cálculo es mucho más complicado que la tarea de multiplicar, podemos hacerlo mucho más rápido, aparentemente sin esfuerzo y sin ser conscientes de los detalles de cómo lo hacemos. Nuestra experiencia subjetiva consiste simplemente en mirar la imagen, experimentar una sensación de reconocimiento y decir «Einstein«.
Los psicólogos y neurólogos saben desde hace mucho tiempo que inconscientemente también se pueden realizar una amplia gama de otras tareas y comportamientos, desde reflejos de parpadeo hasta respirar, alcanzar, agarrar y mantener el equilibrio. Por lo general, eres consciente de lo que hiciste, pero no de cómo lo hiciste. Por otro lado, las conductas que involucran situaciones desconocidas, autocontrol, reglas lógicas complicadas, razonamiento abstracto o manipulación del lenguaje tienden a ser conscientes. También se sabe que es posible convertir muchas rutinas conscientes en inconscientes mediante una práctica exhaustiva como, por ejemplo, caminar, nadar, andar en bicicleta o tocar el piano. De hecho, es bien sabido que los expertos ejercen mejor sus especialidades cuando están conscientes sólo de lo que sucede en unos niveles superiores e inconscientes de los detalles de bajo nivel. De hecho, el procesamiento inconsciente de la información parece no sólo ser posible, sino también ser más la regla que la excepción. La evidencia sugiere que de los aproximadamente 10,7 bits de información que ingresan a nuestro cerebro cada segundo desde nuestros órganos sensoriales, sólo podemos ser conscientes de una pequeña fracción. Esto sugiere que el procesamiento de información del que somos conscientes es simplemente la punta del iceberg. En conjunto, estos datos han llevado a algunos investigadores a sugerir que el procesamiento consciente de la información debería considerarse como el director ejecutivo de nuestra mente, ocupándose sólo de las decisiones más importantes que requieren un análisis complejo de datos por parte de todo el cerebro. Entonces, ¿dónde está la conciencia? Experimentos y análisis inteligentes han sugerido que la conciencia se limita no sólo a ciertos comportamientos, sino también a ciertas partes del cerebro. Muchas de las primeras pistas provinieron de pacientes con lesiones cerebrales, tales como daño cerebral localizado causado por accidentes, accidentes cerebrovasculares, tumores o infecciones. Pero esto a menudo no fue concluyente. Por ejemplo, el hecho de que las lesiones en la parte posterior del cerebro puedan causar ceguera, ¿significa que éste es el lugar de la conciencia visual, o simplemente significa que la información visual pasa por allí en ruta hacia donde más tarde se volverá consciente?
Aunque las lesiones y las intervenciones médicas aún no han identificado la ubicación de las experiencias conscientes, han ayudado a reducir las opciones. Por ejemplo, algunos amputados experimentan un dolor en un miembro fantasma que sienten como si lo tuviesen en su mano inexistente. Por el contrario, los pacientes con ciertas lesiones cerebrales pierden información de la mitad de su campo visual, pero ni siquiera son conscientes de esta falta de información. Es como si la conciencia de aproximadamente la mitad de su mundo hubiera desaparecido. El pionero neurocirujano estadounidense-canadiense Wilder Penfield descubrió en la década de 1930 que sus pacientes de neurocirugía informaban que sentían como si les tocasen diferentes partes del cuerpo cuando se estimulaban eléctricamente áreas cerebrales específicas. También descubrió que movían involuntariamente diferentes partes de su cuerpo cuando estimulaba áreas del cerebro en lo que ahora se llama corteza motora. ¿Significa eso que el procesamiento de información en estas áreas del cerebro corresponde a la conciencia del tacto y el movimiento? Afortunadamente, la tecnología moderna nos está dando pistas mucho más detalladas. Aunque todavía no estamos ni cerca de poder medir cada activación de los aproximadamente cien mil millones de neuronas, la tecnología de lectura del cerebro avanza rápidamente, involucrando técnicas con nombres como fMRI, EEG, MEG, ECoG, ePhys y voltaje fluorescente. fMRI, que significa imagen por resonancia magnética funcional, mide las propiedades magnéticas de los núcleos de hidrógeno para crear un mapa tridimensional de su cerebro aproximadamente cada segundo, con una resolución milimétrica. EEG (electroencefalografía) y MEG (magnetoencefalografía) miden el campo eléctrico y magnético desde fuera de su cabeza para mapear el cerebro miles de veces por segundo, pero con mala resolución, por lo que son incapaces de distinguir características de menos de unos pocos centímetros. Si no te importa que te abran tu cráneo, tienes opciones adicionales como ECoG (electrocorticografía), que implica colocar cien cables en la superficie del cerebro, mientras que ePhys (electrofisiología) implica insertar microcables, que a veces son más delgados que un cabello humano, en lo profundo del cerebro para registrar voltajes de hasta mil ubicaciones simultáneas. Muchos pacientes epilépticos pasan días en el hospital mientras se utiliza la ECoG para determinar qué parte de su cerebro está provocando convulsiones y aceptan amablemente que los neurocientíficos realicen mientras tanto experimentos de conciencia en ellos. Finalmente, la detección de voltaje fluorescente implica la manipulación genética de neuronas para que emitan destellos de luz cuando se disparan, lo que permite medir su actividad con un microscopio. De todas las técnicas, ésta última tiene el potencial de monitorear rápidamente la mayor cantidad de neuronas, al menos en animales con cerebros transparentes, como el gusano C. elegans con sus 302 neuronas y las larvas del pez cebra con sus aproximadamente 100.000 neuronas.
La corteza visual, auditiva, somatosensorial y motora están involucradas con la visión, la audición, el sentido del tacto y la activación del movimiento, respectivamente, pero eso no prueba que sea allí donde se produce la conciencia de la visión, la audición, el tacto y el movimiento. De hecho, investigaciones recientes sugieren que la corteza visual primaria actúa completamente de modo inconsciente, junto con el cerebelo y el tronco del encéfalo. Francis Crick, físico, biólogo molecular y neurobiólogo británico, descubridor del modelo de la doble hélice del ADN, y Christof Koch, científico alemán-estadounidense con especialidad en neurociencia, conocido por su trabajo acerca de las bases neuronales de la conciencia, en 1990 escribieron un artículo fundamental sobre lo que llamaron “correlatos neuronales de la conciencia” (NCC), preguntando qué procesos cerebrales específicos correspondían a experiencias conscientes. Durante miles de años, los pensadores habían tenido acceso al procesamiento de información en sus cerebros sólo a través de su experiencia y comportamiento subjetivos. Crick y Koch señalaron que la tecnología de lectura del cerebro estaba proporcionando un acceso independiente a esta información, permitiendo el estudio científico de qué procesamiento de información correspondía a qué experiencia consciente. Efectivamente, las mediciones impulsadas por la tecnología han convertido la búsqueda de los “correlatos neuronales de la conciencia” (NCC) en una parte bastante importante de la neurociencia. Para tener una idea del trabajo de los NCC, primero preguntémonos si nuestra retina está consciente o si es simplemente un sistema zombie que registra información visual, la procesa y la envía a un sistema posterior en nuestro cerebro donde ocurre nuestra experiencia visual subjetiva. Pero se ha demostrado que nuestra experiencia visual no puede residir completamente en nuestra retina. El golpe mortal a la hipótesis de la retina consciente proviene de una técnica llamada “supresión continua de destellos” iniciada por Christof Koch, Stanislas Dehaene y sus colaboradores, en que se ha descubierto que si haces que uno de nuestros ojos observe una secuencia complicada de patrones que cambian rápidamente, entonces esto distraerá nuestro sistema visual hasta tal punto que no se dará cuenta de una imagen fija que se muestre al otro ojo. En resumen, puedes tener una imagen visual en tu retina sin experimentarla, y puedes (mientras sueñas) experimentar una imagen sin que esté en tu retina. Esto demuestra que las dos retinas no albergan nuestra conciencia visual más que una cámara de vídeo, a pesar de que realizan cálculos complicados que involucran a más de cien millones de neuronas.
Los investigadores de “correlatos neuronales de la conciencia” (NCC) también utilizan la supresión continua de destellos, ilusiones visuales/auditivas inestables y otros trucos para identificar cuáles de las regiones de un cerebro son responsables de cada una de sus experiencias conscientes. La estrategia básica es comparar lo que hacen las neuronas en dos situaciones en las que esencialmente todo (incluido el estímulo sensorial) es igual, excepto su experiencia consciente. Las partes del cerebro que se miden para comportarse de manera diferente se identifican como NCC. Dichas investigaciones del NCC han demostrado que nada de la conciencia reside en su intestino, a pesar de que esa es la ubicación de nuestro sistema nervioso entérico con su friolera de 500 millones de neuronas que calculan cómo digerir de manera óptima los alimentos; En cambio, sentimientos como el hambre y las náuseas se producen en el cerebro. De manera similar, nada de nuestra conciencia parece residir en el tronco del encéfalo, la parte inferior del cerebro que se conecta a la médula espinal y controla la respiración, la frecuencia cardíaca y la presión arterial. Lo más sorprendente es que nuestra conciencia no parece extenderse al cerebelo, que contiene alrededor de dos tercios de todas nuestras neuronas. Los pacientes cuyo cerebelo está destruido experimentan dificultad para hablar y movimientos torpes que recuerdan a los de un borracho, pero permanecen completamente conscientes. La cuestión de qué partes del cerebro son responsables de la conciencia sigue abierta y controvertida. Algunas investigaciones recientes del NCC sugieren que nuestra conciencia reside principalmente en una «zona caliente» que involucra el tálamo, cerca de la mitad de su cerebro, y la parte posterior de la corteza, la capa externa del cerebro que consiste en una lámina arrugada de seis capas que, si estuviera aplanado, tendría el área de una servilleta grande. Esta misma investigación sugiere de manera controvertida que la corteza visual primaria en la parte posterior de la cabeza es una excepción a esto, ya que es tan inconsciente como los globos oculares y las retinas.
Pero, ¿cuándo surge la conciencia? Hasta ahora, hemos analizado pistas experimentales sobre qué tipos de procesamiento de información son conscientes y dónde se produce la conciencia. Pero, ¿cuándo ocurre? Los investigadores de los “correlatos neuronales de la conciencia” (NCC) han medido cuidadosamente cuánto tiempo, y el resumen de Christof Koch es que se tarda aproximadamente un cuarto de segundo desde que la luz entra en el ojo procedente de un objeto complejo hasta que percibes conscientemente verlo tal como es. Esto quiere decir que si vas conduciendo por una carretera a cincuenta y cinco kilómetros por hora y de repente ves un ciervo a unos metros de ti, ya es demasiado tarde para que puedas hacer algo al respecto, porque ya lo has atropellado. En resumen, la conciencia vive en el pasado. Christof Koch calcula que está un cuarto de segundo por detrás del mundo exterior. Curiosamente, a menudo puedes reaccionar ante las cosas más rápido de que puedas volverte consciente de ellas, lo que demuestra que el procesamiento de la información a cargo de tus reacciones más rápidas debe ser inconsciente. Por ejemplo, si un objeto extraño se acerca a tu ojo, el reflejo de parpadeo puede cerrar el párpado en apenas una décima de segundo. Es como si uno de nuestros sistemas cerebrales recibiera información del sistema visual, calculara que nuestro ojo está en peligro de ser golpeado, enviara a los músculos del ojo instrucciones para parpadear y simultáneamente enviara información a la parte consciente de nuestro cerebro. Para cuando esta información haya sido leída e incluida en mi experiencia consciente, el parpadeo ya habrá ocurrido. De hecho, el sistema que lee esa información es continuamente bombardeado con mensajes de todo el cuerpo, algunos más retrasados que otros. Las señales nerviosas tardan más en llegar al cerebro desde los dedos que desde la cara debido a la distancia, y se necesita más tiempo para analizar imágenes que sonidos porque es más complicado, razón por la cual las carreras olímpicas comienzan con un disparo en lugar de con una señal visual. Sin embargo, si te tocas la nariz, experimentas conscientemente la sensación en la nariz y en la punta de los dedos como sensaciones simultáneas, y si aplaudes, ves, oyes y sientes el aplauso exactamente al mismo tiempo. Esto significa que mi experiencia plenamente consciente de un evento no se crea hasta que los últimos informes lentos han llegado y se han analizado.
Una serie de experimentos de los “correlatos neuronales de la conciencia” (NCC) iniciados por el fisiólogo Benjamin Libet han demostrado que el tipo de acciones que puedes realizar inconscientemente no se limitan a respuestas rápidas como parpadeos, sino que también incluyen ciertas decisiones que podrías atribuir al libre albedrío. Las mediciones cerebrales a veces pueden predecir tu decisión antes de que seas consciente de haberla tomado. Acabamos de ver que, aunque todavía no entendemos la conciencia, tenemos cantidades asombrosas de datos experimentales sobre varios aspectos de ella. Pero todos estos datos provienen del cerebro. Entonces, ¿cómo pueden enseñarnos algo sobre la conciencia en las máquinas? Esto requiere una extrapolación teórica importante más allá de nuestro dominio experimental actual. Para apreciar por qué, comparemos las teorías de la conciencia con las teorías de la gravedad. Los científicos comenzaron a tomar en serio la teoría de la gravedad de Newton porque sacaron más provecho de ella ya que ecuaciones simples podían predecir con precisión el resultado de cada experimento de gravedad jamás realizado. Por lo tanto, también se tomaron en serio sus predicciones mucho más allá del dominio donde habían sido probadas, y estas audaces extrapolaciones resultaron funcionar incluso para los movimientos de galaxias en cúmulos de millones de años luz de diámetro. Sin embargo, las predicciones se equivocaron por un pequeño margen para el movimiento de Mercurio alrededor del Sol. Luego, los científicos comenzaron a tomar en serio la teoría mejorada de la gravedad de Einstein, la relatividad general, porque podría decirse que era incluso más elegante y económica, y predijo correctamente incluso aquello en lo que la teoría de Newton se equivocaba. En consecuencia, también tomaron en serio sus predicciones mucho más allá del dominio donde habían sido probadas para fenómenos tan exóticos como los agujeros negros, las ondas gravitacionales en el tejido mismo del espacio-tiempo y la expansión de nuestro Universo a partir de un origen ardiente y caliente, todos los cuales eran posteriormente confirmados mediante experimentos.
De manera análoga, si una teoría matemática de la conciencia pudiera predecir con éxito los resultados de todos los experimentos que realizamos en el cerebro, entonces comenzaríamos a tomar en serio no sólo la teoría en sí sino también sus predicciones para la conciencia más allá del cerebro como, por ejemplo, en las máquinas. Aunque algunas teorías de la conciencia se remontan a la antigüedad, la mayoría de las modernas se basan en la neuropsicología y la neurociencia, e intentan explicar y predecir la conciencia en términos de eventos neuronales que ocurren en el cerebro. Aunque estas teorías han hecho algunas predicciones exitosas para los correlatos neuronales de la conciencia, no pueden ni aspiran a hacer predicciones sobre la conciencia de las máquinas. Para dar el salto del cerebro a las máquinas necesitamos generalizar, pasando de los “correlatos neuronales de la conciencia” (NCC) a los “correlatos físicos de la conciencia” (PCC), definidos como los patrones de partículas en movimiento que son conscientes. Porque si una teoría puede predecir correctamente qué es consciente y qué no, refiriéndose únicamente a componentes físicos como partículas elementales y campos de fuerza, entonces puede hacer predicciones no sólo para los cerebros, sino también para cualquier otra disposición de la materia, incluidos los futuros sistemas de inteligencia artificial. Adoptando una perspectiva física, ¿qué disposiciones de partículas son conscientes? Pero esto realmente plantea otra pregunta: ¿Cómo puede algo tan complejo como la conciencia estar hecho de algo tan simple como partículas? Tal vez sea porque es un fenómeno que tiene propiedades superiores a las de sus partículas. En física, a estos fenómenos se los llama «emergentes«. Los sólidos, los líquidos y los gases son todos fenómenos emergentes, ya que son más que la suma de sus partes, porque tienen propiedades que van más allá de las propiedades de sus partículas. Tienen propiedades de las que carecen sus partículas. Ahora bien, al igual que los sólidos, los líquidos y los gases, podemos considerar la conciencia como un fenómeno emergente, con propiedades que van más allá de las de sus partículas. Por ejemplo, entrar en un sueño profundo extingue la conciencia, simplemente reorganizando las partículas. De la misma manera, mi conciencia desaparecería si muriera congelado, lo que reorganizaría mis partículas. Cuando se juntan muchas partículas para formar cualquier cosa, desde agua hasta un cerebro, surgen nuevos fenómenos con propiedades observables. A los físicos les encanta estudiar estas propiedades emergentes, que a menudo pueden identificarse mediante un pequeño conjunto de números que se pueden medir. Por ejemplo, si una sustancia es tan viscosa que es rígida, la llamamos sólido; en caso contrario, la llamamos fluido. Y si un fluido no es comprimible, lo llamamos líquido; en caso contrario, lo llamamos gas o plasma, dependiendo de qué tan bien conduzca la electricidad.
Entonces, ¿podría haber cantidades que cuantifiquen la conciencia? El neurocientífico italiano Giulio Tononi ha propuesto una de esas cantidades, a la que llama “información integrada”, que básicamente mide cuánto saben las diferentes partes de un sistema sobre ellas. Giulio Tononi había desarrollado la teoría de la conciencia matemáticamente más precisa hasta la fecha, la teoría de la información integrada. Todo indica que la conciencia es la forma en que se siente la información cuando se procesa de ciertas maneras complejas. La teoría de la información integrada está de acuerdo con esto y crea una definición precisa, en que el procesamiento de la información debe estar integrado. El argumento de Giulio Tononi es que el sistema consciente necesita integrarse en un todo unificado, porque si constara de dos partes independientes entonces se sentirían como dos entidades conscientes separadas en lugar de una. En otras palabras, si una parte consciente de un cerebro o de una computadora no puede comunicarse con el resto, entonces el resto no puede ser parte de su experiencia subjetiva. Giulio Tononi y sus colaboradores han medido una versión simplificada utilizando EEG para medir la respuesta del cerebro a la estimulación magnética. Su “detector de conciencia” determinó que los pacientes estaban conscientes cuando estaban despiertos o soñando, pero inconscientes cuando estaban anestesiados o en sueño profundo. Incluso descubrió la conciencia en dos pacientes que padecían el síndrome de «encerramiento», en que no podían moverse ni comunicarse de forma normal. Así que esto está surgiendo como una tecnología prometedora para que los médicos en el futuro puedan determinar si ciertos pacientes están conscientes o no. Entonces, ¿cómo podemos situar la teoría de la información integrada y otras teorías de la conciencia basadas en la información sobre una base física sólida? Podemos hacerlo basándonos en sobre cómo los grupos de materia pueden tener propiedades emergentes relacionadas con la información. Para que algo sea utilizable como dispositivo de memoria que pueda almacenar información necesita tener estados de larga duración. También tenemos que, para ser una sustancia que puede realizar cálculos, se requiere además una dinámica compleja. Finalmente, una red neuronal, por ejemplo, es un poderoso sustrato para el aprendizaje porque, simplemente obedeciendo las leyes de la física, puede reorganizarse para mejorar cada vez más la implementación de los cálculos deseados. Ahora nos hacemos una pregunta adicional: ¿Qué hace que una masa de materia pueda tener una experiencia subjetiva? En otras palabras, ¿bajo qué condiciones una masa de materia podrá recordar, calcular, aprender y tener experiencia?
Pero, ¿cómo puede la conciencia parecer ser tan no física si en realidad es un fenómeno físico? ¿Cómo puede sentirse tan independiente de su sustrato físico? Todo indica que es porque es bastante independiente de su sustrato físico. Encontramos muchos ejemplos de patrones independientes del sustrato, incluidas ondas, recuerdos y cálculos. Por ejemplo, una mente simulada futura o un personaje de un juego de computadora no tendrían manera de saber en qué sistema operativo se ejecutaban, porque serían independientes del sustrato. Tampoco podría saber si las puertas lógicas de su computadora estaban hechas de transistores, circuitos ópticos u otro hardware. O cuáles son las leyes fundamentales de la física, ya que podrían ser cualquier cosa siempre que permita la construcción de computadoras universales. En resumen, todo indica que la conciencia es un fenómeno físico que se siente no físico porque es como ondas y cálculos, ya que tiene propiedades independientes de su sustrato físico específico. Esto se deriva lógicamente de la idea de la conciencia como información. Ello lleva a una idea radical de que si la conciencia es la forma en que se siente la información cuando se procesa de cierta manera, entonces debe ser independiente del sustrato. Lo único que importa es la estructura del procesamiento de la información, no la estructura de la materia que realiza el procesamiento de la información. En otras palabras, la conciencia es doblemente independiente del sustrato. La física describe patrones en el espacio-tiempo que corresponden a partículas que se mueven. Si la disposición de las partículas obedece a ciertos principios, dan lugar a fenómenos emergentes que son bastante independientes del sustrato de la partícula y que tienen una sensación totalmente diferente. Un gran ejemplo de esto es el procesamiento de información. Pero ahora hemos llevado esta idea a otro nivel. Si el procesamiento de la información obedece a ciertos principios, puede dar lugar a un fenómeno emergente de nivel superior que llamamos conciencia. Esto coloca la experiencia consciente no en uno sino en dos niveles por encima de la materia, por lo que no es de extrañar que la mente se sienta no física.
Pero todo esto plantea una pregunta: ¿Cuáles son estos principios que el procesamiento de la información debe obedecer para ser consciente? Si la conciencia es la forma en que se siente la información cuando se procesa de cierta manera, esto significa que para ser consciente un sistema debe poder almacenar y procesar información. Tengamos en cuenta que el recuerdo no tiene por qué durar mucho. Un sistema consciente también necesita ser bastante independiente del resto del mundo, porque de lo contrario no sentiría subjetivamente que tiene existencia independiente. Finalmente, el sistema consciente necesita integrarse en un todo unificado, como argumentó Giulio Tononi, porque si constara de dos partes independientes, entonces se sentirían como dos entidades conscientes separadas, en lugar de una. Además, existen controversias recientes en la vanguardia de la investigación de la conciencia. Una afirmación controvertida es que las arquitecturas informáticas actuales no pueden ser conscientes, porque la forma en que se conectan sus puertas lógicas proporciona una integración muy baja. En otras palabras, un futuro robot de alta potencia que simula con precisión cada una de tus neuronas y sinapsis, incluso si este clon digital mira, habla y actúa de manera indistinguible de ti, será un zombi inconsciente sin experiencia subjetiva, lo cual sería decepcionante si buscásemos la inmortalidad subjetiva a través de un robot. Esta afirmación ha sido cuestionada tanto por David Chalmers como por el profesor de inteligencia artificial Murray Shanahan al imaginar lo que sucedería si, en cambio, reemplazaras gradualmente los circuitos neuronales de tu cerebro por un hipotético hardware digital que los simulara perfectamente. Aunque su comportamiento no se vería afectado por el reemplazo ya que la simulación sería hipotéticamente perfecta, su experiencia cambiaría de consciente inicialmente a inconsciente al final. Pero, ¿cómo se sentiría a medida que se reemplazan más circuitos neuronales? Cuando las partes de tu cerebro responsables de tu experiencia consciente de la mitad superior de tu campo visual fueran reemplazadas, ¿notarías que de repente faltaba parte de tu paisaje visual, pero que misteriosamente sabías lo que había allí de todos modos? Esto sería profundamente preocupante, porque si puedes experimentar conscientemente cualquier diferencia, entonces también puedes contárselo a tus amigos cuando te lo pregunten; pero, por supuesto, tu comportamiento no puede cambiar. La única posibilidad lógica compatible con las suposiciones es que exactamente en el mismo momento en que cualquier cosa desaparece de tu conciencia, tu mente se altera misteriosamente para hacerte mentir y negar que tu experiencia cambió, o para olvidar que las cosas habían sido cambiadas.
Por otro lado, el profesor de inteligencia artificial Murray Shanahan admite que la misma crítica del reemplazo gradual del cerebro por componentes artificiales puede dirigirse a cualquier teoría que afirme que se puede actuar conscientemente sin ser consciente, por lo que uno podría verse tentado a concluir que actuar y ser consciente son lo mismo y, por lo tanto, lo único que importa es el comportamiento observable externamente. Pero entonces habrías caído en la trampa de predecir que estás inconsciente mientras sueñas, aunque sepas que no es así. Otra controversia de la teoría de la información integrada es si una entidad consciente puede estar formada por partes que son conscientes por separado. Por ejemplo, ¿puede la sociedad en su conjunto adquirir consciencia sin que sus habitantes la pierdan? ¿Puede un cerebro consciente tener partes que también sean conscientes por sí mismas? La predicción es un rotundo no, pero no todos los investigadores están convencidos. Por ejemplo, algunos pacientes con lesiones que reducen gravemente la comunicación entre las dos mitades de su cerebro experimentan el «síndrome de la mano ajena«, en el que su cerebro derecho obliga a su mano izquierda a hacer cosas que los pacientes afirman que no están haciendo ni entendiendo, a veces hasta el punto de que utilizan la otra mano para contener su mano “ajena”. ¿Cómo podemos estar tan seguros de que no hay dos conciencias separadas en su cabeza, una en el hemisferio derecho que es incapaz de hablar y otra en el hemisferio izquierdo que habla y afirma hablar por ambos? Imagínese utilizar la tecnología del futuro para construir un vínculo de comunicación directo entre dos cerebros humanos y aumentar gradualmente la capacidad de este vínculo hasta que la comunicación sea tan eficiente entre los cerebros como dentro de ellos. ¿Llegaría un momento en que las dos conciencias individuales desaparecieran repentinamente y fueran reemplazadas por una única unificada, o la transición sería gradual para que las conciencias individuales coexistieran de alguna forma incluso cuando una experiencia conjunta comenzara a surgir?
Otra controversia es si los experimentos subestiman el hecho de qué somos conscientes. Aunque sentimos que somos visualmente conscientes de grandes cantidades de información que involucra colores, formas, objetos y aparentemente todo lo que está frente a nosotros, los experimentos han demostrado que solo podemos recordar y reportar una fracción muy pequeña de todo esto. Algunos investigadores han tratado de resolver esta discrepancia preguntándose si a veces podemos tener “conciencia sin acceso”, es decir, experiencia subjetiva de cosas que son demasiado complejas para caber en nuestra memoria de trabajo para su uso posterior. Por ejemplo, cuando experimentas ceguera por falta de atención al estar demasiado distraído para notar un objeto a plena vista, esto no implica que no hayas tenido una experiencia visual consciente del mismo, simplemente que no estaba almacenado en tu memoria de trabajo. ¿Debería considerarse olvido en lugar de ceguera? Otros investigadores rechazan esta idea de que no se puede confiar en las personas acerca de lo que dicen haber experimentado y advierten sobre sus implicaciones. Murray Shanahan imagina un ensayo clínico en el que los pacientes informan de un alivio total del dolor gracias a un nuevo fármaco maravilloso, que, sin embargo, es rechazado por las autoridades sanitarias. Por otro lado, ha habido casos en los que pacientes que se despertaron accidentalmente durante la cirugía recibieron un medicamento para que olvidaran la terrible experiencia. ¿Deberíamos confiar en su informe posterior de que no experimentaron dolor? Después de referirnos a la conciencia en el ser humano, ahora veamos las implicaciones en la IA.
Si algún futuro sistema de IA llega a ser consciente, ¿qué experimentará subjetivamente? Ésta es la esencia del “problema aún más difícil” de la conciencia, y nos obliga a subir a un siguiente nivel de dificultad. Actualmente no sólo carecemos de una teoría que responda a esta pregunta, sino que ni siquiera estamos seguros de sí es lógicamente posible responderla por completo. Después de todo, ¿Cómo le explicarías a una persona ciega de nacimiento cómo es el color rojo? Afortunadamente nuestra actual incapacidad para dar una respuesta completa no nos impide dar respuestas parciales. Unos supuestos extraterrestres inteligentes que estudiasen el sistema sensorial humano probablemente inferirían que los colores se sienten asociados con cada punto en una superficie bidimensional, nuestro campo visual, mientras que los sonidos no se sienten tan localizados espacialmente y los dolores se sienten asociados con diferentes partes de nuestro cuerpo. Al descubrir que nuestras retinas tienen tres tipos de células cónicas sensibles a la luz, podrían inferir que experimentamos tres colores primarios y que todos los demás colores resultan de su combinación. Al medir cuánto tiempo tardan las neuronas en transmitir información a través del cerebro, podrían concluir que no experimentamos más de diez pensamientos o percepciones conscientes por segundo, y que cuando miramos películas en nuestro televisor a veinticuatro fotogramas por segundo, experimentamos esto no como una secuencia de imágenes fijas, sino como un movimiento continuado. Al medir qué tan rápido se libera la adrenalina en nuestro torrente sanguíneo y cuánto tiempo permanece antes de descomponerse, podrían predecir que sentimos estallidos de ira que comienzan en segundos y duran minutos. Aplicando argumentos similares basados en la física, podemos hacer algunas conjeturas fundamentadas sobre ciertos aspectos de cómo se puede sentir una conciencia artificial. En primer lugar, el espacio de posibles experiencias de IA es enorme en comparación con lo que los humanos podemos experimentar. Tenemos una clase de cualidades subjetivas de las experiencias individuales para cada uno de nuestros sentidos, pero las IA pueden tener muchos más tipos de sensores y representaciones internas de información, por lo que debemos evitar el peligro de suponer que ser una IA necesariamente se siente similar a ser una persona.
Una conciencia artificial del tamaño de un cerebro podría tener millones de veces más experiencias que nosotros por segundo, ya que las señales electromagnéticas viajan a la velocidad de la luz, millones de veces más rápido que las señales neuronales. Sin embargo, cuanto más grande es la IA, más lentos deben ser sus pensamientos globales para permitir que el tiempo de información fluya entre todas sus partes. Por lo tanto, esperaríamos que una IA del tamaño de la Tierra tuviera sólo alrededor de diez experiencias conscientes por segundo, como un ser humano, y una IA del tamaño de una galaxia podría tener sólo un pensamiento global cada 100.000 años aproximadamente, lo que implica no más de cien experiencias durante toda la historia de nuestro Universo hasta el momento. Esto daría a las grandes IA un incentivo aparentemente irresistible para delegar los cálculos en subsistemas más pequeños capaces de manejarlos y para acelerar las cosas, de forma muy parecida a como nuestra mente consciente ha delegado el reflejo del parpadeo a un subsistema pequeño, rápido e inconsciente. Aunque el procesamiento consciente de la información en nuestro cerebro parece ser simplemente la punta de un iceberg que de otro modo sería inconsciente, deberíamos esperar que la situación sea aún más extrema para las grandes IA futuras, ya que si tienen una sola conciencia entonces es probable que desconozcan casi todo el procesamiento de información que tiene lugar en su interior. Además, aunque las experiencias conscientes que disfrutasen pudiesen ser extremadamente complejas, también van a un ritmo muy lento en comparación con las rápidas actividades de sus partes más pequeñas. Esto realmente lleva a un punto crítico sobre si partes de una entidad consciente también pueden ser conscientes. Ello significa que si una futura IA astronómicamente grande fuese consciente, entonces casi todo su procesamiento de información sería inconsciente. Esto significaría que si una civilización compuesta de IA más pequeñas mejorase sus capacidades de comunicación hasta el punto de que emergiese una única mente colmena consciente, sus conciencias individuales, mucho más rápidas, se extinguirían repentinamente. Por otro lado, si la predicción es errónea, la mente colmena puede coexistir con la panoplia de mentes conscientes más pequeñas. De hecho, uno podría incluso imaginar una jerarquía anidada de conciencias en todos los niveles, desde el microscópico hasta el cósmico.
El procesamiento inconsciente de la información en nuestro cerebro humano parece vinculado a una forma de pensar automática, rápida y sin esfuerzo que los psicólogos llaman «Sistema 1«. Por ejemplo, nuestro Sistema 1 podría informar a nuestra conciencia que su análisis altamente complejo de datos de entrada visual ha determinado que su mejor amigo ha llegado, sin darle ninguna idea de cómo se llevó a cabo el cálculo. Si este vínculo entre sistemas y conciencia resulta válido, entonces será tentador generalizar esta terminología a las IA, denotando todas las tareas rutinarias rápidas delegadas a subunidades inconscientes como el Sistema 1 de la IA. El pensamiento global esforzado, lento y controlado de la IA sería, si fuera consciente, el Sistema 2 de la IA. Los humanos también tenemos experiencias conscientes que involucran el llamado «Sistema 0«, que es la percepción pasiva cruda que tiene lugar incluso cuando estamos sentados sin movernos ni pensar y simplemente observando el mundo que nos rodea. Los sistemas 0, 1 y 2 parecen progresivamente más complejos, por lo que llama la atención que sólo el del medio parezca inconsciente. La información sensorial bruta en el Sistema 0 se almacena en estructuras cerebrales en forma de rejilla con una integración muy alta, mientras que el Sistema 2 tiene una alta integración debido a los circuitos de retroalimentación, donde toda la información de la que eres consciente en este momento puede afectar tus estados cerebrales futuros. En resumen, si una teoría que resuelva el difícil problema de la conciencia puede algún día pasar una rigurosa batería de pruebas experimentales para que empecemos a tomar en serio sus predicciones, entonces también reducirá en gran medida las opciones para el problema aún más difícil de lo que será la conciencia futura que las IA puedan experimentar. Algunos aspectos de nuestra experiencia subjetiva se remontan claramente a nuestros orígenes evolutivos. Por ejemplo, nuestros deseos emocionales relacionados con la auto conservación (comer, beber, evitar que nos maten) y la reproducción. Esto significa que debería ser posible crear una IA que nunca experimente cualidades subjetivas de las experiencias individuales, como hambre, sed, miedo o deseo sexual. Si una IA altamente inteligente está programada para tener prácticamente cualquier objetivo suficientemente ambicioso, es probable que se esfuerce por auto conservarse para poder lograr ese objetivo. Sin embargo, si son parte de una sociedad de IA, es posible que carezcan de nuestro fuerte miedo humano a la muerte, ya que mientras hayan realizado copias de seguridad lo único que pueden perder son los recuerdos que han acumulado desde su última copia de seguridad, siempre y cuando estén seguros de que se utilizará el software de respaldo adecuado. Además, la capacidad de copiar fácilmente información y software entre distintas IA probablemente reduciría el fuerte sentido de individualidad que es tan característico de nuestra conciencia humana. De hecho habría menos distinción entre los conceptos de tú y yo si pudiéramos compartir y copiar fácilmente todos nuestros recuerdos y habilidades, por lo que un grupo de IA cercanas puede sentirse más como un solo organismo con una mente colmena.
Otra pregunta a hacernos es: ¿Sentiría una conciencia artificial que tiene libre albedrío? Tengamos en cuenta que los filósofos han pasado milenios discutiendo sobre si tenemos libre albedrío sin llegar a un consenso y sin siquiera sobre cómo definir la pregunta. Una posible respuesta podría ser simplemente: «Sí, cualquier persona que tome decisiones conscientes sentirá subjetivamente que tiene libre albedrío, sin importar si es biológico o artificial«. Las decisiones caen en un espectro entre dos extremos: 1. Sabes exactamente por qué tomaste esa decisión en particular. 2. No tienes idea de por qué tomaste esa decisión en particular, ya que te sientes como si hubieras elegido al azar. Las discusiones sobre el libre albedrío generalmente se centran en una lucha por reconciliar nuestro comportamiento de toma de decisiones orientado a objetivos con las leyes de la física. Sin embargo, lo que parece un comportamiento orientado a objetivos puede surgir de leyes físicas deterministas sin objetivos. Más específicamente, cuando un sistema, sea un cerebro o una IA, toma una decisión de tipo 1 calcula qué decidir utilizando algún algoritmo determinista, y la razón por la que parece que decidió es que, de hecho, lo decidió al calcular qué hacer. Además, como destacó el profesor de ingeniería mecánica y física en el Instituto Tecnológico de Massachusetts, Seth Lloyd, existe un famoso teorema de la informática que dice que para casi todos los cálculos no hay manera más rápida de determinar su resultado que ejecutarlos. Esto significa que normalmente te resulta imposible saber qué decidirás hacer en menos de un segundo, lo que ayuda a reforzar tu experiencia de tener libre albedrío. Por el contrario, cuando un sistema, sea un cerebro o una IA, toma una decisión de tipo 2, simplemente programa su mente para basar su decisión en la salida de algún subsistema que actúa como generador de números aleatorios. En los cerebros y las computadoras se generan fácilmente números aleatorios amplificando el ruido. Independientemente de en qué parte del espectro de las opciones 1 a 2 caiga una decisión, tanto la conciencia biológica como la artificial sienten que tienen libre albedrío, ya que sienten que son realmente ellos quienes deciden y no pueden predecir con certeza cuál será la decisión hasta que han terminado de pensarlo detenidamente.
Algunas personas encuentran que la causalidad hace que sus procesos de pensamiento carezcan de sentido y que los convierte en meras máquinas. Pero esa negatividad es absurda. En primer lugar, no hay nada «simple» en los cerebros humanos, que son los objetos físicos más asombrosamente sofisticados de nuestro Universo conocido. En segundo lugar, ¿no quieren que sean sus propios procesos de pensamiento (los cálculos realizados por sus cerebros) los que tomen sus decisiones? Su experiencia subjetiva del libre albedrío es simplemente cómo se sienten sus cálculos desde adentro, ya que no conocen el resultado de un cálculo hasta que lo han terminado. Eso es lo que significa decir que el cálculo es la decisión. ¿Cómo queremos que sea el futuro de la vida? Diversas culturas alrededor del mundo buscan un futuro repleto de experiencias positivas, pero surgen controversias fascinantemente espinosas cuando se busca consenso sobre lo que debería considerarse positivo y cómo hacer concesiones entre lo que es bueno para diferentes formas de vida. Pero no puede haber experiencias positivas si no hay ninguna experiencia, es decir, si no hay conciencia. En otras palabras, sin conciencia no puede haber felicidad, bondad, belleza, significado o propósito, sólo un desperdicio astronómico de espacio. Esto implica que cuando la gente pregunta sobre el significado de la vida como si fuera tarea de nuestro cosmos dar significado a nuestra existencia, están entendiendo al revés, ya que no es nuestro Universo el que da significado a los seres conscientes, sino seres conscientes dando sentido a nuestro Universo. Así que el primer objetivo en nuestra lista de deseos para el futuro debería ser retener y expandir la conciencia biológica y/o artificial en nuestro cosmos, en lugar de extinguirla. Si tenemos éxito en este esfuerzo, ¿cómo nos sentiremos los humanos al coexistir con máquinas cada vez más inteligentes? ¿Nos molesta el aparentemente inexorable ascenso de la inteligencia artificial? Antes vimos cómo debería ser relativamente fácil para la tecnología impulsada por la IA satisfacer nuestras necesidades básicas, siempre que exista la voluntad política para hacerlo. Sin embargo, tal vez nos preocupe que estar bien alimentado, vestido, alojado y entretenido no sea suficiente. Si se nos garantiza que la IA se encargará de todas nuestras necesidades y deseos prácticos, ¿podríamos terminar sintiendo que nuestras vidas carecen de significado y propósito, como los animales del zoológico bien cuidados?
Tradicionalmente los seres humanos hemos fundado nuestra autoestima en la idea de que somos las entidades más inteligentes del planeta y, por tanto, únicas y superiores. El auge de la IA nos obligará a ser más humildes. Pero tal vez eso sea algo que deberíamos hacer de todos modos. Después de todo aferrarnos a nociones arrogantes de superioridad sobre otros ha causado problemas terribles en el pasado y puede ser una idea que deba retirarse. De hecho, la excepción humana no sólo ha causado dolor en el pasado, sino que también parece innecesario para el florecimiento humano, ya que si descubrimos una civilización extraterrestre pacífica mucho más avanzada que nosotros en ciencia, arte y todo lo que nos interesa, esto presumiblemente no sería suficiente para impedir que las personas sigan experimentando significado y propósito en sus vidas. Podríamos conservar a nuestras familias, amigos y comunidades en general así como todas las actividades que nos dan significado y propósito, y con suerte no habríamos perdido nada más que la arrogancia. Mientras planificamos nuestro futuro, consideremos el significado no sólo de nuestras propias vidas, sino también de nuestro Universo mismo. Los físicos Steven Weinberg y Freeman Dyson representan puntos de vista diametralmente opuestos. Weinberg, que ganó el Premio Nobel por su trabajo fundamental sobre el modelo estándar de física de partículas, dijo la famosa frase: «Cuanto más comprensible parece el universo, más inútil parece«. Dyson, por otra parte, es mucho más optimista, y aunque está de acuerdo en que nuestro Universo no tiene sentido, cree que la vida ahora lo está llenando de cada vez de más significado, con lo mejor por venir si la vida logra extenderse por todo el cosmos. Terminó así su influyente artículo de 1979: “¿Está el universo de Weinberg o el mío más cerca de la verdad? Un día, dentro de poco, lo sabremos”. Si nuestro Universo vuelve a estar permanentemente inconsciente porque extinguimos la vida en la Tierra o porque dejamos que una IA zombi inconsciente se apodere de nuestro Universo, entonces Weinberg quedará reivindicado. Desde esta perspectiva, vemos que aunque sea importante el futuro de la inteligencia, el futuro de la conciencia es aún más importante, ya que es lo que permite el significado. A los filósofos les gusta contrastar la sapiencia o la capacidad de pensar inteligentemente, con la sensibilidad o la capacidad de experimentar subjetivamente. Los humanos hemos construido nuestra identidad sobre la base de ser el Homo Sapiens, supuestamente las entidades más inteligentes que existen. Mientras nos preparamos para ser humillados por máquinas cada vez más inteligentes, tal vez nos tendríamos que rebautizar.
En 1951 Alan Turing dijo “Si una máquina llega a poder podría pensar de manera más inteligente que nosotros y, entonces, incluso si pudiéramos mantener las máquinas en una posición subordinada, deberíamos como especie sentirnos humillados”. Por su lado, el científico Irving J. Bueno, en 1965 dijo: “La primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control”. Dado que no podemos descartar por completo la posibilidad de que eventualmente construyamos una Inteligencia Artificial General (AGI) a nivel de un ser humano, pero muchísimo más rápida, veamos a que podría conducir eso. ¿Puede la IA realmente dominar el mundo o permitir que los humanos lo hagan? Cuando la gente habla de robots armados estilo Terminator que se hacen cargo, entonces este es un escenario realmente irreal. El peligro de la historia de Terminator no es que suceda, sino que distrae la atención de los riesgos y oportunidades reales que presenta la IA. Para pasar realmente a la conquista mundial impulsada por AGI se requieren tres pasos lógicos: Paso 1: crear AGI a nivel humano. Paso 2: utilizar esta AGI para crear superinteligencia. Paso 3: Usar o liberar esta superinteligencia para dominar el mundo. Sin embargo, estos argumentos de plausibilidad son muy vagos. Entonces, ¿puede la IA realmente provocar la conquista del mundo? Para explorar esta pregunta, olvidémonos de los Terminators y en su lugar miremos algunos escenarios detallados de lo que realmente podría suceder. Después, analizaremos y encontraremos fallas en estas tramas. Lo que es evidente es que no tenemos ni idea de lo que sucederá y lo que no, y que el rango de posibilidades es enorme. Nuestros primeros escenarios se encuentran en el extremo más rápido y dramático del espectro. Seguramente son algunos de los más valiosos para explorar en detalle, no porque sean necesariamente los más probables, sino porque si no podemos convencernos de que son extremadamente improbables, entonces necesitamos comprenderlos lo suficientemente bien como para que podamos tomar precauciones antes de que sea demasiado tarde para evitar que conduzcan a malos resultados.
Consideremos un escenario en el que unos humanos utilizan la superinteligencia artificial para dominar el mundo. La sabiduría convencional en materia de seguridad informática solía ser que es peligroso descargar programas y datos, pero los piratas informáticos han descubierto formas inteligentes de actuar. Si miras una película descargada en tu computadora, por ejemplo, el programa confiable que reproduce la película se almacena en la misma memoria física de la computadora que almacena los datos de la película descargada. Mientras el programa descomprime los datos de la película para reproducirlos, puede copiar fragmentos de datos en regiones de memoria adyacentes a donde está almacenado el programa. Hackers astutos han encontrado ocasionalmente errores mediante los cuales dichos programas de reproducción de películas no verifican adecuadamente si los datos de la película son válidos y si los fragmentos a copiar realmente caben en el espacio asignado. Cuando el hacker introduce en la película una porción demasiado grande, puede extenderse a la parte de la memoria que contiene el programa, transformando así dicho programa en uno que cumple las órdenes del hacker. Se ha encontrado y solucionado una serie vergonzosamente larga de vulnerabilidades de «desbordamiento de búfer» para muchos de los programas de reproducción de películas más populares. Ahora hemos explorado una variedad de escenarios de explosión de inteligencia, que abarcan desde aquellos que todos quieren evitar hasta aquellos que algunos ven con optimismo. Sin embargo, todos estos escenarios tienen dos características en común: 1. Un despegue rápido: la transición de una inteligencia infrahumana a una inteligencia enormemente sobrehumana se produce en cuestión de días, no de décadas. 2. Un resultado unipolar, en que el resultado es una entidad única que controla la Tierra. Existe una gran controversia sobre si estas dos características son probables o improbables, y hay muchos investigadores de IA de renombre y otros pensadores en ambos lados del debate. Esto significa que simplemente no lo sabemos todavía y debemos mantener la mente abierta y considerar todas las posibilidades por ahora. Por lo tanto, deben explorarse escenarios con despegues más lentos y resultados multipolares. Podemos preguntarnos: ¿Cuál es el estado natural de la vida en nuestro cosmos: unipolar o multipolar? ¿El poder está concentrado o distribuido? Después de los primeros 13.800 millones de años calculados para nuestro Universo, la respuesta parece ser que la situación es claramente multipolar, pero de una manera curiosamente jerárquica. Cuando consideramos todas las entidades de procesamiento de información que existen (átomos, células, personas, organizaciones, países, etc.), encontramos que colaboran y compiten en una jerarquía de niveles.
A algunas células les ha resultado ventajoso colaborar hasta tal punto que se han fusionado en organismos multicelulares, como las plantas, los animales y los humanos, cediendo parte de su poder a un cerebro central. Algunas personas han encontrado ventajoso colaborar en grupos donde a su vez ceden algo de poder a un jefe o gobierno. Algunos grupos, a su vez, pueden optar por ceder parte del poder a un órgano rector para mejorar la coordinación, con ejemplos como la Unión Europea. La rama de las matemáticas conocida como teoría de juegos explica elegantemente que las entidades tienen un incentivo para cooperar cuando la cooperación es el llamado equilibrio de Nash, en honor a un famoso matemático, John Forbes Nash, una situación en la que cualquier parte estaría en peor situación si alterara su estrategia. Para evitar que los tramposos arruinen la colaboración exitosa de un grupo grande puede ser del interés de todos ceder algo de poder a un nivel superior en la jerarquía que pueda castigar a los tramposos. Por ejemplo, las personas pueden beneficiarse colectivamente al otorgarle a un gobierno el poder de hacer cumplir las leyes y las células de su cuerpo pueden beneficiarse colectivamente al darle al sistema inmunológico el poder de matar cualquier célula que actúe de manera demasiado poco cooperativa, como en el caso de virus o cáncer. Para que una jerarquía permanezca estable, su equilibrio de Nash debe mantenerse también entre entidades de diferentes niveles. Por ejemplo, si un gobierno no proporciona suficientes beneficios a sus ciudadanos por obedecerlo, pueden cambiar su estrategia y derrocarlo. En un mundo complejo, existe una gran diversidad de posibles equilibrios de Nash, correspondientes a diferentes tipos de jerarquías. Algunas jerarquías son más autoritarias que otras. En algunas, las entidades son libres de irse mientras que en otras se les desaconseja encarecidamente que se vayan, como en los cultos religiosos, o no pueden irse, como los ciudadanos de Corea del Norte o las células de un cuerpo humano. Algunas jerarquías se mantienen unidas principalmente por las amenazas y el miedo, otras principalmente por los beneficios. Algunas jerarquías permiten que sus partes inferiores influyan en las superiores mediante el voto democrático, mientras que otras permiten la influencia ascendente sólo mediante la persuasión o la transmisión de información.
¿Cómo está cambiando la tecnología la naturaleza jerárquica de nuestro mundo? La historia revela una tendencia general hacia una coordinación cada vez mayor en distancias cada vez mayores, lo cual es fácil de entender, ya que la nueva tecnología de transporte hace que la coordinación sea más valiosa al permitir el beneficio mutuo del movimiento de materiales y formas de vida a lo largo de distancias mayores, así como las nuevas tecnologías de comunicación facilitan la coordinación. Cuando las células aprendieron a enviar señales a sus vecinas, se hicieron posibles pequeños organismos multicelulares, añadiendo un nuevo nivel jerárquico. Cuando la evolución inventó los sistemas circulatorios y nerviosos para el transporte y la comunicación, se hicieron posibles los animales grandes. Mejorar aún más la comunicación mediante la invención del lenguaje permitió a los humanos coordinarse lo suficientemente bien como para formar niveles jerárquicos adicionales, como aldeas, y avances adicionales en comunicación, transporte y otras tecnologías permitieron los imperios de la antigüedad. La globalización es simplemente el último ejemplo de esta tendencia de crecimiento jerárquico. En la mayoría de los casos, esta tendencia impulsada por la tecnología ha convertido a las grandes entidades en parte de una estructura aún mayor, conservando al mismo tiempo gran parte de su autonomía e individualidad, aunque los comentaristas han argumentado que la adaptación de las entidades a la vida jerárquica en algunos casos ha reducido su diversidad y las ha hecho más como piezas reemplazables indistinguibles. Algunas tecnologías, como la vigilancia, pueden dar a los niveles superiores de la jerarquía más poder sobre sus subordinados, mientras que otras tecnologías, como la criptografía y el acceso en línea a la prensa y la educación libres, pueden tener el efecto contrario y empoderar a los individuos.
Aunque nuestro mundo actual sigue estancado en un equilibrio de Nash multipolar, con naciones competidoras y corporaciones multinacionales en el nivel superior, la tecnología está lo suficientemente avanzada como para que un mundo unipolar probablemente también sea un equilibrio de Nash estable. Por ejemplo, imaginemos un universo paralelo donde todos comparten el mismo idioma, cultura, valores y nivel de prosperidad, y con un gobierno mundial único en el que las naciones funcionan como estados en una federación y sin ejércitos, simplemente policías que hacen cumplir las leyes. Nuestro nivel actual de tecnología probablemente sería suficiente para coordinar con éxito este mundo, aunque nuestra población actual tal vez no pueda o no quiera cambiar a este equilibrio alternativo. ¿Qué pasará con la estructura jerárquica de nuestro cosmos si añadimos tecnología de IA superinteligente a esta combinación? La tecnología del transporte y las comunicaciones obviamente mejorará dramáticamente, por lo que una expectativa natural es que la tendencia histórica continúe, con nuevos niveles jerárquicos coordinándose en distancias cada vez mayores, tal vez abarcando en última instancia sistemas solares, galaxias y grandes franjas de nuestro Universo, a medida que avanzamos. Al mismo tiempo, el impulsor más fundamental de la descentralización permanecerá, ya que es un desperdicio coordinar innecesariamente a grandes distancias. Para la IA superinteligente las leyes de la física impondrán límites superiores a la tecnología de transporte y comunicación, lo que hace poco probable que los niveles más altos de la jerarquía puedan micro gestionar todo lo que sucede a escalas planetaria y local. Una IA superinteligente en la galaxia de Andrómeda no podría darte órdenes útiles para tus decisiones diarias dado que tendrías que esperar más de cinco millones de años para recibir tus instrucciones, ya que ese es el tiempo de ida y vuelta para que puedas intercambiar mensajes viajando a la velocidad de la luz, aunque estos límites actuales de la física es posible que dejen de serlo una vez exista la IA superinteligente. De la misma manera, el tiempo de viaje de ida y vuelta para un mensaje que cruza la Tierra es de aproximadamente 0,1 segundo, aproximadamente la escala de tiempo en la que pensamos los humanos, por lo que un cerebro de IA del tamaño de la Tierra podría tener pensamientos verdaderamente globales sólo tan rápido como un humano. Para una pequeña IA que realiza una operación cada milmillonésima de segundo, lo cual es típico de las computadoras actuales, 0,1 segundo le parecerían cuatro meses, por lo que ser micro gestionado por una IA que controla el planeta sería tan ineficiente como si pidiésemos permiso incluso para nuestras decisiones más triviales a través de cartas transatlánticas entregadas por barcos de la era de Colón.
Por lo tanto, este límite de velocidad actual impuesto por la física en la transferencia de información plantea un desafío obvio para cualquier IA que desee apoderarse de nuestro mundo y mucho más de nuestro Universo. Claramente todavía no sabemos qué tan grande será el sistema que una IA podrá controlar directa o indirectamente a través de algún tipo de jerarquía colaborativa, incluso si un despegue rápido le otorgara una ventaja estratégica decisiva. En resumen, la cuestión de cómo se controlará un futuro con una IA superinteligente es fascinantemente compleja y claramente no sabemos la respuesta todavía. Algunos sostienen que las cosas se volverán más autoritarias mientras que otros afirman que conducirá a un mayor empoderamiento individual. Un elemento básico de la ciencia ficción es que los humanos se fusionarán con las máquinas, ya sea mejorando tecnológicamente los cuerpos biológicos para convertirlos en cyborgs («organismos cibernéticos«) o cargando nuestras mentes en las máquinas. En su libro The Age of Em, el economista Robin Hanson ofrece un fascinante estudio de cómo podría ser la vida en un mundo repleto de cyborgs, donde la única parte restante del ser humano sea el software. Los cyborgs de Hollywood son desde visiblemente mecánicos, como los Borg de Star Trek, hasta androides casi indistinguibles de los humanos, como los Terminators. Si realmente surge la superinteligencia artificial, la tentación de convertirse en cyborgs será fuerte. Como dice Hans Moravec en su clásico libro de 1988 Mind Children: The Future of Robot and Human Intelligence: “La larga vida pierde gran parte de su sentido si estamos destinados a pasarla mirando estúpidamente máquinas ultrainteligentes mientras intentan describir sus descubrimientos cada vez más espectaculares en un lenguaje infantil que podamos entender”. De hecho, la tentación de la mejora tecnológica ya es tan fuerte que muchos seres humanos tienen gafas, audífonos, marcapasos y prótesis, así como moléculas medicinales que circulan por su torrente sanguíneo. Además, muchos adolescentes parecen estar permanentemente conectados a sus teléfonos inteligentes o computadoras portátiles.
Uno de los defensores de los cyborgs más destacados de la actualidad es Ray Kurzweil. En su libro La Singularidad está cerca, sostiene que la continuación natural de esta tendencia es el uso de nanobots, sistemas inteligentes de bioretroalimentación y otras tecnologías para reemplazar primero nuestros sistemas digestivo y endocrino, nuestra sangre y nuestros corazones a principios de la década de 2030, y luego seguir adelante para mejorar nuestros esqueletos, piel, cerebros y el resto de nuestro cuerpo durante las próximas dos décadas. Supone que es probable que mantengamos la estética y la importancia emocional de los cuerpos humanos, pero los rediseñaremos para cambiar rápidamente su apariencia a voluntad, tanto físicamente como en la realidad virtual, gracias a novedosas interfaces cerebro-computadora. Hans Moravec está de acuerdo con Kurzweil en que la ciborgización iría mucho más allá de simplemente mejorar nuestro ADN: “un superhumano diseñado genéticamente sería simplemente un tipo de robot de segunda categoría, diseñado con la desventaja de que su construcción sólo puede realizarse mediante síntesis de proteínas guiada por el ADN”. Además, sostiene que lo haremos aún mejor si eliminamos el cuerpo humano por completo y cargamos nuestras mentes en computadoras, creando una emulación de todo el cerebro en el software. Una carga de este tipo puede vivir en una realidad virtual o encarnarse en un robot capaz de caminar, volar, nadar, viajar por el espacio o cualquier otra cosa permitida por las leyes de la física, libre de preocupaciones cotidianas como la muerte o recursos cognitivos limitados. Aunque estas ideas pueden parecer ciencia ficción, ciertamente no violan ninguna ley conocida de la física, por lo que la pregunta más interesante no es si pueden suceder, sino si sucederán y, de ser así, cuándo. Algunos destacados pensadores suponen que la primera AGI a nivel humano será el inicio del camino hacia la superinteligencia. No obstante, esta es actualmente una opinión minoritaria entre los investigadores y neurocientíficos de la IA, la mayoría de los cuales suponen que la ruta más rápida hacia la superinteligencia es evitar la emulación del cerebro y diseñarla de alguna otra manera, después de lo cual podemos o no seguir interesados en la emulación del cerebro. La evolución optimiza fuertemente la eficiencia energética debido al suministro limitado de alimentos, no por la facilidad de construcción o la comprensión por parte de los ingenieros humanos. De la misma manera, sospecho que hay formas más simples de construir máquinas pensantes a nivel humano que las que la evolución propuso, e incluso si algún día logramos replicar o cargar cerebros terminaremos descubriendo una de esas formas más simples. Probablemente consumirá más de los doce vatios de energía que usa nuestro cerebro, pero sus ingenieros no estarán tan obsesionados con la eficiencia energética como lo estuvo la evolución, y muy pronto podrán usar sus máquinas inteligentes para diseñar energía más eficiente.
Pero, ¿qué pasará realmente? La respuesta breve es que no tenemos ni idea de qué sucederá si la humanidad logra construir una AGI a nivel humano. Por esta razón hemos explorado algunos escenarios, tales como el despegue rápido/despegue lento/sin despegue, humanos/máquinas/cyborgs en control, o uno/varios centros de poder, etc. Sin embargo, es prudente ser humilde en esta etapa y reconocer lo poco que sabemos, porque para cada escenario discutido anteriormente hay al menos algún investigador de IA que lo ve como una posibilidad real. A medida que pase el tiempo y lleguemos a ciertas bifurcaciones en el camino, comenzaremos a responder preguntas clave y a reducir las opciones. La primera gran pregunta es: ¿Crearemos algún día AGI a nivel humano? La premisa es que lo haremos, pero hay expertos en IA que piensan que eso nunca sucederá, al menos no hasta dentro de cientos de años. Pero antes de que se cree cualquier AGI a nivel humano, podemos comenzar a recibir fuertes indicios sobre si es probable que este hito se alcance mediante la ingeniería informática, la carga mental o algún enfoque novedoso imprevisto. Si el AGI a nivel humano se vuelve más inminente, podremos hacer conjeturas más fundamentadas sobre la respuesta a la siguiente pregunta clave: ¿Habrá un despegue rápido, un despegue lento o ningún despegue? Como vimos anteriormente, un despegue rápido facilita la conquista del mundo, mientras que uno lento hace que sea más probable un resultado con muchos jugadores competidores. Nick Bostrom analiza esta cuestión de la velocidad de despegue en un análisis de lo que él llama poder de optimización, que indica básicamente la cantidad de esfuerzo de calidad para hacer que la IA sea más inteligente y la dificultad de progresar, respectivamente. La tasa promedio de progreso aumenta claramente si se aplica más poder de optimización a la tarea y disminuye si se encuentra más resistencia. Expone argumentos sobre por qué la resistencia podría aumentar o disminuir a medida que el AGI alcance y trascienda el nivel humano, por lo que mantener ambas opciones sobre la mesa es una apuesta segura. Sin embargo, en cuanto al poder de optimización, es abrumadoramente probable que crezca rápidamente a medida que el AGI trascienda el nivel humano, en que el principal aporte para una mayor optimización no provenga de las personas sino de la propia AGI, por lo que cuanto más capaz se vuelva, más rápido mejorará.
Para cualquier proceso cuyo poder crezca a un ritmo proporcional a su poder actual el resultado es que su poder se sigue duplicando a intervalos regulares. A ese crecimiento lo llamamos exponencial y a esos procesos los llamamos explosiones. Si la creación de neutrones capaces de fisionar el plutonio crece en proporción al número de dichos neutrones, podemos producir una explosión nuclear. Si la inteligencia de las máquinas crece a un ritmo proporcional a la potencia actual, podemos producir una explosión de inteligencia. Todas estas explosiones se caracterizan por el tiempo que tardan en duplicar su potencia. Si ese tiempo son horas o días para una explosión de inteligencia, tendremos un rápido despegue entre manos. Esta escala de tiempo de explosión depende crucialmente de si mejorar la IA requiere simplemente nuevo software, que puede crearse en cuestión de segundos, minutos u horas, o nuevo hardware, que puede requerir meses o años. Los costos de hardware y electricidad (energía) para ejecutar la IA también son cruciales, ya que no tendremos una explosión de inteligencia hasta que el costo de realizar el trabajo a nivel humano caiga por debajo de los salarios por hora a nivel humano. Supongamos, por ejemplo, que la primera AGI a nivel humano se pueda ejecutar eficientemente en la nube de Amazon a un costo de 1 millón de dólares por hora de trabajo a nivel humano producido. Esta IA tendría un gran valor novedoso y, sin duda, ocuparía los titulares, pero no experimentaría una superación personal recursiva, porque sería mucho más barato seguir utilizando humanos para mejorarla. Cuando el costo de usar la computadora para reprogramarse finalmente cae muy por debajo del costo de pagar a programadores humanos para que hagan lo mismo, los humanos pueden ser despedidos y el poder de optimización se puede ampliar enormemente comprando tiempo de computación en la nube. Esto produciría mayores recortes de costos, permitiendo aún más poder de optimización, y la explosión de la inteligencia habría comenzado. Esto nos deja con nuestra última pregunta clave: ¿Quién o qué controlará la explosión de inteligencia y sus consecuencias, y cuáles serán sus objetivos?
Para resolver el problema del control, necesitamos saber qué tan bien se puede controlar una IA y cuánto se puede controlar. En términos de lo que sucederá en última instancia, actualmente encontramos pensadores que sostienen que el resultado predeterminado será fatal, mientras que otros insisten en que un resultado asombroso está prácticamente garantizado. Pero es un error preguntar pasivamente “qué pasará”, como si de alguna manera estuviera predestinado. Si mañana llegara una civilización extraterrestre tecnológicamente superior, sería apropiado preguntarse “qué pasará” cuando sus naves espaciales se acerquen, porque su poder probablemente estaría tan por encima del nuestro que no tendríamos influencia sobre el resultado. Si llega una civilización tecnológicamente superior impulsada por la IA porque la construimos nosotros, los humanos tendremos una gran influencia sobre el resultado, influencia que ejercimos cuando creamos la IA. Por eso deberíamos preguntarnos: ¿Qué debería pasar? ¿Qué futuro queremos? Debemos explorar un amplio espectro de posibles consecuencias de la carrera actual hacia AGI, y habría que saber cómo clasificarlas de mejor a peor. Sólo una vez que hayamos pensado detenidamente qué tipo de futuro queremos podremos empezar a encaminarnos hacia un futuro deseable. Si no sabemos lo que queremos, es poco probable que lo consigamos de manera que sea beneficioso para los seres humanos.
Se puede descargar el artículo en PDF: Algunas reflexiones sobre lo que puede implicar la Inteligencia Artificial
Fuentes:
Stuart Russell y Peter Norvig – Inteligencia artificial: Un enfoque moderno
Max Tegmark – Life 3.0 Being Human in the Age of Artificial Intelligence
Alejandro Madruga – Inteligencia artificial, el futuro del hombre
Alberto García Serrano – Inteligencia Artificial. Fundamentos, práctica y aplicaciones
Nick Bostrom – Superinteligencia: Caminos, peligros, estrategias
Ramón López de Mantarás Badía – Inteligencia artificial
Pablo Rodríguez y Jorge Rizzo – Inteligencia artificial: Cómo cambiará el mundo y tu vida
Yuval Noah Harari – Homo Deus: Breve historia del mañana
Klaus Schwab – La cuarta revolución industrial
Margaret Boden y Inmaculada Pérez Parra – Inteligencia artificial
Ray Kurzweil – La Singularidad está cerca: Cuando los humanos transcendamos la biología
Jeremy Rifkin – El fin del trabajo: Nuevas tecnologías contra puestos de trabajo: el nacimiento de una nueva era
José Mª Angulo Usategui, Susana Romero, Ignacio Angulo – Introducción a la robótica
Jerry Kaplan – Abstenerse humanos: guía para la riqueza y el trabajo en la era de la inteligencia artificial
Richard Susskind y Daniel Susskind – El futuro de las profesiones: Cómo la tecnología transformará el trabajo de los expertos humanos
Mayte Rius – Los dilemas éticos de la inteligencia artificial
Avron Barr y Edward A. Feigenbaum – The Handbook of Artificial Intelligence
Bruce G. Buchanan y Edward H. Shortliffe – Rule-Based Expert Systems: The MYCIN. Experiments of the Stanford Heuristic Programming Project
Hubert Dreyfus – What computers still can’t do
Hubert Dreyfus – Mind over machine
Algunas reflexiones sobre lo que puede implicar la Inteligencia Artificial