«El ser humano se verá obligado a formarse continuamente para no quedar obsoleto», avanza Robin Li, consejero delegado de Baidu. Pero existe un escenario en el que ni siquiera esa formación continua sería suficiente para garantizar los puestos de trabajo: el de la singularidad tecnológica. Aunque todavía es un concepto más apropiado para historias de ciencia ficción, esta hipótesis dibuja un futuro en el que los avances tecnológicos desembocan en una superinteligencia que supera con creces la del ser humano. Y no faltan científicos que la consideran una posibilidad menos remota de lo que muchos otros quieren creer.
El futuro
¿Podría el futuro superar a la ficción? Sobre todo en China, el país que se ha propuesto liderar el desarrollo de la inteligencia artificial: ya es el que más invierte en el sector, el que más instituciones públicas tiene investigando y el que más patentes registra: un 57% del total, frente al 13% de EE UU y el 7% de la Unión Europea, según el informe de 2018 Artificial Intelligence, a European Perspective, de la Comisión Europea. Y cuenta con 17 de las 20 instituciones de investigación más relevantes en el ámbito de la IA, de acuerdo con un estudio de la Organización Mundial de la Propiedad Intelectual. «Aunque me gustaría que EE UU ganase la carrera de la IA, si tuviese que apostar lo haría por China», afirma Thomas H. Davenport, autor de La ventaja de la IA. «China tiene muchas ventajas: un Gobierno determinado, una fuente inagotable de dinero, un creciente número de científicos inteligentes y una enorme población que adora lo digital», argumenta.
También es el país con menos barreras éticas y legales. Eso permite que los científicos se adentren en terrenos que otros países consideran pantanosos. «Siempre hemos pensado que la inteligencia humana era imposible copiarla y ahora sabemos que algún día podremos comprenderla lo suficientemente bien como para replicarla. Eso supone que no es irremplazable», asegura Wu Shuang, científico jefe de Yitu, una de las empresas de IA más punteras de China y doctor en Física por la University of Southern California. «Todavía estamos en la fase de dotar a las máquinas de capacidad de percepción y lejos de pasar a las de razonamiento y toma de decisiones. Pero estoy convencido de que las máquinas terminarán adquiriendo sentido común y de que serán capaces de tomar decisiones cotidianas mejor que los humanos«, apostilla Wu, especializado en aprendizaje automático y redes neuronales profundas.
Wu se rasca la cabeza después de 50 minutos de entrevista y reconoce que no tiene tan claro que el ser humano vaya a salir bien parado de la nueva etapa en la que se adentra. Y no es el único. «Siempre hemos querido creer que el ser humano es el centro del universo. Luego nos hemos dado cuenta de que vivimos en un pequeño planeta de un sistema solar que ni siquiera está en el centro de la galaxia», enumera. «También pensamos que tenemos un intelecto superior, creativo y capaz de razonar. Todavía no sabemos exactamente cómo funciona, pero creo que terminaremos por entender todos sus mecanismos. Eso nos ayudará a mejorar, pero también demostrará que puede existir una inteligencia superior».
Chen Haibo es de una opinión similar. El consejero delegado de DeepBlue, otra gran empresa china del sector, cree que ni siquiera la imaginación será siempre un coto privado del Homo sapiens. «La tecnología ha avanzado en dos siglos más que nosotros en miles de años. No veo por qué va a dejar de hacerlo, así que es inevitable que las máquinas terminen superando nuestra inteligencia», apunta.
¿Atisbos de superinteligencia?
«Esta superinteligencia va a llegar y quizá ni siquiera nos demos cuenta de que está llegando», añade Brian Subirana, director del Auto-ID Lab del Massachusetts Institute of Technology (MIT) [entrevistado por Jaime Susanna en Cibecom, la Cumbre Iberoamericana de Comunicación Estratégica].
Y pone ejemplos de algunos pasos que ya se están dando en esa dirección. «El reconocimiento de imagen en los últimos siete años ha superado ya al del ser humano. Por eso, en los controles de inmigración las cámaras pueden reconocer rostros mejor que los agentes. Es una tecnología que también se utiliza en medicina. En el caso de los tumores de retina se ha descubierto que el ordenador sabe distinguir si una retina es de hombre o de mujer, algo que ningún médico sabe hacer. Ese sería un ejemplo de superinteligencia en el que el ordenador ve cosas que escapan al ojo humano».
Por otro lado, la potencia de computación crece de forma exponencial a la vez que los chips se hacen más pequeños. Peter Abbeel, profesor de la UC Berkeley y científico jefe de Embodied Intelligence, concuerda: «Todavía no existe una máquina con la potencia de computación para reproducir el cerebro humano, pero sí se puede lograr en la nube, con una red de ordenadores».
En opinión de Abbeel, ese no es el mayor problema. «Según avancen los chips, también resultarán cada vez más baratos. Una máquina con la capacidad de computación de una persona podría incluso costar menos que el salario mínimo», señala. José Dorronsoro, catedrático en Ciencia de Computación e Inteligencia Artificial en la Universidad Autónoma de Madrid e investigador sénior del Instituto de Ingeniería del Conocimiento (IIC), coincide. «Hay quienes sostienen que los microprocesadores cuánticos son difíciles de controlar y que la Ley de Moore, que dice que cada dos años se duplica la potencia de cálculo, se demostrará errónea porque los chips se enfrentarán a barreras físicas insalvables. Yo, sin embargo, creo que se presentarán nuevas propuestas tecnológicas y veo factible que se pueda replicar la capacidad de computación del cerebro en un tiempo razonable».
Los escépticos
No en vano, el Proyecto Cerebro Humano de la Unión Europea también busca algo similar, pero desde una perspectiva más amplia, con la Plataforma de Simulación del Cerebro. Mientras Abbeel considera que estos avances pueden ser el primer paso en el camino hacia una superinteligencia, Dorronsoro no cree que vaya a convertirse en el germen de la singularidad tecnológica. «Una máquina puede hacer muchísimos cálculos a una velocidad enorme, pero necesita un marco conceptual para ir más lejos. Tenemos que entender el cerebro también desde el punto de vista neurofisiológico».
En líneas similares se manifiesta Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC y uno de los científicos que ven el concepto de superinteligencia con más escepticismo: «La capacidad de computación se compara con la actividad eléctrica de las neuronas, pero en el cerebro hay más células gliales que neuronas. Ahora sabemos que juegan un papel importante, pero no cómo reproducirlas». López de Mántaras incide en que será posible crear una red neuronal comparable al cerebro en cuanto a su número de unidades de proceso, pero advierte de que solo se estará modelizando la actividad eléctrica, olvidando la química, que es fundamental para procesar información. «O sea, que en ningún caso será un cerebro», sentencia.
IA: vacía de memoria y de ética
Una barrera adicional está también en la capacidad de aprendizaje de la IA y en el olvido catastrófico que sufre. Como dice López de Mántaras, «sistemas como DeepMind tienen un aprendizaje que no es incremental ni relaciona un conocimiento nuevo con los que tenía antes. Si le enseñas a jugar al ajedrez, lo hace. Pero si lo reprogramas para hacer otra tarea, se olvida de jugar. De momento, no sabemos cómo lograr que una máquina aprenda más a lo largo de toda su vida, como hace una persona«.
Dorronsoro subraya también los dilemas éticos que la inteligencia artificial tiene que resolver antes de poder dar el salto hacia la superinteligencia. El primero, asegura, llegará con los vehículos autónomos. «Tendrán que reaccionar ante los imprevistos y, por lo tanto, tendrán que tomar decisiones que tienen una vertiente ética. Porque no habrá tiempo para que el coche envíe un mensaje con el dilema que se plantea a un centro de control en el que seres humanos decidan qué hacer. ¿Atropello a la señora o tiro el coche por el barranco?».
A López de Mántaras le preocupan las armas autónomas. De hecho, fue uno de los primeros firmantes de una petición para prohibirlas. No solo los drones de los ejércitos, también los diferentes robocops que se están desarrollando. «Distinguir entre una persona que lleva un arma encima pero que tiene actitud de rendirse y otra que amenaza con ella es muy difícil. Lo mismo que determinar si un herido armado está en el suelo pidiendo ayuda y no en actitud agresiva. Hay muchos ejemplos de que la inteligencia artificial en armas autónomas no es fiable y no se debe usar». Por si fuese poco, López de Mántaras esgrime un argumento moral: «Es indigno delegar en una máquina la decisión de matar».
La programación de esos sistemas puede sentar algunos precedentes importantes. «No vamos a dotar de juicio a las máquinas, pero sí dotaremos de ética a los algoritmos, que no dejan de ser recetas mecánicas. Y luego habrá que ver cómo se gestionan jurídicamente sus consecuencias», apunta Dorronsoro. Solo cuando se haya dado respuesta a estos interrogantes se podrá concebir un nuevo paso hacia lo que ahora es ciencia ficción: dotar a las máquinas de sentimientos. «No podemos decir que nunca sucederá. Pero eso haría a la humanidad completamente obsoleta, porque serían capaces de hacerlo todo: desde la investigación científica hasta el arte. Sería el poshumanismo«, apostilla López de Mántaras.
La guerra comercial por la IA
Además, Subirana señala otra barrera derivada de la estructura que ha creado el sistema capitalista: «En el caso de que se llegase a la superinteligencia, no habría una sola: habría varias lideradas por diferentes empresas y se podrían llegar a dar luchas entre algoritmos para ver quién gana». El científico del MIT saca su iPhone para una demostración sencilla: le pide a Siri que ponga una canción en Spotify y el sistema de IA se niega porque Apple bloquea este servicio; le dice ‘Ok, Google’, y Siri se ríe de él. Literalmente.
Al fin y al cabo, los algoritmos responden a intereses comerciales que crean muros para separar unos de otros. El interés público es lo de menos cuando las inteligencias artificiales tienen logotipo. «Debería iniciarse un diálogo social transparente y más activo para debatir sobre su funcionamiento. Y los Gobiernos, que hasta ahora han sido reactivos, deben ser proactivos y regular todo esto mucho más rápido». Todos los entrevistados para este reportaje coinciden en la necesidad de regular la inteligencia artificial para poner coto a los desmanes de las grandes corporaciones antes de que sea demasiado tarde.
Independientemente de que se termine alcanzando la singularidad tecnológica o no, ninguno de ellos duda de que la inteligencia artificial vaya a tener un profundo efecto en la sociedad. Y afirman que estamos todavía en la infancia de esta tecnología y no tenemos claro qué buscamos.Deberíamos centrarnos en utilizarla «para resolver los problemas sociales existentes y no solo para el beneficio económico», advierte Yang Xueshan, profesor de la Peking University y exviceministro de Industria y Tecnologías de la Información de China.
Peligrosa concentración de poder
«Tenemos que desarrollar la IA de forma que sirva a nuestros intereses y se preocupe de nosotros», apunta Abbeel. El problema está en que, en un mundo polarizado, ese nosotros no engloba a toda la humanidad sino a pequeños grupos de poder. Así, Dorronsoro señala la amenaza que supone la concentración de poder en un pequeño número de gigantes tecnológicos «como Google, Facebook, o Netflix». Chen y Wu destacan la disrupción que la suma de inteligencia artificial y robótica va a provocar en el mercado laboral. Y López de Mántaras añade que puede ahondar en la creciente desigualdad económica «propiciada por un neoliberalismo que ha destrozado la clase media».
Subirana, por otro lado, muestra su preocupación por el peligro creciente que suponen los piratas informáticos en un mundo hiperconectado y regido por algoritmos manipulables. «Pueden explotar las vulnerabilidades de los sistemas con consecuencias mucho más graves, porque no existe la protección al 100%», analiza. «¿Qué pasaría si, por ejemplo, se ponen en marcha de forma simultánea un millón de microondas y se producen miles de incendios en los que mueren cientos de personas?», se pregunta.
Además, en opinión de Brian Subirana, el rastro de datos que dejamos — biométricos, de GPS, email, compras online — en poder de las multinacionales también se puede utilizar para explotar las debilidades de los individuos, de los que se puede saber casi todo. «Por ejemplo, se le pueden ofrecer bebidas a quien sufre de alcoholismo cuando el algoritmo determina su momento más vulnerable. Y Amazon ya está haciendo perfiles de los clientes escuchando todo lo que sucede en sus casas», señala el científico del MIT.
La fuerza de la empatía humana
A pesar de que la mayoría de los escenarios parecen apocalípticos, todos los científicos entrevistados subrayan que no son pesimistas en cuanto al futuro. Al contrario, consideran que la IA será un poderoso motor de desarrollo. «El buen camino es el de los cobots, sistemas de IA que nos permitirán hacer mejor nuestro trabajo», sentencia López de Mántaras.
El investigador del CSIC vuelve al terreno médico para poner un ejemplo. «Los sistemas de diagnóstico mejoran sustancialmente la eficiencia de los médicos. Pero el médico es insustituible porque la máquina carece de empatía. El contacto humano de quien te pone la mano en el hombro y te dice que te va a curar no lo puede reproducir, aún, un robot. Y tiene un efecto placebo brutal. De momento, todo lo que requiera socializar está fuera del alcance de las máquinas».
Yitu es una de las empresas que desarrollan algoritmos de IA y sistemas de reconocimiento de imagen para diagnósticos médicos, pero Wu también les augura un buen porvenir a los doctores. «Se les da una herramienta muy poderosa para hacer mejor su trabajo». Destaca la mejora que suponen en el mundo en vías de desarrollo, donde la demanda de servicios sanitarios crece más rápido que la capacidad para formar nuevos doctores. «En radiología tampoco hay suficientes profesionales, así que nuestros sistemas — capaces de hacer un diagnóstico a partir de pruebas visuales como escáneres o resonancias magnéticas — suplen esa carencia porque permiten a los especialistas existentes hacer más rápido su labor: pueden examinar 50 escáneres al día en vez de 10».
Chen Haibo también es optimista. «Puede que los chips lleguen a sobrepasar la imaginación humana, pero debemos trabajar para que el futuro no sea mutuamente excluyente. Tenemos que centrar nuestros esfuerzos en aprender a convivir con máquinas que pueden superarnos en diferentes habilidades», señala el fundador de Yitu. «No hay que tener miedo, porque ya lo hemos hecho antes. Pasamos de una era en la que casi toda la humanidad trabajaba en el campo a otra en la que se empleaba en las fábricas. Y de ahí, a una sociedad de servicios», añade.
La resistencia
López de Mántaras prefiere mirar a Suecia, donde se experimentó con una reducción de la jornada laboral a 30 horas semanales, para apuntalar su tranquilidad. «La automatización lleva mucho tiempo destruyendo empleo. No hay más que pensar en los cajeros automáticos. Aun así, las sociedades más automatizadas no son las que más paro tienen». Eso sí, el científico también señala que todo dependerá del modelo de IA que predomine. «Europa debe ser la resistencia».
Científicos de la talla de Stephen Hawking y empresarios como Elon Musk han advertido de que un modelo equivocado podría representar la mayor amenaza para la humanidad. Aunque Hawking reconoció que la IA más rudimentaria, la que existe en la actualidad, es muy práctica, señaló que desarrollarla más allá podría desembocar en la singularidad tecnológica. «Podría terminar rediseñándose a sí misma. Los humanos, incapaces de desarrollarse biológicamente a la misma velocidad, serían sustituidos». Sin embargo, todos los entrevistados para este reportaje confían en que no se alcance ese punto. Dorronsoro incluso dice entre risas que esa posibilidad le importa lo mismo que la superpoblación de Marte: «¿Puede suceder? Pues sí, pero no es una preocupación inmediata».