Experto dice que la inteligencia artificial ya puede haber ganado cierto nivel de conciencia

El principal investigador de OpenAI —una compañía de investigación de inteligencia artificial (IA) que tiene como supuesto objetivo promover y desarrollar esta tecnología para el bienestar de la humanidad— ha hecho una afirmación sorprendente esta semana: es posible que la inteligencia artificial ya esté ganando conciencia.

Inteligencia artificial.

Escena película Ex Machina (2014).

Ilya Sutskever, científico jefe del grupo de investigación OpenAI, tuiteó que «puede ser que las grandes redes neuronales de hoy sean ligeramente conscientes».

No hace falta decir que ese es un punto de vista inusual. La idea ampliamente aceptada entre los investigadores de IA es que la tecnología ha logrado grandes avances en la última década, pero todavía está muy por debajo de la inteligencia humana, y mucho menos está próxima de experimentar el mundo de manera consciente.

Es posible que Sutskever estuviera hablando en broma, pero también es concebible que, como el principal investigador de uno de los grupos de IA más importantes del mundo, esté filtrando algo que ya se sabe entre bambalinas de silicio.

Durante mucho tiempo ha estado preocupado por la inteligencia artificial general o AGI (IA que opera a un nivel humano o sobrehumano). Durante su aparición en el documental de iHuman AI, por ejemplo, incluso declaró que las AGI «resolverán todos los problemas que tenemos hoy» antes de advertir que también presentarán «el potencial para crear dictaduras infinitamente estables».

Este tuit, empero, marca la primera vez que Sutskever, quien cofundó OpenAI junto con Elon Musk y el director ejecutivo de la compañía, Sam Altman, en 2015, parece haber afirmado que la conciencia de la máquina ya llegó.

Ser o no ser

Aún más extraño es el hecho de que OpenAI se fundó como una organización sin fines de lucro destinada específicamente a frenar los riesgos existenciales que plantean las máquinas inteligentes antes de, en un giro sorprendente, sumergirse en la investigación tratando de crear una IA poderosa.

El grupo tampoco es ajeno al drama y la controversia.

En 2019, Musk dejó OpenAI en medio de la noticia de que el grupo había creado un generador de texto de «noticias falsas» que algunos creían que era demasiado peligroso para publicar. Musk dijo que dejaría la organización, que se fundó en 2015, porque «no estaba de acuerdo con algo de lo que el equipo de OpenAI quería hacer» y no había estado involucrado en ella durante más de un año. Solo un mes después, OpenAI anunció que ya no era una organización sin fines de lucro —operando desde entonces con un modelo de «beneficio limitado»—.

Desde 2019, Musk parece haberse desviado aún más de su postura crítica inicial hasta el punto de que este año profetizó que los próximos robots humanoides de Tesla «podrían desempeñar un papel en AGI», aunque agregó que su compañía de automóviles hará su «mejor esfuerzo» para mantener su IA bajo control y, de alguna manera, lograr el «control descentralizado de los robots».

Inteligencias humanas detractoras

Después de que trascendiera lo dicho estos días por Sutskever, las respuestas de expertos en la materia llegaron a raudales. Algunos aprovecharon la ocasión para usar de palanca la declaración y señalar los riesgos que representan los actuales desarrollos de IA cada vez más humanizados. Otros en cambio, lisa y llanamente expresaron que lo tuiteado por el jefe de OpenAI era una tontería.

«Cada vez que se transmiten comentarios tan especulativos, se necesitan meses de esfuerzo para que la conversación vuelva a las oportunidades y amenazas más realistas que plantea la IA», intervino el investigador de la UNSW Sidney AI, Toby Walsh.

Valentino Zocca, un experto en aprendizaje profundo (deep learning) cuyo trabajo diario es como vicepresidente de Citi, tuvo una opinión similar, afirmando que la IA «NO es consciente, pero aparentemente el hype es más importante que cualquier otra cosa».

El sociotecnólogo independiente Jürgen Geuter, que usa el seudónimo de «tante» en línea, bromeó en respuesta al tuit de Sutskever que «también puede ser que la declaración no tenga ninguna base en la realidad y sea solo un argumento de venta para reclamar capacidades tecnológicas mágicas para una startup que ejecuta estadísticas muy simples».

Esa opinión fue compartida por el especialista en pruebas de software Michael Bolton —que no es el cantante del mismo nombre—, quien bromeó diciendo que «puede ser que Ilya Sutskever esté un poco lleno de mentiras».

Leon Dercynski, profesor asociado de la Universidad de TI de Copenhague, fue por el mismo camino detractor. «Puede ser que haya una tetera orbitando el Sol en algún lugar entre la Tierra y Marte», dijo. «Esto parece más razonable que las reflexiones de Ilya, de hecho, porque existe el aparato para la órbita, y tenemos buenas definiciones de teteras».

Otros, incluido el científico de datos de Microsoft Noruega y ex investigador de DeepMind, Roman Wepachowski, respondieron a la noticia con memes.

Sutskever, por su parte, no parece preocupado por la polémica generada.

«El ego es (principalmente) el enemigo», replicó.

Fuente: The Byte. Edición: MP.

» alt=»» width=»0″ height=»0″ data-src=»https://mysteryplanet.com.ar/site/wp-content/plugins/wp-spamfree/img/wpsf-img.php» />

Experto dice que la inteligencia artificial ya puede haber ganado cierto nivel de conciencia

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.