Q-Star, la peligrosa inteligencia artificial que habría provocado el despido temporal de Sam Altman

Antes de ser despedido por la junta directiva de OpenAI la semana pasada, Sam Altman insinuó un reciente avance técnico que la compañía había logrado, permitiéndole «retirar el velo de la ignorancia y ampliar los límites del descubrimiento».

Crédito: MysteryPlanet.com.ar.

Los últimos días han sido una montaña rusa en el mundo tecnológico, gracias al drama de alto voltaje que se desarrolló en OpenAI, el pionero en tecnologías de inteligencia artificial (IA) de hoy. Todo comenzó con la junta directiva conformada por Adam D’Angelo, Tosha McCauley, Ilya Sutskever y Helen Toner, destituyendo al CEO de la compañía, Sam Altman. Hubo mucho vaivén después de eso, con Microsoft ofreciéndole al despedido un puesto para liderar un nuevo equipo de investigación avanzada en IA.

Mientras tanto, cerca de 700 empleados de los 770 del personal de OpenAI escribieron una carta abierta comprometiéndose con Altman y amenazaron con renunciar y unirse a Microsoft si la junta no era disuelta y Altman no era reinstaurado. Los cuatro días de exilio del CEO provocaron numerosas especulaciones sobre la causa, desde desacuerdos con miembros de la junta sobre productos, falta de comunicación consistente y diferencias sobre la seguridad en la IA.

Ahora, varias fuentes en la industria han confirmado que el ocultamiento de un misterioso modelo de IA, capaz de poner en peligro la civilización tal como la conocemos, habría sido la causa más probable. De hecho, existiría una carta escrita por varios investigadores del personal a la junta directiva que despidió temporalmente a Altman.

Q*

Según un reporte publicado en The Information, a principios de este año, un equipo liderado por el científico principal de OpenAI, Ilya Sutskever, logró un avance con la IA. Esto les permitió desarrollar un nuevo modelo llamado Q* (pronunciado Q-estrella). Se informó que este nuevo modelo podía resolver problemas matemáticos básicos. Sin embargo, este avance tecnológico también generó temores entre el personal, quienes sintieron que la empresa de IA no tenía suficientes salvaguardias para «comercializar» un modelo tan avanzado.

Q* sería, de acuerdo a lo que trascendió hasta ahora, básicamente un algoritmo capaz de resolver problemas matemáticos elementales por sí solo, incluso aquellos que no forman parte de sus datos de entrenamiento. Esto representa un avance significativo hacia la tan esperada inteligencia artificial general (IAG) —una capacidad hipotética de la IA que le permite realizar cualquier tarea intelectual que el cerebro humano pueda hacer—.

El avance se atribuye a Sutskever y ha sido desarrollado aún más por Szymon Sidor y Jakub Pachoki.

¿Por qué tanto miedo?

La carta de los investigadores de OpenAI —la cual a la hora de escribir este artículo aún no ha sido subida a Internet— señalaba preocupaciones sobre la capacidad potencial del sistema para acelerar el progreso científico. Al mismo tiempo, cuestionaba la adecuación de las medidas de seguridad implementadas por la compañía. Según un informe de Reuters, el modelo supuestamente provocó una trifulca interna, con parte del personal afirmando que podría amenazar a la humanidad. Se cree que esta advertencia es una de las principales razones que llevaron al despido de Altman.

Interesantemente, Altman había insinuado la creación de este modelo durante su participación en la Cumbre de CEOs de la Cooperación Económica de Asia-Pacífico (APEC).

«Cuatro veces en la historia de OpenAI, la más reciente fue hace apenas un par de semanas, he tenido la oportunidad de estar presente cuando hemos logrado descorrer el velo de la ignorancia y avanzar en el horizonte del descubrimiento. Tener esa oportunidad, es el honor profesional de toda una vida», mencionó.

Desde el drama en la junta directiva de OpenAI, este comentario de Altman ha sido interpretado como una pista sobre este modelo revolucionario.

También hay que recordar que el CEO comparó a la IAG con un nuevo Dios.

¿Amenaza para la humanidad?

Algunas razones por las cuales el Proyecto Q* podría representar una amenaza para la humanidad son las siguientes:

Razonamiento lógico avanzado y comprensión de conceptos abstractos: Todos los informes hasta ahora sugieren que Q* posee la capacidad de razonamiento lógico y comprensión de conceptos abstractos. Esto representa un avance tremendo, ya que ningún modelo de IA hasta la fecha ha sido capaz de lograrlo. Aunque es un avance en términos prácticos, también podría dar lugar a comportamientos o decisiones impredecibles que los humanos no puedan anticipar o entender de antemano.
Aprendizaje profundo y reglas programadas: Según Sophia Kalanovska, investigadora citada por Business Insider, el nombre Q* sugiere una fusión de dos métodos conocidos de IA, como el Q-learning y la búsqueda A*. Ella menciona que el nuevo modelo podría combinar el aprendizaje profundo con reglas programadas por humanos, lo que podría hacer que el modelo sea más potente y versátil que cualquier otro actual. Esencialmente, esto podría llevar a un modelo de IA que no solo aprende de datos, sino que también aplica razonamientos como los humanos, lo que dificulta su control o predicción.
Un gran avance hacia la IAG: Q* se percibe como un paso más cerca de lograr la IAG, algo que ha sido motivo de debate en la comunidad de IA. Es importante tener en cuenta que Altman ha sido optimista sobre la IAG y recientemente mencionó en una entrevista que podría ser probable en la próxima década. La IAG es una IA que posee la capacidad de comprender, aprender y aplicar este conocimiento en diferentes dominios, al igual que la inteligencia humana. Asimismo, podría superar las capacidades humanas en muchos aspectos, lo que plantea problemas de control, seguridad y ética.
Capacidad para desarrollar nuevas ideas: Hasta ahora, los modelos de IA principalmente repiten información existente, pero Q* será un hito al poder generar nuevas ideas y resolver problemas incluso antes de que ocurran. La desventaja de esto podría ser que permita a la IA tomar decisiones o acciones que están más allá del control o comprensión humana.
Consecuencias no deseadas y mal uso: Las capacidades avanzadas de Q* también podrían llevar a un posible mal uso o a consecuencias no deseadas. Si cae en manos equivocadas, una IA de esta magnitud podría ser desastrosa para la humanidad. Incluso si alguien la usa con buenas intenciones, la complejidad del razonamiento y la toma de decisiones de Q* conduciría a resultados perjudiciales para la humanidad.

Para finalizar, cabe destacar que las preocupaciones mencionadas sobre estas líneas se basan en lo que se ha discutido en Internet relacionado con el Proyecto Q*. Es importante señalar que no hay información oficial sobre el proyecto, a excepción de una supuesta carta de investigadores de OpenAI.

Fuente: Reuters/TI/Indian Express. Edición: MP.

Q-Star, la peligrosa inteligencia artificial que habría provocado el despido temporal de Sam Altman

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.