Mark Zuckerberg afirmó que Meta contará con «una cantidad absolutamente enorme de infraestructura» para fin de año, con el objetivo de prepararse para entrenar un modelo de inteligencia artificial general (IAG).
Así lo anunció el fundador de Facebook, quien comunicó que invertirá la friolera de 10.000 millones de dólares en infraestructura informática para desarrollar la IAG —es decir, una IA capaz de igualar o superar a los humanos en una variedad de tareas cognitivamente exigentes—.
«Hoy estoy uniendo más estrechamente los dos esfuerzos de investigación en IA de Meta para respaldar nuestros objetivos a largo plazo de construir una inteligencia general, abrir su código de manera responsable y ponerla a disposición de todos para su uso cotidiano», dijo Zuckerberg en un mensaje grabado. «Está claro que la próxima generación de servicios requiere construir una inteligencia general completa, desarrollar los mejores asistentes de IA para creadores, para empresas y más, que necesitan servicios en todas las áreas».
A diferencia de los sistemas de inteligencia artificial (IA) actuales, que son altamente específicos y no pueden comprender matices y contextos tan bien como los humanos, un sistema de IAG podría resolver problemas en una amplia gama de entornos, según un ensayo de 2019 publicado en la revista EMBO Reports. Por lo tanto, imitaría las características clave de la inteligencia humana, en particular el aprendizaje y la flexibilidad.
Punto de no retorno
Alcanzar la IAG también podría sentirse como un punto de no retorno para la humanidad, con el CEO de Google, Sundar Pichai, diciendo ya en 2018 que el impacto de esta tecnología es «más profundo que la electricidad o el descubrimiento del fuego».
El año pasado, docenas de expertos y figuras prominentes, incluidos el CEO de OpenAI, Sam Altman, y el fundador de Microsoft, Bill Gates, firmaron una declaración enfatizando la necesidad colectiva de la humanidad de mitigar «el riesgo de extinción por la IA», junto con otros riesgos a escala societal como pandemias y guerras nucleares.
Y aunque todavía muchos escépticos opinan que la humanidad nunca podrá construir una IAG, Zuckerberg anunció que su empresa está adquiriendo 350.000 unidades de procesamiento gráfico (GPU) Nvidia H100 —algunas de las tarjetas gráficas más potentes del mundo—, fundamentales para entrenar los mejores modelos de IA actuales. Esto duplicará la potencia informática total de Meta para el entrenamiento de IA, con el objetivo de alcanzar una potencia informática equivalente a 600.000 GPU H100 en total.
La NVIDIA H100 es una gráfica dedicada a trabajar en entornos de desarrollo de Inteligencia Artificial. La NVIDIA H100 es capaz de ofrecer hasta 67 teraFLOPS en el Tensor Core de FP64 y cuenta con 80 GB de memoria. Pero todo eso tiene un coste: cada GPU consume 700 vatios de potencia, lo que equivale a unos 10 ordenadores portátiles o 35 bombillas LED.
La H100 de Nvidia es la versión más reciente de las tarjetas gráficas A100, que OpenAI utilizó para entrenar a ChatGPT. De acuerdo a información no verificada, OpenAI utilizó aproximadamente 25.000 GPU Nvidia A100 para el entrenamiento del chatbot, aunque otras estimaciones sugieren que este número es menor.
Zuckerberg afirmó que esta «cantidad absolutamente masiva de infraestructura» estará en su lugar para fin de año. Actualmente, la empresa está entrenando la respuesta de Meta a ChatGPT y a Gemini de Google, llamada «Llama 3», y adelantó un plan futuro que incluye un sistema IAG.
Fuente: Mark Zuckerberg/LiveSci. Edición: MP.
La inteligencia artificial general está a la vuelta de la esquina, según Mark Zuckerberg