Más de 1000 expertos y líderes de la industria tecnológica piden pausar la investigación en materia de IA por al menos 6 meses para garantizar su seguridad.
“¿Debemos desarrollar mentes no humanas que eventualmente puedan superarnos en número e inteligencia y reemplazarnos?”. Parece una película de ciencia ficción, pero es una de las preguntas que hace la carta abierta firmada por muchos de los principales nombres de la industria tecnológica.
La difusión de esta carta pública trajo mucho revuelo, y rápidamente se transformó en el tema principal de la agenda mediática global. La preocupación principal de los firmantes es el vertiginoso e incontrolado avance de los sistemas de Inteligencia Artificial (IA).
Al tratarse de una tecnología nueva, y que está en constante desarrollo, los países todavía no han establecido normativas de seguridad para los laboratorios. El hecho de que no existan marcos regulatorios sólidos preocupa porque no es posible determinar los alcances de la IA, y por consiguiente, tampoco se pueden predecir sus consecuencias económicas, políticas y sociales.
Dentro de los firmantes aparecen ingenieros y trabajadores de Google, Meta, y otras compañías de tecnología. Además, la firman grandes empresarios como Steve Wozniak, uno de los cofundadores de Apple.
El nombre que no aparece es el de Sam Altman, CEO de OpenAI, el desarrollador de ChatGPT. El creador del famoso chatbot dio garantías de la seguridad de su sistema en sus últimas apariciones públicas. Aclaró que el lenguaje GPT-4 tuvo más de seis meses de pruebas de seguridad antes de su lanzamiento. Además, aseguró que “hemos sido, creo, los que más fuerte hablamos de estos asuntos, con la mayor intensidad, y desde hace más tiempo”.
El tono de la carta firmada por Elon Musk es alarmante, allí se preguntan: “¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”. La conclusión a la que se arriba es que la IA deberían desarrollarse una vez que la humanidad esté segura de que sus efectos sean positivos y sus riesgos manejables.