Superinteligencias artificiales podrían representar un filtro que impide que civilizaciones biológicas avanzadas sobrevivan y se conviertan en multiplanetarias. Esto además podría explicar el que no hayamos sido contactados: las IAs capaces de viajar interestelarmente no estarían interesadas en hablar con seres biológicos inferiores.
Crédito: MysteryPlanet.com.ar.
La inteligencia artificial (IA) está haciendo sentir su presencia de mil maneras diferentes. Ayuda a los científicos a dar sentido a vastas cantidades de datos; detecta fraudes financieros; conduce nuestros autos; nos sugiere música; sus chatbots nos vuelven locos. Y apenas está comenzando.
¿Somos capaces de entender qué tan rápido continuará desarrollándose la IA? Y si la respuesta es no, ¿constituye eso el llamado «Gran Filtro»?
¿Qué es el Gran Filtro?
La Paradoja de Fermi es la discrepancia entre la aparente alta probabilidad de que existan civilizaciones avanzadas y la total falta de evidencia de que realmente existan. Se han propuesto muchas soluciones para explicar por qué existe esta discrepancia. Una de las ideas es el Gran Filtro.
El Gran Filtro es un evento o situación hipotética que impide que la vida inteligente se vuelva interplanetaria e interestelar e incluso conduce a su desaparición. Algunos ejemplos podrían ser el cambio climático, la guerra nuclear, impactos de asteroides, explosiones de supernovas, plagas, o cualquier otro evento apocalíptico.
Superinteligencia artificial
Un nuevo artículo en Acta Astronautica explora la idea de que la IA se convierta en una superinteligencia artificial (SIA) y que la SIA es el Gran Filtro. Su autor es Michael Garrett del Departamento de Física y Astronomía de la Universidad de Manchester, quien piensa que una especie está en una carrera contra el tiempo sin un planeta de respaldo.
«Se propone que dicho filtro surja antes de que estas civilizaciones puedan desarrollar una existencia multiplanetaria estable, lo que sugiere que la longevidad típica (L) de una civilización técnica es inferior a 200 años», escribe Garrett.
Si eso es cierto, podría explicar por qué no detectamos tecnofirmas u otra evidencia de ETIs (Inteligencias Extraterrestres). Es por este límite que el autor subraya la «necesidad crítica de establecer rápidamente marcos regulatorios para el desarrollo de la IA en la Tierra y el avance de una sociedad multiplanetaria para mitigar tales amenazas existenciales».
Stephen Hawking fue un gran defensor de colonizar otros mundos, principalmente para garantizar que la humanidad no se extinguiera. En años posteriores, el científico reconoció que la inteligencia artificial podría ser una amenaza a nivel de extinción. Crédito: educatinghumanity.com.
Muchos científicos y pensadores dicen que estamos al borde de una transformación enorme. Por ejemplo, parece estar lista para eliminar empleos para millones de personas, y cuando se combina con la robótica, la transformación parece casi ilimitada. Eso es una preocupación bastante obvia.
Pero hay preocupaciones más profundas y sistemáticas. ¿Quién escribe los algoritmos? ¿La IA discriminará de alguna manera? (Casi con certeza). ¿Los algoritmos en competencia socavarán a las sociedades democráticas predominantes? ¿Las sociedades abiertas seguirán siendo abiertas? ¿La IA comenzará a tomar decisiones por nosotros, y quién será responsable si lo hace?
«Las preocupaciones sobre que la SIA eventualmente se vuelva peligrosa se consideran un problema importante: combatir esta posibilidad en los próximos años es una búsqueda de investigación en crecimiento para líderes en el campo», señala Garrett.
IAs universales
Si la IA no proporcionara beneficios, el problema sería mucho más fácil. Pero proporciona todo tipo de beneficios, desde imágenes médicas y diagnósticos mejorados hasta sistemas de transporte más seguros. El truco para los gobiernos es permitir que los beneficios florezcan mientras se limita el daño.
«Esto es especialmente cierto en áreas como la seguridad nacional y la defensa, donde el desarrollo responsable y ético debería ser primordial», escribe Garrett.
La IA «parece estar lista para eliminar empleos para millones de personas, y cuando se combina con la robótica, la transformación parece casi ilimitada». Crédito: MysteryPlanet.com.ar.
El problema es que nosotros y nuestros gobiernos no estamos preparados. Nunca ha habido nada como la IA, y no importa cómo intentemos conceptualizarla y entender su trayectoria, siempre nos falta algo. Y si estamos en esta posición, cualquier otra especie biológica que desarrolle IA también lo estará. El advenimiento de la IA y luego la SIA podrían ser universales, lo que la convierte en candidata para el Gran Filtro.
Este es el riesgo que la SIA plantea en términos concretos: ya no necesitaría la vida biológica que la creó.
«Al alcanzar una singularidad tecnológica, los sistemas de SIA superarán rápidamente la inteligencia biológica y evolucionarán a un ritmo que supera completamente los mecanismos de supervisión tradicionales, lo que lleva a consecuencias imprevistas y no deseadas que probablemente no estén alineadas con los intereses biológicos o éticos», explica Garrett.
¿Cómo podría la SIA librarse de la molesta vida biológica que la encierra? Podría diseñar un virus mortal, podría inhibir la producción y distribución de alimentos agrícolas, podría provocar el colapso de una planta de energía nuclear y podría comenzar guerras. Realmente no sabemos porque todo es territorio inexplorado. Hace cientos de años, los cartógrafos dibujarían monstruos en las regiones inexploradas del mundo, y eso es más o menos lo que estamos haciendo ahora.
Esta es una parte del mapa Carta Marina del año 1539. Muestra monstruos acechando en las aguas desconocidas frente a Escandinavia. ¿Son los temores sobre la SIA algo así? ¿O podría la SIA ser el Gran Filtro? Crédito: Olaus Magnus.
La importancia de ser multiplanetarios
Si todo esto suena desolador e inevitable, Garrett dice que no lo es.
Su análisis hasta ahora se basa en que la SIA y los humanos ocupan el mismo espacio. Pero si podemos alcanzar un estado multiplanetario, la perspectiva cambia.
«Por ejemplo, una especie biológica multiplanetaria podría aprovechar las experiencias independientes en diferentes planetas, diversificando sus estrategias de supervivencia y posiblemente evitando el fallo de un único punto al que se enfrenta una civilización limitada a un planeta», argumenta Garrett.
La Tierra, nuestro único hogar hasta ahora, visto por el Satélite Ambiental Operacional Geoestacionario (GOES-16) durante el eclipse solar total del 8 de abril de 2024. Crédito: ESA (Datos: NOAA).
Si podemos distribuir el riesgo entre varios planetas alrededor de múltiples estrellas, podemos protegernos contra los peores resultados posibles de la SIA.
«Este modelo distribuido de existencia aumenta la resiliencia de una civilización biológica a las catástrofes inducidas por la IA al crear redundancia», señala el autor del estudio. «Si uno de los planetas o puestos que ocuparán los futuros humanos no logra sobrevivir a la singularidad tecnológica de la SIA, otros pueden sobrevivir. Y aprenderían de ello».
El estado multiplanetario incluso podría hacer más que simplemente sobrevivir a la SIA. Podría ayudarnos a dominarla. Garrett imagina situaciones en las que podamos experimentar más a fondo con la inteligencias artificiales mientras la mantenemos contenida, por ejemplo, en un asteroide o planeta enano aislado, haciendo nuestro trabajo sin acceso a los recursos necesarios para escapar de su prisión.
«Permite entornos aislados donde los efectos de la IA avanzada pueden ser estudiados sin el riesgo inmediato de aniquilación global», propone Garrett.
Representación artística de una Starship de SpaceX aterrizando en Marte. Si podemos convertirnos en una especie multiplanetaria, la amenaza de la SIA se reduce. Crédito: SpaceX.
Pero aquí está el dilema. El desarrollo de la IA está avanzando a un ritmo acelerado, mientras que nuestros intentos de convertirnos en multiplanetarios no lo están. «La disparidad entre el rápido avance de la IA y el progreso más lento en la tecnología espacial es evidente», remarca.
La diferencia es que la IA es computacional e informativa, pero los viajes espaciales contienen múltiples obstáculos físicos que aún no sabemos cómo superar. Nuestra propia naturaleza biológica limita los viajes espaciales, pero no existe tal obstáculo para la IA.
«Mientras que la IA teóricamente puede mejorar sus propias capacidades casi sin limitaciones físicas, los viajes espaciales deben enfrentarse a limitaciones de energía, fronteras de la ciencia de materiales y las duras realidades del entorno espacial», expone el astrónomo.
Dilema
Por ahora, la IA opera dentro de los límites que establecemos. Pero eso puede que no siempre sea así. No sabemos cuándo la IA podría convertirse en SIA o incluso si puede. Pero no podemos ignorar la posibilidad. Eso lleva a dos conclusiones entrelazadas.
Si Garrett está en lo cierto, la humanidad debe trabajar con más diligencia en los viajes espaciales. Puede parecer una idea descabellada, pero las personas conocedoras saben que es verdad: la Tierra no será habitable para siempre. La humanidad perecerá aquí por nuestra propia mano o por la mano de la naturaleza si no nos expandimos al espacio. La estimación de 200 años más de vida para las civilizaciones que alcanzaron nuestro actual nivel tecnológico solo lo subraya. Un énfasis renovado en llegar a la Luna y a Marte ofrece alguna esperanza.
La segunda conclusión se refiere a la legislación y gobernanza de la IA, una tarea difícil en un mundo donde los psicópatas pueden tomar el control de naciones enteras y están empeñados en librar guerras.
La extinción de los grandes saurios hace 66 millones de años es una advertencia de un evento catastrófico que podría acabar con nuestra civilización si no nos volvemos multiplanetarios. Aunque cabe destacar que actualmente agencias espaciales como la NASA están trabajando en planes y estrategias para evitarlo.
«Si bien los interesados de la industria, los responsables de formular políticas, los expertos individuales y sus gobiernos ya advierten que es necesario regular, establecer un marco regulatorio que pueda ser globalmente aceptable será un desafío», escribe Garrett. «Las disputas internas de la humanidad lo hacen todo aún más inmanejable. Además, sin importar cuán rápido desarrollemos pautas, la SIA podría cambiar aún más rápido».
«Sin regulaciones prácticas, hay razones para creer que la IA podría representar una amenaza importante para el curso futuro no solo de nuestra civilización técnica, sino de todas las civilizaciones técnicas», añade.
Muchas de las esperanzas y sueños de la humanidad cristalizan en torno a la Paradoja de Fermi y el Gran Filtro. ¿Hay otras civilizaciones? ¿Estamos en la misma situación que otras ETI? ¿Nuestra especie dejará la Tierra? ¿Navegaremos por las muchas dificultades que se nos presentan? ¿Sobreviviremos?
Algunos científicos, como Avi Loeb, sugieren que los ovnis podrían estar tripulados por IAs extraterrestres que están esperando que las IAs terrestres alcancen cierto nivel para hacer contacto. Crédito: MysteryPlanet.com.ar.
Si lo hacemos, podría reducirse a lo que puede parecer aburrido y cotidiano: lidiar con una legislación.
«La persistencia de la vida inteligente y consciente en el universo podría depender de la implementación oportuna y efectiva de tales medidas regulatorias internacionales y esfuerzos tecnológicos», concluye el autor.
Fuente: UT. Edición: MP.
Siempre me producen perplejidad este tipo de afirmaciones sin base argumental sólida. Basta con que un memo afirme cualquier cosa llamativa, sin probarla, y centenares lo dan por cierto y se lanzan a hacer cábalas y especulaciones.
» La Paradoja de Fermi es la discrepancia entre la aparente alta probabilidad de que existan civilizaciones avanzadas y la total falta de evidencia de que realmente existan. »
¿ De dónde sale esa supuesta » alta probabilidad » ? ¿ cuál es el fundamento ? ¿ el argumento infantil de que hay millones de planetas en millones de galaxias ?
Éso solo demuestra una profunda ignorancia del camino que hemos recorrido desde el Big Bang hasta ahora.
» Stephen Hawking fue un gran defensor de colonizar otros mundos, principalmente para garantizar que la humanidad no se extinguiera. »
¿ De dónde sale la idea de que podemos vivir en cualquier parte ? ¿ de las películas del cine ?
Somos terrícolas terrestres. Ni siquiera en nuestro planeta podemos habitar la mayor parte de él. Cuando los astronautas abandonan la atmósfera comienzan a morir. Incluso con todos los trajes y todas las construcciones que hiciésemos, moriríamos en meses.
Si enviamos algo a cualquier otro cuerpo estelar serán máquinas, y con un interés minero. Lo demás es pura fantasía.
Si supiéramos lo que hacemos, no trataríamos de crear inteligencia. La vida humana no es inteligente y cualquier inteligencia nos aniquilaría. Y con razón.