Debo reconocer que el título del artículo suena muy fantasioso. Y tal vez sea así. Pero hay razones objetivas para creer que este título pueda responder a alguna posibilidad real. Y si no fuese una posibilidad real, al menos creo que servirá para reflexionar. Sin embargo, antes de plantear la posibilidad de que los seres humanos seamos robots muy sofisticados, debemos analizar cómo la ciencia actual está acercándose a lograr comprender áreas como las de la genética o el cerebro humano, intentando crear robots inteligentes gestionados por algoritmos de Inteligencia Artificial (IA). Y si nosotros, con el nivel tecnológico actual, estamos avanzando aceleradamente en estas áreas, ¿qué podrían hacer civilizaciones mucho más avanzadas o seres de dimensiones más altas? Para profundizar en el tema, primero veremos los avances de la Inteligencia Artificial en nuestros días. Luego analizaremos la complejidad del código genético, y finalizaremos estableciendo los argumentos por los que podemos considerar que tal vez seamos algún tipo de robot muy sofisticado creado por seres muy evolucionados. Empezando por la Inteligencia Artificial, vemos que una de sus áreas más significativas es la del aprendizaje profundo, conocido también como redes neuronales profundas, que simula el proceso de aprendizaje de los seres humanos para alcanzar determinados conocimientos. Podríamos decir que la Inteligencia Artificial se acerca cada vez más a la inteligencia humana desde un punto de vista global y ya la supera claramente en numerosos aspectos. Estamos ante una tecnología que ya está revolucionando nuestra sociedad, pero que todavía tiene mucho camino para evolucionar. En efecto, la Inteligencia Artificial y los robots ya están cambiando nuestras vidas e irán sustituyendo progresivamente a los seres humanos en sus trabajos. Sin embargo, todavía tenemos la llave para controlar esta compleja tecnología que ya está implantada en muchas tareas de hoy en día. Uno de los procesos más importantes de la Inteligencia Artificial es el conocido como «machine learning«, que implica que un algoritmo de Inteligencia Artificial puede aprender y obtener conocimiento mientras se está ejecutando. La finalidad de esta tecnología es que la combinación de la robótica y de algoritmos de Inteligencia Artificial puedan tener las mismas o superiores cualidades cognitivas que un ser humano. Cuando nos referimos a redes neuronales profundas en máquinas, realmente hablamos de aprendizaje profundo, una de las claves en este proceso.
Mientras que los algoritmos tradicionales de aprendizaje automático los podemos considerar lineales, los algoritmos de aprendizaje profundo se agrupan en una jerarquía de creciente complejidad y abstracción. Para entender qué es el aprendizaje profundo, imaginemos un niño que la primera palabra que aprende es «gato». El niño aprende lo que es, y también lo que no es un gato, señalando distintos objetos y diciendo «gato», a lo que se le responde si es acertado o erróneo. Mientras el niño continúa apuntando a distintos objetos, se vuelve más consciente de las características que poseen todos los gatos que señala, a lo que sus padres le van diciendo si se equivoca o no. Poco a poco, el niño va construyendo una jerarquía en la que cada nivel de abstracción se crea con el conocimiento obtenido en la capa jerárquica anterior. Es decir, cuantos más gatos observa, más sabe lo qué es un gato. Este procedimiento del niño es equivalente a cuando cada algoritmo en la jerarquía aplica una transformación no lineal en su entrada, y utiliza lo que aprende para crear un modelo estadístico como salida. Las iteraciones continúan hasta que se alcanza un determinado nivel de precisión. Por ello un algoritmos de Inteligencia Artificial necesita millones de datos para aprender. Lo que se logra con el aprendizaje profundo es que el sistema tenga cada vez menos margen de error. Los algoritmos de Inteligencia Artificial se entrenan introduciendo una enorme cantidad de datos que, siguiendo ese proceso de repetición prueba-error, hace que finalmente el algoritmo sea muy preciso. Desde hace décadas que los científicos buscan crear una Inteligencia Artificial comparable o superior a la inteligencia humana. Un grupo de expertos del Instituto de Tecnología de California (Caltech ) ha iniciado un proyecto utilizando moléculas de ADN como elemento básico para un cerebro artificial. El prototipo consiste en una red equivalente a cuatro neuronas, que fue capaz de reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar diferentes acciones. El proyecto consiste en poner a punto un “cerebro artificial” que fuese capaz de recuperar recuerdos a partir de patrones parciales, de una manera parecida a como lo hace el cerebro humano. Lo que convierte al trabajo de los expertos del Instituto de Tecnología de California en algo especial es que su algoritmo de Inteligencia Artificial se trata de una red neuronal pequeña, equivalente de cuatro neuronas, construida a partir de moléculas de ADN. Este “cerebro artificial” se mantiene dentro de un tubo de ensayo y se comunica con el mundo exterior mediante señales químicas y marcadores fluorescentes.
Para construir esta red neuronal bioquímica, los científicos se basaron en un modelo de neuronas sencillo denominado “función de umbral lineal”. Básicamente, el modelo predice que cuando una neurona recibe determinadas señales químicas en sus entradas, espera a que traspasen un determinado umbral para activarse y producir determinadas señales en sus salidas. Los expertos del Instituto de Tecnología de California están especializados en ciencias computacionales y bioingeniería, y para probar las habilidades de su Inteligencia Artificial la sometieron a un “juego de adivinación”. Los sorprendentes resultados obtenidos con tan solo cuatro neuronas permite creer que si se elevase suficientemente su número, tal vez podría llegar a ser tan “inteligente” como los seres humanos. Esta pequeña red neuronal fue capaz de recuperar recuerdos a partir de patrones incompletos, de la misma forma que lo hace nuestro cerebro. Lulu Qian, investigadora del Instituto de Tecnología de California y principal autora del artículo que su equipo publicó en el último número de la revista Nature, dice que “este cerebro es increíble, capaz de reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar acciones diferentes”. Al comienzo de su trabajo, los investigadores se preguntaron si un grupo de moléculas en interacción podría llegar a exhibir un comportamiento “ordenado e inteligente”, similar al de un cerebro humano. Según Qian, y luego de haber culminado el experimento, la respuesta es un categórico “sí”. Cada una de las “neuronas” era un grupo de 112 hebras distintas de ADN, y la “red” estaba contenida en un tubo de ensayo. Para probar las habilidades de este pequeño cerebro artificial se practicó un juego que consistía en identificar a un científico determinado, entre estas opciones: Rosalind Franklin, Claude Shannon, Santiago Ramón y Cajal y Alan Turing. El cerebro artificial recibía datos tales como: “Nació en el siglo XX” o “Era británico”. Una vez que se introdujeron los datos en la red, el equipo de investigadores elegía un nombre al azar, y proporcionaba a la Inteligencia Artificial un conjunto incompleto de datos sobre el científico elegido. Para sorpresa de los investigadores, a partir de los datos proporcionados la red neuronal artificial fue capaz de “adivinar” en cuál de los cuatro científicos habían pensado los investigadores, todo ello utilizando 27 formas distintas de respuesta a las cuestiones, no fallando ninguna vez. Las “preguntas” se introducían en el tubo mediante hebras de ADN y la red proporcionaba sus respuestas a través de señales fluorescentes. Aunque aún estamos lejos de conseguir una Inteligencia Artificial capaz de competir con la inteligencia natural, estos experimentos nos permiten creer que dentro de no demasiado tiempo lograremos un “cerebro artificial” capaz de razonar suficientemente bien.
De todos modos tenemos al eminente físico Roger Penrose, que cree que seres mecánicos que puedan pensar y que posean conciencia humana son imposibles según las leyes de la teoría cuántica. El cerebro humano, afirma, está tan alejado de cualquier cosa que se pueda crear en el laboratorio, que crear robots con características humanas es un experimento condenado al fracaso. Argumenta que el principio de incertidumbre de Heisenberg demostrará que las máquinas son incapaces de alcanzar el pensamiento humano. No obstante, contradiciendo a Roger Penrose, muchos físicos e ingenieros creen que no hay nada en las leyes de la física que impida la creación de un verdadero robot inteligente. Por ejemplo, a Claude Shannon, conocido como el padre de la Teoría de la Información, se le preguntó una vez: «¿Pueden pensar las máquinas?». Su respuesta fue: «Por supuesto». Cuando se le pidió que clarificara ese comentario, dijo: «Yo pienso, ¿no es así?». En otras palabras, era obvio para él que las máquinas pueden pensar, ya que supone que los seres humanos en realidad somos máquinas, aunque hechas de material blando en lugar de material duro. Dadas las limitaciones de la aproximación de arriba-abajo de la inteligencia artificial, que implica crear previamente las reglas en que tiene que actuar un algoritmos de inteligencia artificial, se ha intentado utilizar en su lugar una aproximación de abajo-arriba, es decir, imitar la forma en que aprende un bebé. Los insectos, por ejemplo, no andan explorando su entorno y reduciendo la imagen a billones y billones de píxeles que procesan con superordenadores. En su lugar, los cerebros de los insectos están compuestos de «redes neurales», máquinas de aprendizaje que aprenden lentamente a navegar en un mundo hostil, enfrentándose al mismo y aprendiendo de esta experiencia. En el Massachusetts Institute of Technology (MIT) fue muy difícil crear robots andantes con la aproximación antes indicada de arriba-abajo. Sin embargo, sencillas criaturas mecánicas similares a insectos que se confrontan con su entorno y aprenden desde cero, de abajo-arriba, pueden correr sin problemas por el suelo del MIT.
Rodney Brooks, director del Laboratorio de Inteligencia Artificial del MIT, que se había distinguido por sus robots andantes diseñados de arriba- abajo, revolucionó este área cuando tuvo la idea de crear minúsculos robots que imitaban a insectos y que aprendían a caminar tropezando y dándose golpes con los obstáculos que encontrasen. En lugar de utilizar sofisticados programas informáticos para calcular matemáticamente la posición exacta de sus pies mientras caminaban, sus robots-insecto actuaban aprendiendo mediante prueba-error para coordinar los movimientos de sus patas, sin necesidad de utilizar mucha potencia de computación. Actualmente algunos descendientes de los robots-insecto de Rodney Brooks están en el ,planeta Marte recogiendo datos para la NASA, mientras se mueven por el paisaje marciano. Rodney Brooks cree que sus robots-insecto son ideales para explorar los planetas del sistema solar. Pero, pese a todos los éxitos en imitar el comportamiento de los insectos, los robots que utilizan redes neurales han tenido una actuación decepcionante cuando se ha tratado de reproducir en ellos el comportamiento de organismos superiores, tales como el de mamíferos. El robot más avanzado que utiliza redes neurales puede caminar por la habitación o nadar en una piscina, pero todavía no puede saltar y cazar como un tigre, o corretear por el suelo como un ratón. En la actualidad los robots con redes neurales pueden llegar a tener hasta centenas de «neuronas», mientras que el cerebro humano tiene más de 100.000 millones de neuronas. Sin embargo, el minúsculo gusano Caenorhabditis elegans, cuyo sistema nervioso ha sido completamente cartografiado por los biólogos, tiene unas 300 neuronas, lo que hace de este organismo uno de los más simples encontrados en la naturaleza. Pero, no obstante, hay más de 7000 sinapsis entre dichas neuronas. Por ello, aunque parece muy simple, en realidad es suficientemente complejo para que nadie haya sido todavía capaz de construir un modelo de ordenador de su cerebro.
Es realmente curioso que determinadas máquinas puedan realizar sin esfuerzo tareas que los seres humanos consideran complejas, tales como multiplicar números grandes o jugar al ajedrez, pero, por contra, estas máquinas ya no son tan eficientes cuando se les pide que realicen tareas que se consideran muy fáciles para los seres humanos, tales como caminar por una habitación, reconocer rostros o chatear con un amigo. La razón es que nuestros ordenadores más avanzados todavía son básicamente máquinas de sumar. mientras que nuestro cerebro está diseñado para resolver los problemas normales ligados a la supervivencia, lo que requiere toda una compleja arquitectura de pensamiento, tal como el sentido común y el reconocimiento de pautas. Marvin Minsky del MIT, uno de los fundadores de la Inteligencia Artificial, resume los problemas encontrados: «La historia de la IA es algo divertida porque los primeros logros reales eran cosas bellas, como una máquina que podía hacer demostraciones en lógica o seguir un curso de cálculo infinitesimal. Pero luego empezamos a tratar de hacer máquinas que pudieran responder preguntas acerca de las historias sencillas que hay en un libro de lectura de primer curso. No hay ninguna máquina que pueda hacerlo». Algunos creen que con el tiempo habrá una gran síntesis entre las dos aproximaciones, la de arriba abajo y la de abajo arriba, que quizá proporcione la clave para tener inteligencia artificial y robots similares a humanos. Después de todo, cuando un niño aprende, aunque primero se basa principalmente en la aproximación de abajo arriba, dándose con su entorno, al final recibe instrucción de padres, libros y maestros de escuela, y aprende mediante una aproximación de arriba abajo. Cuando somos adultos mezclamos constantemente estas dos aproximaciones. Un cocinero, por ejemplo, lee una receta, pero también prueba diversas veces el plato que está cocinando, en un ejercicio de prueba-error. Según Hans Moravec, investigador en robótica en la Carnegie Mellon University, nos dice que habrá máquinas plenamente inteligentes cuando unamos las dos aproximaciones. Y este es el camino que parece se está siguiendo.
Un tema recurrente en ciencia-ficción es el ser mecánico, como el Hombre de Hojalata en El mago de Oz, que anhela convertirse en humano y que desea sentir todos los placeres emocionales de un ser humano. Algunos han sugerido incluso que nuestras emociones representan la máxima expresión de lo que se significa ser humano. Algunos afirman que ninguna máquina llegará a ser capaz de admirarse ante un hermoso paisaje o una pieza musical. En resumen, que será imposible que las máquinas tengan emociones, puesto que las emociones representan la cima del desarrollo humano. Pero para algunos científicos que trabajan en Inteligencia Artificial consideran que las emociones no son la esencia de la humanidad, sino que realmente son un resultado de la evolución. En realidad las emociones nos ayudaron a sobrevivir en el bosque, e incluso actualmente nos ayudan a evitar los peligros. Por ejemplo, «tener gusto» por algo implica hacer una distinción entre lo que puede ayudarnos frente a lo que podría dañarnos. Asimismo, la vergüenza y el remordimiento son importantes porque nos ayudan a aprender las habilidades de socialización necesarias para funcionar en una sociedad cooperativa. Si nunca decimos que lo sentimos, tal vez seremos expulsados de la «tribu«, lo que disminuye nuestras probabilidades de supervivencia y de transmisión de nuestros genes. Todo indica que cuando los robots estén más avanzados, también ellos podrían estar dotados de emociones. El experto en ordenadores Hans Moravec cree que los robots estarán programados con emociones tales como el «miedo» para protegerse a sí mismos. Por ejemplo, si las baterías de un robot se están agotando, el robot «expresaría» agitación con signos que los humanos puedan reconocer. Las emociones son vitales también en la toma de decisiones. Las personas que han sufrido cierto tipo de lesión cerebral carecen de la capacidad de experimentar emociones. Su capacidad de razonamiento está intacta, pero no pueden expresar sus sentimientos. El neurólogo Antonio Damasio, de la Facultad de Medicina de la Universidad de Iowa, que ha estudiado personas con este tipo de lesiones cerebrales, concluye que ellas parecen «saber, pero no sentir». El doctor Damasio ha encontrado que tales individuos suelen estar paralizados para tomar las más pequeñas decisiones. Sin emociones que les guíen, debaten incesantemente sobre esta opción o esa otra, lo que les lleva a una indecisión total.
Los científicos creen que las emociones se procesan en el «sistema límbico», que está involucrado, junto con otras estructuras más allá de sus límites, en la formación de la memoria, el control de las emociones, las motivaciones, diversos aspectos de la conducta, la iniciativa, la supervivencia del individuo y el aprendizaje. Está situado en el centro profundo de nuestro cerebro. Cuando alguien sufre de una pérdida de comunicación entre el neocórtex, que gobierna el pensamiento racional, y el sistema límbico, su capacidad de razonamiento está intacta pero no siente emociones que le guíen en la toma de decisiones. A veces tenemos lo que llamamos una «reacción visceral» que impulsa nuestra toma de decisiones. Las personas con lesiones que afectan a la comunicación entre las partes racional y emocional del cerebro no poseen esta capacidad. Por ejemplo, para personas con ese tipo de lesión cerebral, comprar puede ser muy complicado, porque para ellos todo parece tener el mismo valor. Cuando se consigan que los robots se hagan más inteligentes y sean capaces de hacer elecciones por sí mismos, también podrían llegar a paralizarse con indecisiones, al igual que los seres humanos. Para ello los robots del futuro quizá necesiten emociones para fijar objetivos y dar significado y estructura su «vida artificial», o de lo contrario se encontrarán paralizados ante múltiple posibilidades. Pero, ¿los robots llegaran a ser conscientes? No hay consenso sobre si las máquinas pueden ser conscientes, y ni siquiera hay consenso sobre lo que significa conciencia. Marvin Minsky, considerado uno de los padres de la inteligencia artificial, describe la conciencia como el proceso de pensamiento en nuestro cerebro que no está localizado sino disperso, con diferentes centros, o «mentes«, compitiendo entre sí en un momento dado. En base a ello, podemos considerar la conciencia como una secuencia de pensamientos e imágenes que salen de estas diferentes «mentes» más pequeñas, cada una de las cuales compite por captar nuestra atención. Según Marvin Minsky, la investigación en Inteligencia Artificial ha estado sufriendo de «envidia de la física». En física, el objetivo ha sido encontrar una simple ecuación que unifique las fuerzas en el universo en una única teoría, creando una «teoría del todo». Mientras tanto, los investigadores en Inteligencia Artificial, muy influidos por esta idea, han tratado de encontrar un único paradigma que explicara la conciencia. Pero, según Minsky, quizá dicho paradigma único no exista.
Por ejemplo, los animales pueden ser conscientes, pero probablemente no poseen el nivel de conciencia de un ser humano. Por lo tanto, habría que tratar de clasificar los diversos tipos de conciencia. En el futuro, robots avanzados podrían borrar la diferencia entre sintaxis y semántica, de modo que sus respuestas serían indistinguibles de las respuestas de un ser humano. Si es así, la cuestión de si en realidad «entienden» una determinada pregunta sería irrelevante. Para cualquier fin práctico, un robot que domine la sintaxis realmente entiende lo que se está diciendo. Ello nos lleva a considerar que un dominio perfecto de la sintaxis representa entendimiento. Como soporte de la inteligencia artificial y la robótica los físicos están trabajando en la tecnología post-silicio que dominará el mundo de los ordenadores en el inmediato futuro, Se están estudiando varias tecnologías que pueden reemplazar eventualmente a la tecnología del silicio, incluidos los ordenadores cuánticos, los de ADN, los ópticos, los atómicos y otros. Pero cada una de dichas tecnologías se enfrenta a enormes obstáculos antes de que pueda reemplazar a los chips de silicio. Manipular al nivel de átomos y moléculas individuales es una tecnología que aún está en sus inicios, de modo que hacer miles de millones de transistores de tamaño atómico está todavía en su fase inicial. Pero si los físicos son capaces de cubrir el gap entre los chips de silicio y los ordenadores cuánticos, entonces la inteligencia artificial en todo su esplendor podría convertirse en una realidad. En ese momento los robots, dotados de inteligencia artificial, podrían dominar la lógica y las emociones humanas. Esto plantea otra cuestión: ¿podrían ser peligrosos estos robots inteligentes? Probablemente podrían llegar a ser peligrosos una vez que tuviesen la inteligencia de un primate, siendo autoconscientes. Arthur C. Clarke, escritor y científico británico, autor de obras de divulgación científica y de ciencia ficción, escribió: «Es posible que nos convirtamos en mascotas de los ordenadores, llevando una cómoda existencia como un perrillo, pero confío en que siempre conservaremos la capacidad de tirar del enchufe si nos sentimos así». Evidentemente estaba hablando de la conjunción de robots e inteligencia artificial.
¿Llegarán los ordenadores, como conjunto de robots e inteligencia artificial, a superarnos en inteligencia? Debemos decir que no hay nada en las leyes de la física que lo impida. Si los robots son redes neuronales capaces de aprender y evolucionan hasta el punto en que puedan aprender de forma más rápida y eficiente que los seres humanos, entonces es muy probable que puedan superarnos en capacidad de razonamiento. Hans Moravec, investigador de robótica en la Carnegie Mellon University, conocido por sus escritos sobre robótica, inteligencia artificial y sobre el impacto de la tecnología en la sociedad, nos dice: «El mundo posbiológico es un mundo en el que la raza humana ha sido barrida por la marea del cambio cultural, usurpado por su propia progenie artificial. […] Cuando esto suceda, nuestro ADN se encontrará en paro, tras haber perdido la carrera evolutiva en un nuevo tipo de competición». Raymond Kurzweil, inventor estadounidense y científico especializado en Ciencias de la Computación e Inteligencia Artificial, junto con otros investigadores, ha predicho que ese momento llegará pronto, incluso en las próximas décadas. Quizá ya estemos creando a nuestros sucesores en la evolución. Algunos científicos de la computación ya hablan de un momento, al que llaman «singularidad», cuando los robots sean capaces de procesar información con rapidez exponencial, siendo capaces de crear nuevos robots, hasta que su capacidad colectiva para absorber información avance casi sin límite. Según algunos científicos, quizá la solución esté en fusionarnos con nuestras creaciones, los robots, siendo parcialmente orgánicos y parcialmente artificiales, o sea cyborgs, con lo que probablemente podríamos soportar los rigores de los viajes espaciales y adaptarnos a entornos hostiles. Y, yendo más lejos, tal vez los robots o los cyborgs humanoides pueden incluso tener el don de la inmortalidad. Marvin Minsky nos dice: «¿Qué pasa si el Sol muere, o si destruimos el planeta? ¿Por qué no hacer mejores físicos, ingenieros o matemáticos? Quizá tengamos que ser los arquitectos de nuestro propio futuro. Si no lo hacemos, nuestra cultura podría desaparecer». Hans Moravec concibe un tiempo en el futuro lejano en el que nuestra arquitectura neuronal será transferida, neurona por neurona, directamente a una máquina, lo que en realidad nos daría una cierta inmortalidad. De esta manera, según algunos científicos, en un futuro lejano podría alcanzarse la inmortalidad en la forma de cuerpos mejorados en sus ADN y con componentes artificiales, lo que, tal vez, pueda ser el destino final de la humanidad. La idea de crear máquinas pensantes que sean tan inteligentes como los animales, y quizá tan o más inteligentes que nosotros, puede ser una realidad dentro de este siglo.
Como antes nos hemos referido a seres de otras dimensiones, tal vez valga la pena hablar de ello. En realidad, ¿qué podemos decir sobre las dimensiones superiores a las del espacio tridimensional y del tiempo en que estamos encerrados? La existencia de mundos paralelos u otras dimensiones ha dado lugar a múltiples especulaciones esotéricas. Una de las preguntas recurrentes es si las almas de los seres que murieron fueron realmente a otras dimensiones. El filósofo británico del siglo XVII Henry More argumentaba que los fantasmas y los espíritus existían realmente y afirmó que habitaban en la cuarta dimensión espacial, a la que yo me refiero como quinta dimensión para distinguirla de la cuarta dimensión temporal. En el Enchiridion Metaphysicum, escrito en el 1671, Henry More consideró la existencia de otro reino más allá de nuestros sentidos tangibles que serviría de hogar a fantasmas y espíritus. Algunos autores se han aventurado a escribir libros donde hablan profusamente sobre hadas, duendes y gnomos, considerando que son una civilización que cohabita en un mundo paralelo al nuestro o en otra dimensión. Los teólogos del siglo XIX, en su interés por localizar el cielo y el infierno discutieron si podrían encontrarse en una dimensión más alta. Algunos escribieron sobre un universo que constaba de tres planos paralelos, constituido por la Tierra, el Cielo y el Infierno. El propio Dios, o tal vez el Gran Arquitecto del Universo masón, según el teólogo británico del siglo XIX Arthur Willink, «vivía» en un espacio de dimensión infinita, lo que estaría por encima de las dimensiones que reconoce actualmente la Física. ¿Se refería quizás a la décima dimensión? El interés en las dimensiones más altas alcanzó su culminación entre 1870 y 1920, cuando la llamada «cuarta dimensión», una dimensión espacial, diferente de la que conocemos como la cuarta dimensión del tiempo, y que yo prefiero nombrar «quinta dimensión», se introdujo en todas las ramas de las artes y las ciencias. La cuarta dimensión espacial (o quinta dimensión) apareció en las obras literarias de Oscar Wilde, Fedor Dostoievski, Marcel Proust, H. G. Wells y Joseph Conrad. En su conocida novela de ciencia ficción La máquina del tiempo (1895), el escritor británico Herbert George Wells (1866-1946) hablaba de la cuarta dimensión entendida como el tiempo, a través del cual se podía viajar.
En 1896, en la revista New Review, Wells publicó un relato corto titulado La historia de Plattner, en el que aparece la cuarta dimensión espacial (quinta dimensión). El protagonista es Gottfried Plattner, profesor en la Sussexville Proprietary School, donde se encarga de enseñar las lenguas modernas. También debe ocuparse de la docencia de otras materias, como química, geografía económica, contabilidad, taquigrafía, dibujo y cualquier otra que se le encomiende, aunque sepa poco de ellas. Plattner es especialmente inexperto en química. Uno de sus alumnos le lleva un polvo verdoso para que lo analice y sucede un accidente. Ante la sorpresa de los estudiantes, Plattner desaparece sin dejar huella. Pero al cabo de unos días Plattner regresa súbitamente, ‘cayendo’ desde algún lugar, tras escucharse un ruido violento y producirse un relámpago. El profesor desaparecido desconoce lo que ha sucedido, ya que ha permanecido, en contra de su voluntad, en ‘otro lugar’. Pero, al mismo tiempo, según sus declaraciones, podía ver lo que hacían las personas de ‘nuestro mundo’, como si fuera espectador de una película. A inicios del siglo XX algunos importantes matemáticos comenzaron a especular con la existencia de una cuarta dimensión espacial (quinta dimensión). Sería una dimensión que, además, podría explicar la desaparición brusca de objetos y personas desde este mundo. Cada vez es mayor el número de físicos que se inclinan a aceptar la posible existencia de otras dimensiones o del hiperespacio, que estarían más allá del espacio en el que vivimos, aunque serían inaccesibles o invisibles entre ellas. La posible existencia de estas dimensiones ha cautivado a filósofos y teólogos a la hora de establecer todo tipo de hipótesis, incluida la de que algunas de estas dimensiones pudieran estar temporalmente comunicadas entre ellas. El problema es poder analizar si realmente hay diferentes dimensiones inaccesibles entre sí. Una hipótesis considera que se accede a estas dimensiones durante estados mentales alterados. Los físicos, hoy en día, han desarrollado teorías acerca de los agujeros negros y la antimateria, así como sobre cómo ciertas entidades subatómicas se relacionan con otras dimensiones. El hecho de que pudieran existir otras dimensiones podría dar explicación, entre otras cosas, a la supuesta habilidad para desplazarse fuera del cuerpo y ver cosas que suceden en otras estancias, en ocasiones a kilómetros de donde está ocurriendo, por ejemplo, en una experiencia cercana a la muerte (ECM). A este respecto, las recientes teorías de la Física en relación a las supercuerdas podrían predecir la existencia de otras dimensiones que normalmente no podemos percibir.
Y ahora trataremos el tema del ADN, que consideramos un ejemplo de algoritmo supersofisticado, que es como la guía arquitectónica de la construcción del cuerpo humano, hasta sus más pequeños detalles, y que podríamos asimilar, en cierta manera, a los algoritmos de Inteligencia Artificial. Las teorías sobre el origen de la vida implican el conocimiento de los atributos de las células vivas. Según el historiador de la biología Harmke Kamminga, “en el corazón del problema del origen de la vida hay una cuestión fundamental: ¿De qué, exactamente, estamos intentado explicar el origen?”. O, como afirma el pionero de la química evolutiva Alexander Oparin, “el problema de la naturaleza de la vida y el problema de su origen se han vuelto inseparables”. Y los biólogos moleculares se refieren al ADN, al ARN y a las proteínas como los auténticos portadores de esta “información”. Como ha dicho Bernd Olaf Kuppers, profesor de filosofía de la naturaleza: “claramente, el problema del origen de la vida equivale básicamente al problema del origen de la información biológica”. La única opinión conocida de Darwin sobre el origen de la vida se encuentra en una carta dirigida a Joseph Hooker, botánico británico. En ella dibuja las líneas maestras de la química evolutiva, a saber, que la vida podría haber surgido primero a partir de una serie de reacciones químicas. Tal y como él escribió, “si pudiéramos creer en algún tipo de pequeño charco caliente, con toda clase de amonios, sales fosfóricas, luz, calor y electricidad, etc, presentes, de modo que un compuesto proteico se formara químicamente listo para someterse a cambios aún más complejos…”. El resto de la frase es ilegible, si bien deja bastante claro que Darwin concibió los principios de la química evolutiva naturalista. Después de que Darwin publicara su obra maestra El Origen de las Especies, muchos científicos comenzaron a pensar en los problemas que Darwin todavía no había resuelto. Aunque la teoría de Darwin pretendía explicar cómo se había hecho más compleja la vida a partir de “una o unas pocas formas simples”, no explicaba ni tampoco intentaba explicar cómo se había originado la vida. Sin embargo, a finales del siglo XIX, algunos biólogos evolutivos como Ernst Haeckel y Thomas Huxley suponían que encontrar una explicación para el origen de la vida sería bastante fácil, en gran parte porque Haeckel y Huxley creían que la vida era, en esencia, una sustancia química simple llamada “protoplasma” que podía ser fácilmente elaborada mediante la combinación y recombinación de reactivos simples como el dióxido de carbono, el oxígeno y el nitrógeno. Durante los siguientes años, los biólogos y los bioquímicos revisaron su concepción de la naturaleza de la vida. Durante el siglo XIX los biólogos, como Haeckel, vieron la célula como un glóbulo de plasma homogéneo e indiferenciado.
Sin embargo, ya en el siglo XX la mayoría de los biólogos veían las células como un sistema metabólico complejo. Las teorías del origen de la vida reflejaron esta creciente visión de la complejidad celular. Mientras que las teorías decimonónicas concebían la vida como algo surgido casi instantáneamente a través de uno o dos pasos de un proceso de “autogenia” química, las teorías de comienzos del siglo XX concebían un proceso de varios billones de años de transformación desde los reactivos simples hasta los sistemas metabólicos complejos. Durante la primera mitad del siglo XX, los bioquímicos habían reconocido el papel central de las proteínas en el mantenimiento de la vida. Aunque muchos creyeron erróneamente que las proteínas contenían también la información hereditaria, los biólogos subestimaron la complejidad de las proteínas. Sin embargo, a partir de mediados del siglo XX, una serie de descubrimientos provocó un cambio en esta visión simplista de las proteínas. El bioquímico Fred Sanger determinó la estructura molecular de la insulina y demostró que consistía en una secuencia larga e irregular de los diferentes tipos de aminoácidos. Su trabajo mostró para una sola proteína lo que sucesivos trabajos demostrarían que era la norma: la secuencia de aminoácidos de las proteínas funcionales se caracteriza por su complejidad. Los trabajos del químico inglés John Kendrew sobre la estructura de la mioglobina demostraron que las proteínas también mostraban una sorprendente complejidad tridimensional. Lejos de ser las estructuras simples que los biólogos habían imaginado anteriormente, apareció una forma tridimensional e irregular extraordinariamente compleja. E incluso actualmente se especula con que en realidad se trata de una estructura multidimensional, con varias dimensiones no “observables”. Durante gran parte del siglo XX, los investigadores subestimaron ampliamente la complejidad y el significado de ácidos nucleicos, como el ADN o el ARN. Por entonces, los científicos conocían la composición química del ADN. Los biólogos y los químicos sabían que además de azúcar y fosfatos, el ADN se componía de cuatro bases diferentes, llamadas adenina, timina, guanina y citosina. El descubrimiento de la estructura tridimensional del ADN por Watson y Crick en 1953 dejó claro que el ADN podía funcionar como portador de la información hereditaria.
El modelo propuesto por Watson y Crick concebía una estructura de doble hélice para explicar la forma de cruz de Malta de los patrones obtenidos por los estudios del ADN realizados por Franklin, Wilkins y Bragg a comienzos de la década de 1950 mediante cristalografía de rayos X. Tal y como explicaron Watson y Crick, “el esqueleto de azúcar-fosfato de nuestro modelo es completamente regular pero cualquier secuencia de pares de bases puede encajar en nuestra estructuras. De aquí se sigue que en una larga molécula son posibles muchas permutaciones diferentes y, por lo tanto, parece posible que la secuencia precisa de bases sea el código portador de la información genética”. Tal y como sucedió con las proteínas, los sucesivos descubrimientos pronto demostraron que las secuencias de ADN no solo eran muy complejas sino también altamente específicas en lo relativo a sus requerimientos biológico-funcionales. El descubrimiento de la complejidad y la especificidad de las proteínas habían llevado a los investigadores a sospechar un papel funcional específico para el ADN. Los biólogos moleculares se iban percatando de que las proteínas eran demasiado complejas y específicas para surgir por azar. Además, dada su irregularidad, parecía imposible que una ley química general o una regularidad pudiese explicar su ensamblaje. En su lugar, como ha recordado el biólogo y bioquímico francés Jacques-Lucien Monod, los biólogos moleculares comenzaron a buscar una fuente de información o de “especificidad” en el interior de la célula, que pudiera dirigir la construcción de estructuras tan complejas y tan altamente específicas. Para explicar la presencia de la especificidad y complejidad en la proteína, tal y como más tarde insistiría Monod, “necesitabais en todo caso un código”. La estructura del ADN descubierta por Watson y Crick sugería un medio por el que la información o la especificidad podían codificarse a lo largo de la espiral del esqueleto de azúcar-fosfato. Según la hipótesis de secuencia de Crick, la especificidad en el ordenamiento de los aminoácidos en la proteína deriva de la especificidad en el ordenamiento de las bases nucleotídicas en la molécula de ADN. La hipótesis de secuencia sugería que las bases nucleotídicas en el ADN funcionaban como letras de un alfabeto o caracteres en una máquina de codificar. Del mismo modo como las letras de un alfabeto en un lenguaje escrito pueden realizar la función de comunicación dependiendo de su secuencia, las bases nucleotídicas del ADN igualmente podrían originar la producción de una molécula funcional de proteína dependiendo de su preciso ordenamiento secuencial. En ambos casos, la función depende de manera crucial de la secuencia. La hipótesis de secuencia implicaba no solo la complejidad sino también la funcionalidad específica de las bases de la secuencia de ADN.
La ausencia de predecibilidad hace que el concepto de información sea teóricamente superfluo para la biología molecular. En cambio, lo impredecible muestra que la especificidad de secuencia de las bases del ADN constituye condición necesaria, pero no suficiente, para lograr el plegamiento proteico, es decir, el ADN contiene información específica, pero no la suficiente para determinar por sí misma el plegamiento de la proteína. La presencia de un sistema de procesamiento de la información, complejo y funcionalmente integrado, sugiere efectivamente que la información de la molécula de ADN es insuficiente para producir la proteína. Ello no demuestra que tal información sea innecesaria para producir las proteínas, ni invalida la afirmación de que el ADN almacena y transmite información genética específica. Desde el comienzo de la revolución de la biología molecular, los biólogos asignaron al ADN, al ARN y a las proteínas la propiedad de transportar información. En la jerga de la biología molecular, la secuencia de bases del ADN contiene la “información genética” o las “instrucciones de ensamblaje” necesarias para dirigir la síntesis de proteínas. Sin embargo, el término información puede denotar varios conceptos teóricamente diferentes. Así, se puede preguntar en qué sentido se aplica “información” a estas grandes macromoléculas. Veremos que los biólogos moleculares emplean un concepto de la información más fuerte que el que emplean los matemáticos y los teóricos de la información y una concepción del término ligeramente más débil que el que emplean los lingüistas y los usuarios ordinarios. La teoría de la información de Shannon ayudó a refinar la comprensión biológica de una característica importante de los componentes biomoleculares cruciales de los que depende la vida: el ADN y las proteínas son altamente complejas y cuantificables. La teoría de la información ayudó a establecer que el ADN y las proteínas podían llevar grandes cantidades de información funcional; no a establecer si realmente lo hacían. Los biólogos moleculares como Monod y Crick entendían la información, almacenada en el ADN y las proteínas, como algo más que la mera complejidad o improbabilidad. En realidad, su idea de información asociaba con las secuencias de ADN tanto la contingencia bioquímica como la complejidad combinatoria. Los avances de la teoría de la complejidad han hecho posible una explicación general plenamente teórica de la especificación, que se aplica fácilmente a los sistemas biológicos.
Las regiones codificantes del ADN funcionan de manera muy parecida a un programa de software o al código de una máquina, dirigiendo operaciones dentro de un sistema material complejo a través de secuencias de caracteres altamente complejas y sin embargo específicas. Como ha señalado Richard Dawkins “el código de máquina de los genes es increíblemente parecido al de una computadora”. O como ha notado Bill Gates, “el ADN es como un programa de computadora pero mucho, mucho más avanzado que ninguno que hayamos creado”. Del mismo modo que con el ordenamiento específico de dos símbolos (0 y 1) en un programa de ordenador se puede realizar una función en un entorno de máquina, también la secuencia precisa de las cuatro bases del ADN pueden realizar una función dentro de la célula. Como sucede en el código de máquina de una computadora, la especificidad de secuencia del ADN sucede dentro de un dominio sintáctico. Así, el ADN contiene información tanto sintáctica como específica. En cualquier caso, desde los últimos años, el concepto de información, tal y como lo emplean los biólogos moleculares, ha fusionado las nociones de complejidad o improbabilidad y especificidad de función. Los constituyentes biomoleculares cruciales de los organismos vivos contienen no solo información sintáctica sino también “información específica”. Por tanto, la información biológica así definida constituye una característica principal de los sistemas vivos cuyo origen debe explicar cualquier modelo acerca del origen de la vida. Los descubrimientos de los biólogos moleculares suscitaron la pregunta por el origen último de la complejidad específica o información específica tanto en el ADN como en las proteínas. Por lo menos desde mediados de la década de 1960, muchos científicos han considerado el origen de la información como la cuestión central con que se enfrentaba la biología del origen de la vida. Desde que los biólogos moleculares comenzaron a apreciar la especificidad de secuencia de proteínas y ácidos nucleicos, se han realizado muchos cálculos para determinar la probabilidad de formular proteínas y ácidos nucleicos funcionales. Tales cálculos han mostrado invariablemente que la probabilidad de obtener biomacromoléculas secuenciadas funcionales al azar es “infinitamente pequeña… incluso en la escala de billones de años”.
Deben tenerse en cuenta las dificultades probabilísticas que deben superarse para construir incluso una proteína corta de 100 aminoácidos de longitud. (Una proteína típica consiste en unos 300 y muchas proteínas importantes son más largas). Todos los aminoácidos deben formar un enlace químico conocido como enlace peptídico al unirse a otros aminoácidos de la cadena proteica. Sin embargo, en la naturaleza son posibles otros muchos tipos de enlace químico entre aminoácidos. Así, dado un sitio cualquiera de la cadena de aminoácidos en crecimiento, la probabilidad de obtener un enlace peptídico es aproximadamente ½. La probabilidad de obtener cuatro enlaces peptídicos es (½ x ½ x ½ x ½) = 1/16. La probabilidad de construir una cadena de 100 aminoácidos en la cual todos los enlaces impliquen enlaces peptídicos es de aproximadamente 1 en 1030. Pero todos los aminoácidos que se encuentran en las proteínas tienen una imagen especular diferente de sí mismos, una versión orientada a la izquierda y una orientada a la derecha. Las proteínas funcionales solo admiten aminoácidos orientados a la izquierda. Sin embargo tanto los orientados a la derecha como los orientados a la izquierda se originan en las reacciones químicas productoras de aminoácidos con aproximadamente la misma probabilidad. Esto aumenta la improbabilidad de obtener una proteína biológicamente funcional. La probabilidad de obtener al azar solo aminoácidos orientados a la izquierda en una cadena peptídica hipotética de 100 aminoácidos de longitud es de aproximadamente 1 en 1030. Partiendo de mezclas de formas a la derecha y a la izquierda, la probabilidad de construir al azar una cadena de 100 aminoácidos de longitud en la que todos los enlaces sean enlaces peptídicos y todos los aminoácidos sean formas a la izquierda es de 1 en 1060.
Pero las proteínas funcionales tienen un tercer requisito independiente, el más importante de todos; sus aminoácidos deben enlazarse en un ordenamiento específico secuencial, tal y como deben hacerlo las letras en una frase con significado. En algunos casos, incluso el cambio de un aminoácido en un determinado lugar provoca la pérdida de funcionalidad en la proteína. Además, debido a que biológicamente se dan veinte aminoácidos, la probabilidad de obtener un determinado aminoácido en un sitio determinado es pequeña: 1/20. Y la probabilidad de lograr todas las condiciones de función necesarias para una proteína de 150 aminoácidos de longitud excede de 1 en 10180. Como ha dicho el divulgador científico Richard Dawkins, “podemos aceptar cierta cantidad de suerte en nuestras explicaciones pero no demasiada”. Lógicamente, la afirmación de Dawkins da por sentada una cuestión cuantitativa, a saber, “¿cómo de improbable tiene que ser un suceso, una secuencia o un sistema para que la hipótesis del azar pueda ser razonablemente eliminada?”. El matemático estadounidense William Albert Dembski calcula una estimación conservadora del “límite de probabilidad universal” en 1 en 10150, que corresponde a los recursos probabilísticos del universo conocido. Este número proporciona la base teórica para excluir las apelaciones al azar como la mejor explicación de sucesos específicos de probabilidad menores. Dembski contesta la pregunta de cuanta suerte, para un caso determinado, puede invocarse como explicación. De manera significativa, la improbabilidad de construir y secuenciar incluso una proteína funcional corta se acerca a este límite de probabilidad universal, que es el punto en el que las apelaciones al azar se convierten en absurdas dados los “recursos probabilísticos” de todo el universo. Además, haciendo el mismo tipo de cálculo para proteínas moderadamente largas lleva estas mediciones bastante más allá del límite. Así, supuesta la complejidad de las proteínas, es extremadamente imposible que una búsqueda aleatoria en el espacio de secuencias de aminoácidos posibles, desde el punto de vista combinatorio, pudiera generar incluso una proteína funcional relativamente corta en el tiempo disponible desde el comienzo del universo (y menos desde el origen de la Tierra). Por el contrario, para tener una posibilidad razonable de encontrar una proteína funcional corta en una búsqueda al azar del espacio combinatorio requeriría enormemente más tiempo del que permiten la geología o la cosmología.
Cálculos más realistas solo aumentan estas improbabilidades, incluso más allá de lo computable. Por ejemplo, recientes trabajos experimentales y teóricos sobre la denominada complejidad mínima requerida para mantener el organismo viviente más simple posible sugieren un límite inferior de entre 250 y 400 genes y sus correspondientes proteínas. El espacio de secuencias de nucleótidos correspondiente a este sistema de proteínas excede de 4 300.000. La improbabilidad que corresponde a esta medida de complejidad molecular de nuevo excede enormemente de los “recursos probabilísticos” de todo el universo. Cuando se considera todo el complemento de biomoléculas funcionales requerida para mantener la mínima función celular y la vitalidad, puede verse las razones por las que las teorías sobre el origen de la vida basadas en el azar han sido abandonadas por los científicos. El citólogo y bioquímico inglés Christian de Duve y otros investigadores han reconocido hace tiempo que la célula representa no solo un sistema altamente improbable sino también un sistema funcionalmente específico. Por esta razón, a mediados de la década de 1960, la mayoría de los investigadores habían eliminado el azar como explicación plausible del origen de la información específica necesaria para construir una célula. En cambio muchos han buscado otros tipos de explicación naturalista. A mediados del siglo XX, John von Neumann demostró que todo sistema capaz de autoreplicarse requeriría subsistemas que fueran funcionalmente equivalentes a los sistemas de almacenamiento, reinformación, replicación y procesado de las células existentes. Sus cálculos establecieron un umbral mínimo muy alto para la función biológica, del mismo modo que haría más tarde en un trabajo experimental. Estos requerimientos de complejidad mínima plantean una dificultad fundamental para la selección natural. La selección natural selecciona ventajas funcionales. Por tanto, no puede jugar ningún papel hasta que las variaciones aleatorias produzcan algún ordenamiento biológicamente ventajoso de importancia.
Sin embargo, los cálculos de John von Neumann y otros similares de Wigner, Landsberg y Morowitz demostraron que con toda probabilidad las fluctuaciones aleatorias de moléculas no producirían la complejidad mínima necesaria para un sistema de replicación primitivo. La improbabilidad de desarrollar un sistema de replicación funcionalmente integrado excede enormemente la de desarrollar los componentes proteicos o de ADN de estos sistemas. Dada la gigantesca improbabilidad y el elevado umbral funcional que implica, muchos investigadores de origen de la vida han acabado considerando la selección natural prebiótica inadecuada y esencialmente indistinguible de las invocaciones al azar. Para muchos científicos los modelos autoorganizativos parecen representar ahora el enfoque más prometedor para explicar el origen de la información biológica específica. Se sabe que la estructura del ADN depende de varios enlaces químicos. Por ejemplo, hay enlaces entre el azúcar y las moléculas de fosfato que forman los dos esqueletos contorsionados de la molécula de ADN. Hay enlaces que fijan las bases (los nucleótidos) al esqueleto de azúcar-fosfato a cada lado de la molécula. Hay también enlaces de hidrógeno horizontales a lo largo de la molécula entre las bases de nucleótidos, originando así las denominadas bases complementarias. Los enlaces de hidrógeno individualmente débiles, que en su conjunto mantienen juntas las dos copias complementarias de ADN, hacen posible la replicación de las instrucciones genéticas. Sin embargo, es importante notar que no hay enlaces químicos entre las bases a lo largo del eje longitudinal en el centro de la hélice. Sin embargo, es precisamente a lo largo de este eje de la molécula de ADN donde se almacena la información genética. Además, del mismo modo que letras magnéticas pueden ordenarse y reordenarse de cualquier manera sobre la superficie de un metal para formar varias secuencias, así también cada una de las cuatro bases –A, T, G y C- se unen a cualquier posición del esqueleto de ADN con igual facilidad, haciendo todas las secuencias igualmente probables (o improbables). Por lo indicado, las afinidades de enlace “autoorganizativas” no pueden explicar los ordenamientos secuencialmente específicos de las bases de nucleótidos del ADN, porque no hay enlaces entre las bases a lo largo del eje molecular que contiene la información y no hay afinidades diferenciales entre el esqueleto y las bases específicas que pudieran explicar las variaciones de secuencia. Debido a que esto mismo es válido para las moléculas de ARN, los investigadores que especulan que la vida comenzó en un mundo de ARN no han podido resolver el problema de cómo la información de las moléculas funcionales de ARN pudo surgir por vez primera.
Para los que quieren explicar el origen de la vida como resultado de propiedades de autoorganización intrínsecas de los materiales que constituyen los sistemas vivientes, estos hechos bastante elementales de la biología molecular tienen implicaciones decisivas. El lugar más obvio para buscar propiedades de autoorganización para explicar el origen de la información genética son las partes constituyentes de las moléculas que llevan la información. Pero la bioquímica y la biología molecular dejan claro que las fuerzas de atracción entre los componentes de ADN, ARN y proteínas no explican la especificidad de secuencia de estas grandes moléculas transportadoras de información. Como ha dicho Christian de Duve: “los procesos que generaron la vida fueron altamente deterministas, haciendo inevitable la vida tal y como la conocemos dadas las condiciones que existieron en la tierra prebiótica”. Sin embargo, imagínense las condiciones prebióticas más favorables. Imagínese un charco con las cuatro bases del ADN y todos los azúcares y fosfatos necesarios; ¿surgiría cualquier secuencia genética de manera inevitable?, ¿surgiría inevitablemente cualquier proteína o gen funcional, no digamos ya un código genético específico o sistema de replicación? Evidentemente no. Si los intentos de resolver el problema de la información no lo resuelven ni el azar ni la necesidad físico-química, ni la combinación de los dos, ¿Cuál es la explicación? Según la experiencia puede decirse que: “para todos los sistemas no biológicos, las grandes cantidades de complejidad o información específicas se originan tan solo a partir de una acción mental, una actividad consciente o de diseño inteligente”. Los científicos Meyer, Ross, Nelson y Chien, en la obra La explosión cámbrica: el “Big Bang” de la biología, aducen que ni el mecanismo neo-darwiniano ni ningún otro mecanismo naturalista explica adecuadamente el origen de la información requerida para construir las nuevas proteínas y diseños corporales que aparecen en la explosión cámbrica. En todo caso, la generalización empírica más exitosa es suficiente para apoyar el argumento de que el diseño inteligente es la mejor explicación del origen de la información específica necesaria para el origen de la vida primigenia.
La experiencia afirma que la complejidad específica o información surge de manera rutinaria de la actividad de agentes inteligentes. Un usuario de ordenadores que rastrea la información en su pantalla hasta su fuente, se introduce en la mente del ingeniero de software o programador. De manera similar, la información en un libro o en la columna de un periódico deriva en última instancia de un escritor, o sea de una causa mental antes que estrictamente material. Además, el conocimiento existente acerca del flujo de información, basado en la experiencia, confirma que los sistemas con grandes cantidades de complejidad o información, tales como los códigos y el lenguaje, invariablemente se originan a partir de una fuerza inteligente, es decir, de la mente de un agente personal. Además, esta generalización se mantiene no solo para la información semánticamente especificada presente en los lenguajes naturales, sino también para otras formas de información o complejidad especificada tanto la presente en los códigos de máquina, como en las máquinas o en las obras de arte. Al igual que letras en la sección de un texto con significado, las partes de un motor funcional representan una configuración altamente improbable aunque funcionalmente especificada. De igual manera, las formas de los presidentes de los EUA, altamente improbables, de las rocas del Monte Rushmore se conforman a un patrón independientemente dado: los rostros de los presidentes de América conocidos por los libros y las pinturas. Así, ambos sistemas tienen una gran cantidad de complejidad especificada o información así definida. No es una coincidencia que se originaran por un diseño inteligente y no por azar y/o necesidad físico química. Está claro que la expresión “grandes cantidades de información específica” da por sentado nuevamente otra cuestión cuantitativa, a saber, “¿cuánta complejidad o información específica tendría que tener una célula mínimamente compleja para que ello implicara diseño?”. Antes hemos indicado que Dembski calculó un valor umbral de probabilidad universal de 1/10150, que corresponde a los recursos de probabilidad y de especificidad del universo conocido. El valor umbral de probabilidad universal se traduce aproximadamente en 500 bits de información. Por lo tanto, el azar solamente no constituye explicación suficiente para el origen de cualquier secuencia o sistema específicos que contenga más de 500 bits de información.
Además, dado que los sistemas caracterizados por la complejidad desafían ser explicados mediante leyes autoorganizativas. Y dado que las invocaciones a la selección natural prebiótica presuponen. pero no explican. el origen de la información específica necesaria para un sistema autorreplicativo medianamente complejo, el diseño inteligente es la mejor explicación del origen de los más de 500 bits de información específica requerida para producir el primer sistema vivo mínimamente complejo. Así, suponiendo un punto de partida no biológico, la aparición de 500 bits o más de información específica indican diseño de manera fiable. La generalización de que la inteligencia es la única causa de información o complejidad especificada, por lo menos, a partir de una fuente no biológica, ha obtenido el apoyo de la investigación sobre el origen de la vida. Durante los últimos cuarenta años, todo modelo naturalista propuesto ha fracasado a la hora de explicar el origen de la información genética específica requerida para construir una célula viviente. Así, mente o inteligencia, o lo que los filósofos llaman “agente causal”, es ahora la única causa conocida capaz de generar grandes cantidades de información a partir de un estado abiótico. Como resultado, la presencia de secuencia específicas ricas en información incluso en los más simples sistemas vivientes implicaría un diseño inteligente. Recientemente ha sido desarrollado un modelo teórico formal de deducción del diseño para apoyar esta conclusión. En su libro La inferencia de diseño, el matemático y probabilista teórico William Dembski señala que los agentes racionales a menudo infieren o detectan la actividad a priori de otras mentes por el tipo de efectos que dejan tras ellos. Por ejemplo, los arqueólogos suponen que agentes racionales produjeron las inscripciones en la piedra de Rosetta; los investigadores de fraude de seguros detectan ciertos “patrones de estafa” que sugieren la manipulación intencional de las circunstancias; los criptógrafos distinguen entre signos aleatorios y aquellos que llevan codificados los mensajes. El trabajo de Dembski muestra que reconocer la actividad de agentes inteligentes constituye un modo común, totalmente racional, de inferencia.
Y lo que es más importante, Dembski identifica los criterios que permiten a los observadores humanos reconocer actividad inteligente y distinguir los efectos de tal actividad respecto de los efectos de causas estrictamente materiales. Señala que invariablemente atribuimos a causas inteligentes, diseño-, y no al azar o a leyes físico-químicas, sistemas, secuencias o sucesos que tienen las propiedades conjuntas de “alta complejidad” (o baja probabilidad) y “especificidad”. Estos patrones de inferencia reflejan nuestro conocimiento de la manera en que el mundo funciona. Por ejemplo, dado que la experiencia enseña que los sucesos o sistemas complejos y específicos surgen invariablemente de causas inteligentes, podemos inferir diseño inteligente de sucesos que muestran conjuntamente las propiedades de complejidad y especificidad. El trabajo de Dembski sugiere un proceso de evaluación comparativa para decidir entre causas naturales e inteligentes basado en las características de probabilidad o “firmas” que dejan tras ellas. De esta manera vemos que la teoría de Dembski, cuando se aplica a la biología molecular, implica que el diseño inteligente jugó un papel en el origen de la información biológica. El cálculo lógico sigue un método que se usa en las ciencias forenses e históricas. En las ciencias de la historia, el conocimiento de las inferencias actuales, potencias causales de varias entidades y procesos permite a los científicos hacer inferencias acerca de las causas posibles en el pasado. Cuando un estudio minucioso de varias causas posibles produce solo una sola causa adecuada para un efecto dado, los científicos forenses o históricos pueden hacer inferencias definitivas acerca del pasado. Efectivamente, ya que la experiencia afirma que la mente o el diseño inteligente son condición y causa necesaria de la información, puede detectarse la acción pasada de una inteligencia a partir de un efecto rico en información, incluso si la causa misma no puede ser directamente observada. El ordenamiento específico y complejo de las secuencia nucleotídicas del ADN implica la acción de una inteligencia en el pasado, incluso si tal actividad mental no puede ser directamente observada. Muchos admiten que podemos inferir con justificación la acción de una inteligencia operativa en el pasado, dentro del ámbito de la historia humana, a partir de un artefacto o un suceso rico en información, pero solamente porque ya sabemos que existe la mente humana. Pero aducen que inferir la acción de un agente diseñador que antecede a los humanos no puede justificarse, incluso cuando observamos un efecto rico en información, dado que no sabemos si un agente o agentes inteligentes existieron con anterioridad a los humanos.
Sin embargo, los científicos del SETI (Search for extra terrestrial intelligence; búsqueda de inteligencia extraterrestre) tampoco saben si existe o no una inteligencia extraterrestre. Pero suponen que la presencia de una gran cantidad de información específica, como la secuencia de los 100 primeros números primos, establecería definitivamente su existencia. Efectivamente, el SETI busca precisamente establecer la existencia de otras inteligencias en un dominio desconocido. De manera similar, los antropólogos han revisado a menudo sus estimaciones sobre el comienzo de la historia humana o de la civilización, porque han descubierto artefactos ricos en información procedentes de épocas que anteceden a sus estimaciones previas. Y, tal como hemos explicado en varios artículos, la presencia extraterrestre en distintas épocas de la historia es bastante evidente. La mayoría de las inferencias de diseño establecen la existencia o la actividad de un agente mental operativo (al que generalmente llamamos Dios) en un tiempo o lugar en el que la presencia de tal agente era previamente desconocido. Por tanto, inferir la actividad de una inteligencia diseñadora en un tiempo anterior al advenimiento de los humanos en la Tierra no tiene un estatus cualitativamente distinto de otras inferencias de diseño que ya se aceptan como reales y producidas por causas naturales. La búsqueda de inteligencia artificial extraterrestre de la NASA y el SETI presupone que cualquier información incluida en las señales electromagnéticas proveniente del espacio exterior indicaría una fuente inteligente. Sin embargo, de momento, los radio-astrónomos no han encontrado ninguna información en las señales. Pero los biólogos moleculares han identificado las secuencias ricas en información y los sistemas de las células que sugieren, por la misma lógica, una causa inteligente para esos efectos. Aunque la inferencia de diseño a partir de la presencia de información en el ADN no significa tener una prueba de certeza deductiva del diseño inteligente, no constituye un argumento surgido de la ignorancia. Los argumentos nacidos de la ignorancia se dan cuando la evidencia en contra de la proposición X es presentada como la única razón para aceptar una proposición Y alternativa. En todo caso, la supuesta ignorancia acerca de cualquier causa natural suficiente es solo parte de la base para inferir diseño. También se sabe que los agentes inteligentes pueden y de hecho producen sistemas ricos en información. Tenemos un conocimiento positivo basado en la experiencia de una causa alternativa que es suficiente, a saber, la inteligencia. Por esta razón, la inferencia de diseño no constituye un argumento de ignorancia sino una inferencia para la mejor explicación.
Consideramos que el argumento del diseño inteligente es la mejor explicación del origen de la información biológica. Como hemos visto, ningún escenario basado en el azar, en la necesidad, o en una combinación de ambos, puede explicar el origen de la información biológica específica en un contexto prebiótico. Este resultado concuerda con la experiencia: Los procesos naturales no producen estructuras ricas en información a partir puramente de precursores físicos o químicos. Tampoco la materia, tanto si actúa al azar como bajo la fuerza de la necesidad físico-química, se ordena a sí misma en secuencias complejas ricas en información. Sin embargo, no es correcto decir que no sabemos cómo surge la información. Sabemos por experiencia que los agentes conscientes inteligentes pueden crear secuencias y sistemas informativos. La creación de nueva información está asociada habitualmente con la actividad consciente. Además, la experiencia enseña que cuando grandes cantidades de información o complejidad especificada están presentes en un artefacto o entidad cuya historia es conocida, invariablemente la inteligencia creativa, o el diseño inteligente, ha jugado un papel causal en el origen de esa entidad. Así, cuando encontramos tal información en las biomacromoléculas necesarias para la vida, podemos inferir, basándonos en el conocimiento de las relaciones de causa y efecto, que una causa inteligente operó en el pasado para producir la información o complejidad especificada necesaria para el origen de la vida. Esta inferencia de diseño emplea el mismo método de argumentación y razonamiento que los científicos de la historia utilizan generalmente. En el Origen de las especies, Darwin desarrolla su argumento a favor de un ancestro común universal como inferencia para la mejor explicación. Como explicó en una carta a Asa Gray: “Compruebo esta hipótesis [de ascendencia común] comparando con tantas proposiciones generales y muy bien establecidas como puedo encontrar –en distribuciones geográficas, historia geológica, afinidades, etc. Y me parece que, suponiendo que tal hipótesis fuera a explicar tales proposiciones generales, deberíamos, de acuerdo con la manera común de proceder de todas las ciencias, admitirla hasta que otra hipótesis mejor sea encontrada”. Además, tal y como se ha explicado, el argumento de diseño de la información del ADN se adecua a los cánones empleados en las ciencias de la historia. El principio de uniformidad establece que “el presente es la clave del pasado”. En particular, el principio especifica que nuestro conocimiento de las relaciones actuales de causa y efecto debe gobernar nuestras valoraciones de la plausibilidad de las inferencias que hacemos acerca del pasado causal remoto. Sin embargo, es precisamente ese conocimiento de las relaciones de causa y efecto el que informa la inferencia del diseño inteligente. Ya que nosotros sabemos que los agentes inteligentes producen grandes cantidades de información, y ya que todos los procesos naturales conocidos no lo hacen, podemos inferir diseño como la mejor explicación del origen de la información en la célula.
La objeción de que la inferencia de diseño constituye un argumento nacido de la ignorancia se reduce en esencia a replantear el problema de la inducción. Sin embargo podría hacerse la misma objeción contra cualquier ley o explicación científica o contra cualquier inferencia histórica que tenga en cuenta el presente conocimiento, no en el futuro, de las leyes naturales y los poderes causales. Como han señalado John D. Barrow y Frank Tipler, en su libro El Principio Cosmológico Antrópico, criticar los argumentos de diseño simplemente porque asumen la uniformidad y el carácter normativo de las leyes naturales, realiza un profundo corte en “la base racional de cualquier forma de investigación científica”. Nuestro conocimiento acerca de lo que puede y de lo que no puede producir grandes cantidades de información específica puede tener que ser revisado, pero lo mismo sucede con las leyes de la termodinámica. Las inferencias de diseño pueden demostrarse más adelante incorrectas, como sucede con otras inferencias que implican varias causas naturales. Tal posibilidad no detiene a los científicos a la hora de hacer generalizaciones acerca de poderes causales de varias entidades o de utilizar esas generalizaciones para identificar causas probables o muy plausibles en casos concretos. Las inferencias basadas en la experiencia presente y pasada constituye conocimiento, aunque provisional, pero no ignorancia. Aquellos que objetan contra tales inferencias objetan contra la ciencia, tanto como objetan contra una hipótesis de diseño particular de base científica. Es evidente que algunos rechazan la hipótesis de diseño alegando que no alcanza la categoría de “científica”. Tales críticos afirman un principio fuera de toda evidencia conocido como naturalismo metodológico. El naturalismo metodológico afirma que, por definición, para que una hipótesis, teoría, o explicación sea considerada “científica”, tiene que invocar solo entidades naturalistas o materialistas. De acuerdo con tal definición, los críticos dicen que el diseño inteligente no es válido. Sin embargo, incluso si se da por buena esta definición, no se sigue que ciertas hipótesis no científicas, según las define el naturalismo metodológico, o metafísicas no puedan constituir una mejor explicación, más adecuada causalmente. Pero cualquiera que sea su clasificación, la hipótesis de diseño constituye una explicación mejor que sus rivales materialistas o naturalistas para el origen de la información biológica específica. Seguramente, la mera clasificación de un argumento como metafísico no lo refuta.
Para ser un buscador de la verdad, la cuestión que el investigador del origen de la vida debe plantearse no es “¿qué modelo materialista es el más adecuado?” sino más bien “¿qué provocó la aparición de la vida en la Tierra?”. Claramente, una posible respuesta a esta última cuestión sea esta: “la vida fue diseñada por un agente inteligente que existió antes del advenimiento de los humanos”. La apertura a la hipótesis del diseño parecería necesaria, por tanto, para cualquier biología histórica que busque la verdad, Una biología histórica comprometida a seguir la evidencia dondequiera que esta lleve, no excluirá hipótesis a priori por razones metafísicas. Este enfoque más abierto y más racional sugeriría ahora la teoría del diseño inteligente como la mejor explicación o más adecuada causalmente para el origen de la información necesaria para construir el primer organismo vivo. Hay personas que canalizan a otras entidades como si fuesen un conducto para atraer energías externas. Muchas personas traen la luz a través de su chakra de la corona e incluso anclan esta energía en la Tierra misma. Muchas personas atraviesan los reinos interdimensionales, visitando diversos reinos e interactuando con varios seres en estos mundos. Una pregunta que nos tendríamos que hacer es si los pensamientos son realmente elaborados en el cerebro o son solamente procesados por él. Tal vez sea el resultado de infinitas conexiones dentro de un super cerebro en el mundo astral, al que todos estaríamos conectados y cuya naturaleza sería energética. Si buscamos el significado de avatar, podemos encontrar esta descripción: «En Internet y otras tecnologías de comunicación modernas, se denomina avatar a una representación gráfica, generalmente humana, que se asocia a un usuario para su identificación. Los avatares pueden ser fotografías o dibujos artísticos, y algunas tecnologías permiten el uso de representaciones tridimensionales«. Internet y el cine han popularizado el concepto de avatar. Pero, sin embargo, es un concepto que tiene un origen muy antiguo y que tiene un significado mucho más profundo. Aunque estos reinos son fascinantes, son del cosmos. Son mundos externos de la misma manera como nuestro plano físico de la tierra. Nada de esto es el camino interior a la verdad, y nada de esto tiene que ver con la realización del Ser. Estos reinos, energías e información de arriba son procedentes de la Matrix cósmica. Hay una matrix terrenal, en la que estamos sometidos aquí, en la Tierra; Pero hay también una matrix cósmica que impregna el cosmos.
¿Qué es exactamente la Matrix? La Matrix es una superposición artificial colocada sobre el orden natural de la realidad. En palabras de Morfeo en la película «The Matrix«: «¿Quieres saber lo que es? La matrix está en todas partes. Es todo lo que nos rodea. Incluso ahora, en esta misma sala. Puedes verla cuando miras por la ventana o enciendes el televisor. Puedes sentirla cuando vas a trabajar, vas a la iglesia, pagas sus impuestos. Es el mundo que ha sido puesto ante tus ojos para ocultarte la verdad«. Y Neo pregunta: «¿Qué verdad?». A lo que Morfeo responde: «Que eres un esclavo Neo. Como todos los demás, naciste en cautiverio. Naciste en una prisión que no puedes oler, probar ni tocar. Una prisión para tu mente. Desafortunadamente, nadie puede decir lo que la Matrix es. Hay que verlo por uno mismo. Esta es tu última oportunidad. Después de esto, no hay vuelta atrás. Si tomas la píldora azul, la historia termina, te despiertas en tu cama y crees lo que quieras. Si tomas la píldora roja, te quedas en país de las maravillas, y muestras hasta dónde llega la madriguera del conejo… Recuerda, todo lo que estoy ofreciendo es la verdad. Nada más…«. Esto nos lleva a la posibilidad de que, tal vez, todos nosotros somos algún tipo de avatares de algún ser superior, que habitamos en un entorno tridimensional y sujetos a las limitaciones de tiempo y espacio. Tal vez cuando soñamos trascendemos de este mundo físico y vislumbramos algo de este mundo solo reservado a los “dioses” que nos “manejan”. Podemos imaginarnos la situación como la de un titiritero (“dioses”) que construye marionetas (los seres humanos) y las maneja en sus particulares representaciones teatrales. Crecemos pensando y creyendo que el mundo y la realidad en la que existimos es algo tangible y físico. Sin embargo, las percepciones son entendidas tan subjetivamente que no reflejan una realidad objetiva, si tal realidad siquiera existe. El universo es como un espacio vacío, con fragmentos de materia esparcidos. Pero ahora empiezan a percibirse como una proyección holográfica derivada de una realidad primaria, que sería invisible a nuestros instrumentos biológicos y tecnológicos. La evidencia de una realidad holográfica no puede ser ignorada. Lo que le da mayor credibilidad son aquellos que han experimentado estados de conciencia más elevados a través de la meditación o la proyección astral. Como ejemplo tenemos la investigación realizada en 1982 en la Universidad de París, en que se descubrió que bajo ciertas circunstancias las partículas subatómicas, como los electrones, son capaces de comunicarse instantáneamente entre sí, independientemente de la distancia que los separa. De alguna manera cada partícula siempre parecía saber lo que hacía la otra.
El gran físico norteamericano David Bohm creía que estos resultados implican que la realidad objetiva no existe. A pesar de su aparente solidez, el universo es en el fondo un gigantesco y espléndidamente detallado holograma. Dentro de un holograma, no importa cuántas veces se divida el conjunto, la parte siempre contendrá su totalidad. La deducción de los experimentos holográficos concluyen que la autonomía y la separación son una ilusión, o maya, y que todo es uno. La unidad es un concepto que encontramos en el sistema de creencias que se manifiesta en el ámbito de la conciencia humana. Si este es el caso, entonces el universo es en sí mismo una proyección, un holograma. Si la aparente separación de las partículas subatómicas es ilusoria, significa que en un nivel más profundo de la realidad, todas las cosas en el universo están interconectadas. Según esto, los electrones de un átomo de carbono en el cerebro humano están conectados a las partículas subatómicas que componen cada corazón que late y cada estrella que brilla en el cielo. La unidad prevalece. En un universo holográfico, incluso el tiempo y el espacio ya no pueden ser considerados como fundamentales. Debido a que conceptos tales como la ubicación se descomponen en un universo en el que nada es verdaderamente independiente de cualquier otra cosa, el tiempo y el espacio tridimensional, como las imágenes en los monitores de televisión, también tendrían que ser vistos como proyecciones de este orden más profundo. En su nivel más profundo, la realidad es una especie de super-holograma en el que el pasado, el presente y el futuro existirían simultáneamente. El universo de tres dimensiones en que vivimos sería un holograma creado a partir de una realidad primaria que está fuera del espacio y el tiempo, por lo que es una copia de algo «real«, en que nuestro verdadero yo está en otra realidad. Nuestra conciencia sería nuestro yo real. La conciencia es todo y nada, ya que todo lo que es en realidad es la conciencia. Un universo holográfico explicaría casi todas las experiencias paranormales y místicas. Las Experiencias Cercanas a la Muerte (ECM) podrían ser explicadas mediante un universo holográfico, en el que la muerte es un simple cambio en la conciencia de una persona, que pasaría de un nivel del holograma de la realidad a otro.
Los actuales modelos neurofisiológicos del cerebro son insuficientes y sólo un modelo holográfico puede explicar cosas, tales como experiencias arquetípicas, encuentros con el inconsciente colectivo, y otros fenómenos inusuales experimentados durante los estados alterados de conciencia. Un modelo holográfico para el universo explicaría los sueños lúcidos, en los que esos sueños serían visitas a realidades paralelas. Las sincronicidades podrían ser explicadas por el modelo holográfico. Nuestros procesos de pensamiento están mucho más íntimamente conectados con el mundo físico de lo que se pensaba anteriormente. Sincronicidad es el término elegido por Carl Gustav Jung para aludir a «la simultaneidad de dos sucesos vinculados por el sentido pero de manera acausal». Las sincronicidades tienden a alcanzar su punto máximo justo antes de una nueva comprensión o conocimiento. La telepatía, la precognición, los sentimientos místicos de unidad con el universo, e incluso la psicoquinesis, hipotética capacidad de la mente para influir en la materia y energía, pueden explicarse mediante el modelo holográfico. La holografía puede explicar la razón por la que nuestro cerebro puede almacenar tantos recuerdos en tan poco espacio. Se considera que nuestro cerebro puede almacenar 280 trillones de bits de información. La holografía también puede explicar cómo somos capaces de recordar y olvidar, cómo somos capaces de tener memoria asociativa, como tenemos la capacidad de reconocer objetos familiares, como tenemos la capacidad para la transferencia de nuevas habilidades, como tenemos la capacidad de construir un mundo «más allá«, y cómo somos capaces de tener una memoria fotográfica. El cerebro, por lo tanto, sería una proyección holográfica creada a partir de una realidad primaria, fuera del espacio y del tiempo. Todas las realidades relativas son creadas por la conciencia que existe en relación a sí misma. No hay nada más. Ninguna de las cosas que percibimos como separadas tiene una existencia independiente, ya que todos son, en realidad, extensiones relacionales de la unidad subyacente de la conciencia. La realidad física sería un producto de la conciencia. Pero la conciencia no sería un producto de la realidad física.
De la noche a la mañana la ingeniería inversa del cerebro, que se consideraba demasiado complicada para poder resolverla, se convirtió en un punto focal de rivalidad y orgullo científico entre las mayores potencias económicas del planeta. En su discurso sobre el estado de la Unión, el presidente Barack Obama dejó atónita a la comunidad científica al anunciar que se iban a destinar fondos públicos, puede que hasta tres mil millones de dólares, a la investigación cerebral, por medio de la iniciativa Neurotecnologías Innovadoras Avanzadas (o BRAIN). Como el Proyecto Genoma Humano, que abrió las puertas a la investigación genética, la iniciativa BRAIN revelará los secretos del cerebro a nivel neuronal, siguiendo sus rutas eléctricas. Una vez que se finalice este mapa del cerebro, se podrían comprender y tal vez curar numerosas enfermedades que ahora no tienen tratamiento, como el alzhéimer, el párkinson, la esquizofrenia, la demencia y el trastorno bipolar. Para darle el empujón de salida a BRAIN, en 2014 se podrían asignar cien millones de dólares al proyecto. Casi al mismo tiempo, la Comisión Europea anunció que se destinarían mil ciento noventa millones de euros al Proyecto Cerebro Humano, para crear una simulación informática del cerebro. Utilizando la potencia de los mayores superordenadores del planeta, este proyecto creará una copia del cerebro humano hecha de transistores y acero. Los promotores de ambos proyectos hicieron hincapié en los enormes beneficios de estas iniciativas. El presidente Obama se apresuró a señalar que BRAIN no solo aliviaría los sufrimientos de millones de personas, sino que además generaría nuevas fuentes de ingresos. Por cada dólar invertido en el Proyecto Genoma Humano, aseguró, se generaron aproximadamente ciento cuarenta dólares en actividad económica. De hecho, surgieron industrias enteras al completarse el Proyecto Genoma Humano. Para el contribuyente, BRAIN, como el Proyecto Genoma Humano, será una situación de ganancia segura. Aunque Obama no dio detalles en su discurso, los científicos llenaron rápidamente muchos de los vacíos. Los neurólogos señalaron que, por una parte, ya es posible utilizar instrumentos de precisión para monitorizar la actividad eléctrica de neuronas individuales. Por otra, con la resonancia magnética es posible seguir el comportamiento global del cerebro. Lo que falta, indicaron, es el terreno intermedio, donde tiene lugar casi toda la actividad interesante del cerebro. Es ahí, que incluye las rutas de miles o millones de neuronas, donde existen enormes vacíos en nuestro conocimiento de las enfermedades mentales y el funcionamiento de la mente. Para abordar este enorme problema, los científicos han trazado un programa tentativo de quince años.
En los cinco primeros años los neurólogos esperan seguir la actividad eléctrica de decenas de miles de neuronas. A corto plazo podrían reconstruir la actividad eléctrica de partes importantes del cerebro de animales, como la médula de la mosca de la fruta, Drosophila, o las células ganglionarias de la retina de un ratón (con cincuenta mil neuronas). En diez años, el número debería ascender a cientos de miles de neuronas. Esto podría incluir el cerebro entero de una Drosophila (ciento treinta y cinco mil neuronas) e incluso la corteza de la musaraña etrusca, el mamífero más pequeño conocido, con un millón de neuronas. Por último, en menos que quince años sería posible seguir el funcionamiento de millones de neuronas, el equivalente del cerebro de un pez cebra o de toda la neocorteza de un ratón. Esto podría abrir el camino a la obtención de imágenes de los cerebros de primates. Mientras tanto, en Europa, el Proyecto Cerebro Humano abordaría el problema desde un punto de vista diferente. Durante un período de diez años se utilizarían superordenadores para simular el funcionamiento básico de los cerebros de diferentes animales, empezando por ratones y progresando hasta seres humanos. En lugar de trabajar con neuronas individuales, el Proyecto Cerebro Humano utilizará transistores para imitar su comportamiento, de modo que habrá módulos informáticos que podrán actuar como la neocorteza, el tálamo y otras partes del cerebro. Al final, la rivalidad entre estos dos gigantescos proyectos podría dar resultados inesperados, generando nuevos descubrimientos para tratar enfermedades incurables y dar origen a nuevas industrias. Pero también existe otro objetivo no declarado. Si llegamos a simular un cerebro humano, ¿significa eso que se haría inmortal? ¿Implica que podría existir conciencia fuera del cuerpo? Estos ambiciosos proyectos plantean algunas de las cuestiones teológicas y metafísicas más espinosas y que tienen que ver con el título de este artículo.
Fuentes:
- Michio Kaku – El futuro de la humanidad
- Michio Kaku – Física de lo imposible
- Stephen C. Meyer – El ADN y el Origen de la Vida: Información, Especificidad y Explicación
- Stuart Russell y Peter Norvig – Inteligencia artificial: Un enfoque moderno
- Alejandro Madruga – Inteligencia artificial, el futuro del hombre
- Margaret Boden y Inmaculada Pérez Parra – Inteligencia artificial
- Ray Kurzweil – La Singularidad está cerca: Cuando los humanos transcendamos la biología
- José Mª Angulo Usategui, Susana Romero, Ignacio Angulo – Introducción a la robótica
- David Bohm – Ciencia, Orden y Creatividad
- Paul Strathern – Crick, Watson y el ADN
- James D. Watson – ADN. El secreto de la vida