Al final del articulo puede descargarse en formato PDF
Al comienzo del siglo XXI, la humanidad se encuentra al borde del período más transformador y emocionante de su historia, por si no fueran suficientes los cambios habidos en las últimas décadas. Será una era en la que la naturaleza misma de lo que significa ser humano se verá tanto enriquecida como desafiada, a medida que nuestra especie rompa las cadenas de su legado genético y alcance alturas inconcebibles de inteligencia, progreso material y longevidad. Esto puede ser positivo en distintos ámbitos, pero también presenta grandes peligros y riesgos. De todos modos en este artículo me centraré en los aspectos supuestamente positivos. Durante más de tres décadas, el inventor estadounidense, además de músico, empresario, escritor y científico especializado en Ciencias de la Computación e Inteligencia Artificial, siendo además, desde 2012, director de Ingeniería en Google, Ray Kurzweil, ha sido uno de los defensores más respetados y provocadores del papel de la tecnología en nuestro futuro y, por lo tanto, en el transhumanismo, del que ya he hablado en los últimos tres artículos titulados «Las extrañas vinculaciones del esoterismo con nuestro devenir histórico«. En su libro La era de la máquina espiritual, Kurzweil presentó el audaz argumento de que con el ritmo cada vez más acelerado del cambio tecnológico, las computadoras rivalizarían con la inteligencia humana. Posteriormente, en su libro La singularidad está cerca examina el próximo paso en este inexorable proceso evolutivo. Se trata de la unión de humanos y máquinas, en la que el conocimiento y las habilidades integrados en nuestros cerebros se combinarán con la capacidad, la velocidad y el conocimiento mucho mayores de las computadoras, compartiendo la capacidad de nuestras propias creaciones. Según Kurzweil, la fusión es la esencia de lo que él llama Singularidad, una era en la que nuestra inteligencia se volverá cada vez más no biológica y billones de veces más poderosa de lo que es hoy. Para ello es fundamental el conocimiento del cerebro humano mediante la ingeniería inversa. Ello, según los transhumanistas, significaré el amanecer de una nueva civilización que nos permitirá trascender las limitaciones biológicas y amplificar nuestra creatividad. En este nuevo mundo, no habrá una distinción clara entre humanos y máquinas, realidad física y realidad virtual. Podremos asumir diferentes cuerpos y asumir una variedad de personajes a voluntad. En términos prácticos, el envejecimiento humano y la enfermedad se revertirán; se detendrá la contaminación; se resolverá el hambre y la pobreza en el mundo. La nanotecnología hará posible crear prácticamente cualquier producto físico utilizando procesos de información económicos y, en última instancia, convertirá incluso la muerte en un problema soluble.
Si bien las ramificaciones sociales y filosóficas de estos cambios serán profundas y las amenazas que plantean serán considerables, Kurzweil mantiene una visión radicalmente optimista del curso futuro del desarrollo humano. Como tal, ofrece una visión de la era venidera que es, a la vez, una culminación de los siglos de ingenio tecnológico y una visión genuinamente inspiradora de nuestro destino final. ¿Qué se considera, entonces, la Singularidad? Según Kurzweil es un período futuro durante el cual el ritmo del cambio tecnológico será tan rápido, su impacto tan profundo, que la vida humana se transformará irreversiblemente. Esta época transformará los conceptos en los que nos basamos para dar sentido a nuestras vidas, desde nuestros modelos de negocio hasta el ciclo de la vida humana, pasando por la muerte misma. Comprender la Singularidad alterará nuestra perspectiva sobre el significado de nuestro pasado y las ramificaciones para nuestro futuro. Comprenderlo verdaderamente cambia inherentemente la visión de la vida en general y la propia vida en particular. Kurzweil ve implicaciones obvias en lo que ha llamado la ley de los rendimientos acelerados, que significa la aceleración inherente de la tasa de evolución, con la evolución tecnológica como continuación de la evolución biológica. La idea clave que subyace en la Singularidad inminente es que el ritmo de cambio de nuestra tecnología creada por los propios seres humanos se está acelerando y sus poderes se están expandiendo a un ritmo exponencial. El crecimiento exponencial es engañoso, ya que comienza casi imperceptiblemente y luego estalla con una furia inesperada si uno no tiene cuidado de seguir su trayectoria. Consideremos al campeón mundial de ajedrez, Gary Kasparov, quien despreció el patético estado del ajedrez computarizado en 1992. Sin embargo, la implacable duplicación del poder de la computadora cada año permitió que una computadora lo derrotara solo cinco años después. La lista de formas en que las computadoras ahora pueden superar las capacidades humanas está creciendo rápidamente. Además, las aplicaciones de la inteligencia artificial informática, que alguna vez fueron restringidas, se están ampliando gradualmente en un tipo de actividad tras otra. Por ejemplo, las computadoras están diagnosticando electrocardiogramas e imágenes médicas, volando y aterrizando aviones, controlando las decisiones tácticas de las armas automatizadas, tomando decisiones crediticias y financieras, y asumiendo la responsabilidad de muchas otras tareas que solían requerir inteligencia humana. El rendimiento de estos sistemas se basa cada vez más en la integración de múltiples tipos de inteligencia artificial (IA). Pero mientras exista una deficiencia de la IA en cualquier área, los escépticos señalarán esa área como un bastión inherente de la superioridad humana permanente sobre las capacidades de nuestras propias creaciones.
Sin embargo, Kurzweil cree que, dentro de pocas décadas, las tecnologías basadas en la información abarcarán todo el conocimiento y la competencia humanos, y en última instancia incluirán los poderes de reconocimiento de patrones, propios del funcionamiento del cerebros, así como las habilidades para resolver problemas y la inteligencia emocional y moral del propio cerebro humano. Aunque impresionante en muchos aspectos, el cerebro humano sufre de severas limitaciones. Usamos su paralelismo masivo, que implica unos cien billones de conexiones interneuronales operando simultáneamente, para reconocer rápidamente patrones sutiles. Pero nuestro pensamiento es extremadamente lento, ya que las transacciones neuronales básicas son varios millones de veces más lentas que los circuitos electrónicos contemporáneos. Eso hace que nuestro ancho de banda fisiológico para procesar nueva información sea extremadamente limitado en comparación con el crecimiento exponencial de la base de conocimiento humano en general. Nuestros cuerpos biológicos actuales también son frágiles y están sujetos a una miríada de modos de falla, sin mencionar los engorrosos procesos de mantenimiento que requieren. Si bien la inteligencia humana a veces es capaz de elevarse en su creatividad y expresividad, gran parte del pensamiento humano es derivado del de otros. Según Kurzweil y otros científicos la Singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos y cerebros biológicos, con lo que. ganaremos poder sobre nuestros destinos. Nuestra mortalidad estará en nuestras propias manos. Podremos vivir todo el tiempo que queramos, que es una declaración sutilmente diferente de decir que viviremos para siempre. Comprenderemos completamente el pensamiento humano y extenderemos y expandiremos enormemente su alcance. A finales del siglo XXI, la parte no biológica de nuestra inteligencia será billones de billones de veces más poderosa que la inteligencia humana sin ayuda. Ahora estamos en las primeras etapas de esta transición. La aceleración del cambio de paradigma, o la velocidad a la que cambiamos los enfoques técnicos fundamentales, así como el crecimiento exponencial de la capacidad de la tecnología de la información, hace perceptible que se esté comenzando a alcanzar la etapa en la que se produce una tendencia exponencial. Poco después de esta etapa, la tendencia se volverá rápidamente explosiva. Antes de mediados de este siglo XXI, las tasas de crecimiento de nuestra tecnología serán tan pronunciadas que parecerán esencialmente verticales. Desde una perspectiva estrictamente matemática, las tasas de crecimiento seguirán siendo finitas pero tan extremas que los cambios que produzcan parecerán romper el tejido de la historia humana. Esa, al menos, será la perspectiva de la humanidad biológica que no sea mejorada.
La Singularidad representará la culminación de la fusión de nuestro pensamiento y existencia biológicos con nuestra tecnología, dando como resultado un mundo que seguirá siendo humano pero que trascenderá nuestras raíces biológicas. No habrá distinción, post-Singularidad, entre humano y máquina o entre realidad física y virtual. Si nos preguntamos qué permanecerá inequívocamente humano en un mundo así, es simplemente que nuestra especie buscará extender su alcance físico y mental más allá de las limitaciones actuales. Muchos opinan que estos cambios se centran en lo que perciben como una pérdida de algún aspecto vital de nuestra humanidad que resultará de esta transición. Todas las máquinas que hemos conocido hasta la fecha carecen de la sutileza esencial de las cualidades biológicas humanas. Aunque la Singularidad tiene muchas caras, su implicación más importante es que nuestra tecnología igualará y luego superará ampliamente el refinamiento y la flexibilidad de lo que consideramos como el mejor de los rasgos humanos, en lo que sería la cumbre del transhumanismo. En la década de 1950, el matemático húngaro-estadounidense que realizó contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos, John von Neumann, fue citado diciendo que «el progreso cada vez más acelerado de la tecnología da la apariencia de acercarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, como sabemos, no podrían continuar«. Von Neumann hace dos observaciones importantes aquí: aceleración y singularidad. La primera idea es que el progreso humano es exponencial, es decir, se expande al multiplicar repetidamente por una constante, en lugar de lineal, en quje se expande al sumar repetidamente una constante. La segunda es que el crecimiento exponencial comienza lentamente y casi imperceptiblemente, pero pronto se vuelve explosivo y profundamente transformador. El futuro es ampliamente malinterpretado, ya que nuestros antepasados esperaban que fuera más o menos como su presente, que había sido más o menos como su pasado. Las tendencias exponenciales ya existían hace mil años, pero se encontraban en una etapa muy temprana en la que eran tan planas y lentas que parecían no tener ninguna tendencia. Como resultado, se cumplió la expectativa de los observadores de un futuro sin cambios. Hoy, anticipamos el progreso tecnológico continuo y las repercusiones sociales que le siguen. Pero el futuro será mucho más sorprendente de lo que la mayoría de la gente cree, porque pocos observadores han internalizado realmente las implicaciones del hecho de que la tasa de cambio en sí se está acelerando.
La mayoría de los pronósticos a largo plazo de lo que es técnicamente factible en períodos de tiempo futuros subestiman dramáticamente el poder de los desarrollos futuros porque se basan en una visión «lineal intuitiva» de la historia en lugar de la visión «exponencial histórica«. Los modelos que maneja Ray Kurzweil muestran que estamos duplicando la tasa de cambio de paradigma cada década. Así, el siglo XX fue acelerando gradualmente hasta alcanzar el ritmo de progreso actual. Para expresarlo de otra manera, no viviremos cien años de avance tecnológico en el siglo XXI, sino que seremos testigos del orden equivalente a veinte mil años de progreso o aproximadamente unas mil veces mayor que lo que se logró en el siglo XX. Las percepciones erróneas sobre la forma del futuro surgen con frecuencia y en una variedad de contextos. Como un ejemplo de muchos, Kurzweil nos explica que en un debate reciente en el que participó sobre la viabilidad de la fabricación molecular, un ganador del Premio Nobel descartó las preocupaciones de seguridad con respecto a la nanotecnología y proclamó que «no vamos a ver entidades de nanoingeniería autorreplicantes [dispositivos construidos fragmento molecular por fragmento] durante cien años«. Kurzweil señaló que cien años era una estimación razonable y en realidad coincidía con su propia evaluación de la cantidad de progreso técnico requerido para lograr este hito en particular cuando se mide a la tasa de progreso actual, que es cinco veces la tasa de cambio promedio que vimos en el siglo XX. Pero debido a que estamos duplicando la tasa de progreso cada década, veremos el equivalente a un siglo de progreso, al ritmo actual, en solo veinticinco años. De manera similar, en la conferencia Future of Life de la revista Time, celebrada en 2003 para conmemorar el quincuagésimo aniversario del descubrimiento de la estructura del ADN, se preguntó a todos los oradores invitados cómo pensaban que serían los próximos cincuenta años. Prácticamente todos los presentadores observaron el progreso de los últimos cincuenta años y lo usaron como modelo para los próximos cincuenta años. Por ejemplo, James Watson, el codescubridor del ADN, dijo que en cincuenta años tendremos medicamentos que nos permitirán comer todo lo que queramos sin engordar. Kurzweil le respondió: «¿Cincuenta años?» Ya hemos logrado esto en ratones al bloquear el gen del receptor de insulina grasa que controla el almacenamiento de grasa en las células grasas. Los medicamentos para uso humano (usando ARN de interferencia y otras técnicas) están en desarrollo ahora y estarán en las pruebas de la FDA en varios años. Estos estarán disponibles en cinco a diez años, no cincuenta«. Otras proyecciones fueron igualmente miopes, reflejando las prioridades de la investigación contemporáneas en lugar de los profundos cambios que traerá el próximo medio siglo. De todos los pensadores en esta conferencia, fueron principalmente el pionero del desarrollo de software estadounidense, que en 1982 cofundó Sun Microsystems, Bill Joy, y Ray Kurzweil quienes tomaron en cuenta la naturaleza exponencial del futuro.
Pensemos en los bioquímicos que, en 1990, se mostraron escépticos ante el objetivo de transcribir el genoma humano completo en apenas quince años. Estos científicos acababan de pasar un año entero transcribiendo apenas una diezmilésima parte del genoma. Entonces, incluso con avances anticipados razonables, les parecía natural que tomaría un siglo, si no más, antes de que se pudiera secuenciar el genoma completo. O consideremos el escepticismo expresado a mediados de la década de 1980 de que Internet alguna vez sería un fenómeno significativo, dado que entonces incluía solo decenas de miles de nodos, también conocidos como servidores. De hecho, el número de nodos se duplicaba cada año, por lo que probablemente habría decenas de millones de nodos diez años después. Pero esta tendencia no fue apreciada por quienes lucharon con la tecnología de punta en 1985, lo que permitió agregar solo unos pocos miles de nodos en todo el mundo en un solo año. El error conceptual inverso ocurre cuando ciertos fenómenos exponenciales se reconocen por primera vez y se aplican de manera demasiado agresiva sin modelar el ritmo de crecimiento adecuado. Si bien el crecimiento exponencial gana velocidad con el tiempo, no es instantáneo. La adopción real de Internet y el comercio electrónico mostró un crecimiento exponencial suave durante su auge y su caída temporal, pero la expectativa demasiado entusiasta de crecimiento afectó solo las valoraciones de capital (acciones). Hemos visto errores comparables durante cambios de paradigma anteriores, por ejemplo, durante la era ferroviaria temprana, en la década de 1830, cuando se produjo un frenesí de expansión ferroviaria. Otro error que cometen los pronosticadores es considerar las transformaciones que resultarán de una sola tendencia en el mundo de hoy como si nada más fuera a cambiar. Un buen ejemplo es la preocupación de que la extensión radical de la vida resulte en superpoblación y el agotamiento de los recursos materiales limitados para sostener la vida humana, lo que ignora la creación de riqueza comparablemente radical a partir de la nanotecnología y la IA fuerte. Por ejemplo, los dispositivos de fabricación basados en nanotecnología serán capaces antes de final de la década actual (de 2020) de crear casi cualquier producto físico, incluyendo alimentos, a partir de información y materias primas económicas.
Kurzweil hace hincapié en la perspectiva exponencial versus lineal porque es el fracaso más importante que cometen los pronosticadores al considerar las tendencias futuras. La mayoría de los pronósticos y pronosticadores tecnológicos ignoran por completo esta visión histórica exponencial del progreso tecnológico. De hecho, casi todas las personas con las que Kurzweil se ha encontrado tienen una visión lineal del futuro. Es por eso que la gente tiende a sobrestimar lo que se puede lograr a corto plazo, porque tendemos a dejar de lado los detalles necesarios, pero subestima lo que se puede lograr a medio y largo plazo, porque se ignora el crecimiento exponencial. La evolución es un proceso de creación de patrones de orden creciente. Kurzweil considera que es la evolución de los patrones lo que constituye la última historia de nuestro mundo. La evolución funciona indirectamente, en que cada etapa o época utiliza los métodos de procesamiento de información de la época anterior para crear la siguiente. Kurzweil conceptualiza la historia de la evolución, tanto biológica como tecnológica, como si ocurriera en seis épocas. Kurzweil cree que la Singularidad comenzará en la Quinta Época y se extenderá desde la Tierra al resto del universo en la Sexta Época. La Primera Época: se basa en la Física y la Química. Podemos rastrear nuestros orígenes hasta un estado que representa la información en sus estructuras básicas: patrones de materia y energía. Las teorías recientes de la gravedad cuántica sostienen que el tiempo y el espacio se dividen en cuantos discretos, esencialmente fragmentos de información. Existe controversia sobre si la materia y la energía son, en última instancia, de naturaleza digital o analógica, pero independientemente de la resolución de este problema, sabemos que las estructuras atómicas almacenan y representan información discreta. Unos cientos de miles de años después del Big Bang, se considera que los átomos comenzaron a formarse, ya que los electrones quedaron atrapados en órbitas alrededor de núcleos formados por protones y neutrones. La estructura eléctrica de los átomos los hizo «pegajosos«. La Química nació unos millones de años después cuando los átomos se unieron para crear estructuras relativamente estables llamadas moléculas. De todos los elementos, el carbono demostró ser el más versátil, ya que es capaz de formar enlaces en cuatro direcciones, en lugar de una a tres para la mayoría de los otros elementos, lo que da lugar a estructuras tridimensionales complicadas y ricas en información.
Las reglas de nuestro universo y el equilibrio de las constantes físicas que gobiernan la interacción de las fuerzas básicas son tan exquisita, delicada y exactamente apropiadas para la codificación y evolución de la información, lo que resulta en una complejidad creciente, que uno se pregunta cómo una situación tan extraordinariamente improbable pudo producirse. Donde algunos ven una mano divina, otros ven nuestras propias manos, a saber, el principio antrópico, que sostiene que solo en un universo que permitiera nuestra propia evolución estaríamos aquí para hacer tales preguntas. Teorías recientes de la física sobre múltiples universos especulan que nuevos universos se crean regularmente, cada uno con sus propias reglas únicas, pero que la mayoría de estos se extinguen rápidamente o continúan sin la evolución de ningún patrón interesante, como la Tierra, en que se ha creado una determinada biología, porque sus reglas no soportan la evolución de formas cada vez más complejas. Es difícil imaginar cómo podríamos probar estas teorías de la evolución aplicadas a la cosmología primitiva, pero está claro que las leyes físicas de nuestro universo son precisamente lo que deben ser para permitir la evolución de niveles crecientes de orden y complejidad. La Segunda Época se distingue por la Biología y el ADN. En la segunda época, que comenzó hace varios miles de millones de años, los compuestos a base de carbono se volvieron cada vez más complejos hasta que agregados complejos de moléculas formaron mecanismos autorreplicantes y se originó la vida. En última instancia, los sistemas biológicos desarrollaron un mecanismo digital preciso (ADN) para almacenar información que describe una sociedad más grande de moléculas. Aunque en mi opinión, que coincide con la de bastantes científicos, el código ADN es demasiado complejo como para haberse generado al azar (ver mi artículo Evolucionismo o Creacionismo, ¿dónde está la verdad?) Esta molécula y su maquinaria de apoyo de codones y ribosomas permitieron llevar un registro de los experimentos evolutivos de esta segunda época. La Tercera Época se centra en los Cerebros. Cada época continúa la evolución de la información a través de un cambio de paradigma a un nivel más alto, es decir, la evolución usa los resultados de una época para crear la siguiente. Por ejemplo, en la tercera época, la evolución guiada por el ADN produjo organismos que podían detectar información con sus propios órganos sensoriales y procesar y almacenar esa información en sus propios cerebros. y sistemas nerviosos. Estos fueron posibles gracias a mecanismos de la segunda época, como el ADN e información epigenética de proteínas y fragmentos de ARN que controlan la expresión génica, que indirectamente habilitaron y definieron mecanismos de procesamiento de información de la tercera época, tales como el cerebro y el sistema nervioso de los organismos. La tercera época comenzó con la capacidad de los primeros animales para reconocer patrones, lo que aún representa la gran mayoría de la actividad de nuestro cerebro. En última instancia, nuestra propia especie desarrolló la capacidad de crear modelos mentales abstractos del mundo que experimentamos y contemplar las implicaciones racionales de estos modelos. Tenemos la capacidad de rediseñar el mundo en nuestras propias mentes y poner estas ideas en acción.
La Cuarta Época se centra en la Tecnología. Combinando la dotación del pensamiento racional y abstracto con nuestro pulgar oponible, nuestra especie marcó el comienzo de la cuarta época y el siguiente nivel, que sería la evolución de la tecnología creada por humanos. Esto comenzó con mecanismos simples y se convirtió en autómatas elaborados, en la forma de máquinas mecánicas automatizadas. En última instancia, con sofisticados dispositivos informáticos y de comunicación, la tecnología fue capaz de detectar, almacenar y evaluar patrones elaborados de información. Para comparar la tasa de progreso de la evolución biológica de la inteligencia con la de la evolución tecnológica, considere que los mamíferos más avanzados han agregado aproximadamente una pulgada cúbica de materia cerebral cada cien mil años, mientras que estamos duplicando aproximadamente la capacidad computacional de las computadoras cada año. Por supuesto, ni el tamaño del cerebro ni la capacidad de la computadora son los únicos determinantes de la inteligencia, pero representan factores habilitadores. Si colocamos los hitos clave tanto de la evolución biológica como del desarrollo tecnológico humano en un solo gráfico trazando tanto el eje x (número de años atrás) como el eje y (el tiempo del cambio de paradigma) en escalas logarítmicas, encontramos un gráfico con una línea razonablemente recta (aceleración continua), con la evolución biológica que conduce directamente al desarrollo dirigido por humanos. Las cifras anteriores reflejan la visión de Kurzweil de los desarrollos clave en la historia biológica y tecnológica. Tenga en cuenta, sin embargo, que la línea recta, que demuestra la aceleración continua de la evolución, no depende de una selección particular de eventos. Muchos observadores y libros de referencia han compilado listas de eventos importantes en la evolución biológica y tecnológica, cada uno de los cuales tiene su propia idiosincrasia. Sin embargo, a pesar de la diversidad de enfoques, si combinamos listas de una variedad de fuentes, como la Enciclopedia Británica y otros, observamos la misma aceleración suave obvia. La tendencia general, sin embargo, es muy clara. Los atributos que están creciendo exponencialmente en estos gráficos son el orden y la complejidad. Esta aceleración coincide con nuestras observaciones de sentido común. Hace mil millones de años, no sucedió mucho en el transcurso de un millón de años. Pero hace un cuarto de millón de años, eventos trascendentales como la evolución de nuestra especie ocurrieron en marcos de tiempo de solo cien mil años. En tecnología, si retrocedemos cincuenta mil años, no pasó mucho en un período de mil años. Pero en el pasado reciente, vemos nuevos paradigmas, como la World Wide Web, en que su progreso desde el inicio hasta la adopción masiva se ha producido en solo una década.
La Quinta Época se centra en la fusión de la tecnología humana con la inteligencia humana. En unas cuantas décadas la Singularidad comenzará con la quinta época. Será el resultado de la fusión del vasto conocimiento incrustado en nuestros propios cerebros con la capacidad, la velocidad y la capacidad de compartir conocimientos mucho mayores de nuestra tecnología. La quinta época permitirá que nuestra civilización humano-máquina trascienda las limitaciones del cerebro humano de apenas cien billones de conexiones extremadamente lentas. La Singularidad nos permitirá superar antiguos problemas humanos y amplificar enormemente la creatividad humana. Conservaremos y mejoraremos la inteligencia que la evolución nos ha otorgado, mientras superamos las profundas limitaciones de la evolución biológica. Pero la Singularidad también amplificará la capacidad de actuar sobre nuestras inclinaciones destructivas, por lo que aún no se ha escrito su historia completa. La Sexta Época es descrita por Kurzweil como el Universo Despierta. Como consecuencia de la Singularidad, la inteligencia, derivada de sus orígenes biológicos en el cerebro humano y sus orígenes tecnológicos en el ingenio humano, comenzará a saturar la materia y la energía en su seno. Lo logrará reorganizando la materia y la energía para proporcionar un nivel óptimo de computación, para extenderse desde su origen en la Tierra. Actualmente entendemos la velocidad de la luz como un factor limitante en la transferencia de información. Eludir este límite debe considerarse altamente especulativo, pero hay indicios de que esta restricción puede ser superada. Si hay incluso desviaciones sutiles, finalmente aprovecharemos esta habilidad superlumínica. Si nuestra civilización infunde al resto del universo su creatividad e inteligencia rápida o lentamente depende de su inmutabilidad. En cualquier caso, la materia y los mecanismos «tontos» del universo se transformarán en formas exquisitamente sublimes de inteligencia, lo que constituirá la sexta época en la evolución de los patrones de información, en que según el transhumanismo, podríamos ser como dioses. Este sería el destino final de la Singularidad y del universo.
Para poner el concepto de Singularidad en una perspectiva más amplia, exploremos la historia de la palabra misma. «Singularidad» es una palabra que significa un evento único con implicaciones singulares. La palabra fue adoptada por los matemáticos para denotar un valor que trasciende cualquier limitación finita, como la explosión de magnitud que resulta al dividir una constante por un número que se acerca cada vez más a cero. El siguiente campo en adoptar la palabra fue la astrofísica. Si una estrella masiva experimenta una explosión de supernova, su remanente finalmente colapsa hasta el punto de un volumen aparentemente cero y una densidad infinita, y se crea una «singularidad» en su centro. Debido a que se pensaba que la luz no podía escapar de la estrella después de que alcanzaba esta densidad infinita, se le llamó agujero negro, que constituye una ruptura en el tejido del espacio-tiempo. Una teoría especula que el universo mismo comenzó con tal Singularidad. Curiosamente, sin embargo, el horizonte de sucesos (superficie) de un agujero negro tiene un tamaño finito, y la fuerza gravitatoria solo es teóricamente infinita en el centro del agujero negro que es de tamaño cero. En cualquier lugar que pueda medirse, las fuerzas son finitas, aunque extremadamente grandes. La primera referencia a la Singularidad como un evento capaz de romper el tejido de la historia humana es la declaración de John von Neumann citada anteriormente. En la década de 1960, el matemático británico Irving John Good escribió sobre una «explosión de inteligencia» resultante de las máquinas inteligentes que diseñan su próxima generación sin intervención humana. Vernor Vinge, matemático e informático de la Universidad Estatal de San Diego, escribió sobre una «singularidad tecnológica» que se acercaba rápidamente en un artículo para la revista Omni en 1983 y en una novela de ciencia ficción, Marooned in Realtime (Abandonado en tiempo real), en 1986. En su libro de 1989, La era de las máquinas inteligentes, Kurzweil ya presentaba un futuro que se dirigía inevitablemente hacia máquinas que superaban con creces la inteligencia humana en la primera mitad del siglo XXI. El libro Mind Children: The Future of Robot and Human Intelligence del investigador en robótica en la Carnegie Mellon University, Hans Moravec, publicada en 1988, llega a una conclusión similar al analizar la progresión de la robótica.
En 1993 Vernor Vinge presentó un artículo en un simposio organizado por la NASA que describía la Singularidad como un evento inminente que resultaba principalmente del advenimiento de «entidades con una inteligencia superior a la humana«, que Vinge vio como el presagio de un fenómeno fuera de control. En su libro de 1999, La era de las máquinas espirituales: cuando las computadoras superan la inteligencia humana, Kurzweil describía la conexión cada vez más íntima entre nuestra inteligencia biológica y la inteligencia artificial que estamos creando. El libro de Hans Moravec, Robot: Mere Machine to Transcendent Mind (Robot: mera máquina para la mente trascendente), también publicado en 1999, describió a los robots de la década de 2040 como nuestros «herederos evolutivos«, máquinas que «crecerán a partir de nosotros, aprenderán nuestras habilidades y compartirán nuestros objetivos y valores, siendo hijos de nuestras mentes». Los libros del escritor australiano de ciencia ficción y divulgación científica Damien Broderick, publicados en 1997 y 2001, ambos titulados The Spike (El Pico), analizaron el impacto generalizado de la fase extrema de aceleración tecnológica anticipada dentro de varias décadas. En una extensa serie de escritos, el filósofo australiano y académico John Jamieson Carswell «Jack» Smart ha descrito la Singularidad como el resultado inevitable de lo que él llama compresión «MEST» (materia, energía, espacio y tiempo). Kurzweil opina que la Singularidad tiene muchas caras. Representa la fase casi vertical de crecimiento exponencial que ocurre cuando la tasa es tan extrema que la tecnología parece expandirse a una velocidad infinita. Por supuesto, desde una perspectiva matemática, no hay discontinuidad, ni ruptura, y las tasas de crecimiento siguen siendo finitas, aunque extraordinariamente grandes. Pero desde un marco actual limitado, este evento inminente parece ser una ruptura aguda y abrupta en la continuidad del progreso. Una de las implicaciones más destacadas de la Singularidad será un cambio en la naturaleza de nuestra capacidad de comprensión, ya que seremos mucho más inteligentes a medida que nos fusionemos con nuestra tecnología. Pero aquí podemos preguntarnos, ¿puede el ritmo del progreso tecnológico seguir acelerándose indefinidamente? ¿No hay un punto en el que los humanos sean incapaces de pensar lo suficientemente rápido para mantenerse al día? Para humanos no mejorados con la tecnología, ello sería evidente. Y Kurzweil se hace esta sorprendente y preocupante pregunta: ¿Qué lograrían 1.000 científicos, cada uno de ellos 1.000 veces más inteligente que los científicos humanos actuales, y cada uno operando 1.000 veces más rápido que los humanos contemporáneos, debido a que el procesamiento de información en sus cerebros principalmente no biológicos fuese más rápido? Un año cronológico nuestro sería como un milenio para ellos. Entonces, ¿qué se les ocurriría? ¿Sobrarían los humanos que no estuviesen a su nivel?
Probablemente inventarían nueva tecnología para volverse aún más inteligentes, porque su inteligencia ya no tendría una capacidad limitada. Cambiarían sus propios procesos de pensamiento para permitirles pensar aún más rápido. Cuando los científicos se vuelvan un millón de veces más inteligentes y operen un millón de veces más rápido, una hora resultaría en un siglo de progreso en términos actuales. La Singularidad implica una serie de principios, en línea con las ideas del transhumanismo, como la de que la tasa de cambio de paradigma (innovación técnica) se está acelerando, ahora mismo duplicándose cada década. Por otro lado, el poder (precio-rendimiento, velocidad, capacidad y ancho de banda) de las tecnologías de la información está creciendo exponencialmente a un ritmo aún más rápido, y ahora se duplica cada año. Este principio se aplica a una amplia gama de medidas, incluida la cantidad de conocimiento humano. También tenemos que para las tecnologías de la información, existe un segundo nivel de crecimiento exponencial: es decir, crecimiento exponencial en la tasa de crecimiento exponencial. La razón es que a medida que una tecnología se vuelve más rentable, se despliegan más recursos para su avance, por lo que la tasa de crecimiento exponencial aumenta con el tiempo. Por ejemplo, la industria informática en la década de 1940 consistía en un puñado de proyectos que ahora son históricamente importantes. En la actualidad, los ingresos totales de la industria informática superan el billón de dólares, por lo que los presupuestos de investigación y desarrollo son comparativamente más altos. Actualmente el escaneo del cerebro humano es una de estas tecnologías que mejoran exponencialmente. La resolución temporal y espacial, así como el ancho de banda del escaneo cerebral se duplican cada año. Recién ahora estamos obteniendo las herramientas suficientes para comenzar una ingeniería inversa seria (descodificación) de los principios de funcionamiento del cerebro humano. Ya tenemos impresionantes modelos y simulaciones de un par de docenas de varios cientos de regiones del cerebro. Dentro de, tal vez, una década, tendremos una comprensión detallada de cómo funcionan todas las regiones del cerebro humano. Asimismo tendremos el hardware necesario para emular la inteligencia humana con supercomputadoras para fines de esta década de 2020 y con dispositivos del tamaño de una computadora personal para fines de la década siguiente. Tendremos modelos de software efectivos de inteligencia humana para mediados de la década de 2020. Con el hardware y el software necesarios para emular completamente la inteligencia humana, podemos esperar que las computadoras pasen la prueba de Turing, lo que indicará una inteligencia indistinguible de la de los humanos biológicos, para fines de la década de 2020. Cuando alcancen este nivel de desarrollo, las computadoras podrán combinar las fortalezas tradicionales de la inteligencia humana con las fortalezas de la inteligencia artificial.
Las fortalezas tradicionales de la inteligencia humana incluyen una capacidad formidable para reconocer patrones, estructuras que le facilitan a nuestro cerebro el poner en práctica ciertas tareas diarias, con el fin de ahorrarse el trabajo de procesar tareas repetitivas una y otra vez. La naturaleza masivamente paralela y autoorganizada del cerebro humano es una arquitectura ideal para reconocer patrones que se basan en propiedades sutiles e invariantes. Los seres humanos también somos capaces de aprender nuevos conocimientos aplicando conocimientos e infiriendo principios a partir de la experiencia, incluida la información recopilada a través del lenguaje. Una capacidad clave de la inteligencia humana es la capacidad de crear modelos mentales de la realidad y realizar experimentos mentales de «qué pasaría si» variando los aspectos de estos modelos. Por otro lado, los puntos fuertes tradicionales de la inteligencia artificial incluyen la capacidad de recordar miles de millones de hechos con precisión y recuperarlos al instante. Otra ventaja de la inteligencia no biológica es que una vez que una máquina domina una habilidad, se puede realizar repetidamente a alta velocidad, con una precisión óptima y sin cansarse. Quizás lo más importante es que las máquinas pueden compartir su conocimiento a una velocidad extremadamente alta, en comparación con la velocidad muy lenta del intercambio de conocimiento humano a través del lenguaje. La inteligencia no biológica podrá descargar habilidades y conocimientos de otras máquinas, eventualmente también de seres humanos. Las máquinas procesarán y cambiarán las señales a una velocidad cercana a la de la luz, de alrededor de trescientos millones de metros por segundo, en comparación con los cien metros por segundo de las señales electroquímicas utilizadas en los cerebros biológicos de los mamíferos. Esta relación de velocidad es de al menos tres millones a uno. Asimismo las máquinas tendrán acceso a través de Internet a todo el conocimiento de nuestra civilización humano-máquina y podrán dominar todo este conocimiento. Por otro lado, las máquinas pueden poner en común sus recursos, inteligencia y memorias. Dos máquinas, o un millón de máquinas, pueden unirse para convertirse en una y luego volver a separarse. Múltiples máquinas pueden hacer ambas cosas al mismo tiempo: convertirse en una y separarse simultáneamente. Los humanos llaman a esto enamorarse, pero nuestra capacidad biológica para hacerlo es fugaz y poco confiable. La combinación de estas fortalezas tradicionales, la capacidad de reconocimiento de patrones de la inteligencia humana biológica y la velocidad, capacidad y precisión de la memoria, y habilidades para compartir conocimientos y habilidades de la inteligencia no biológica, será formidable.
La inteligencia artificial tendrá total libertad de diseño y arquitectura, es decir, no estará restringida por limitaciones biológicas, como la velocidad de conmutación lenta de nuestras conexiones interneuronales o un tamaño de cráneo fijo, así como un rendimiento constante en todo momento. Una vez que la inteligencia no biológica combine las fortalezas tradicionales de humanos y máquinas, la porción no biológica de la inteligencia de nuestra civilización continuará beneficiándose del doble crecimiento exponencial de la relación precio-rendimiento, velocidad y capacidad de las máquinas. Una vez que las máquinas alcancen la capacidad de diseñar y crear tecnología como lo hacen los humanos, solo que a velocidades y capacidades mucho más altas, tendrán acceso a sus propios diseños (código fuente) y la capacidad de manipularlos. Los humanos ahora estamos logrando algo similar a través de la biotecnología, cambiando la genética y otros procesos de información subyacentes a nuestra biología, pero de una manera mucho más lenta y mucho más limitada de lo que las máquinas podrán lograr modificando sus propios programas. La biología tiene limitaciones inherentes. Por ejemplo, todo organismo vivo debe construirse a partir de proteínas que se pliegan a partir de cadenas unidimensionales de aminoácidos. Los mecanismos basados en proteínas carecen de fuerza y velocidad. Seremos capaces de rediseñar todos los órganos y sistemas en nuestros cuerpos y cerebros biológicos para que sean mucho más capaces. Asimismo, la inteligencia humana tiene una cierta cantidad de plasticidad o capacidad para cambiar su estructura, más de lo que se había entendido previamente. Pero la arquitectura del cerebro humano es, no obstante, profundamente limitada. Por ejemplo, solo hay espacio para unos cien billones de conexiones interneuronales en cada uno de nuestros cráneos. Un cambio genético clave que permitió una mayor capacidad cognitiva de los humanos en comparación con la de nuestros ancestros primates fue el desarrollo de una corteza cerebral más grande, así como el desarrollo de un mayor volumen de tejido de materia gris en ciertas regiones del cerebro. Este cambio ocurrió, sin embargo, en la escala de tiempo muy lenta de la evolución biológica y todavía implica un límite inherente a la capacidad del cerebro. Las máquinas podrán reformular sus propios diseños y aumentar sus propias capacidades sin límite. Mediante el uso de diseños basados en nanotecnología, sus capacidades serán mucho mayores que las de los cerebros biológicos sin aumentar el tamaño o el consumo de energía.
Las máquinas también se beneficiarán del uso de circuitos moleculares tridimensionales muy rápidos. Los circuitos electrónicos actuales son más de un millón de veces más rápidos que la conmutación electroquímica utilizada en los cerebros de los mamíferos. Los circuitos moleculares del mañana se basarán en dispositivos como los nanotubos, que son diminutos cilindros de átomos de carbono que miden unos diez átomos de ancho y son quinientas veces más pequeños que los transistores de silicio actuales. Dado que las señales tienen menos distancia para viajar, también podrán operar a velocidades de terahercios (billones de operaciones por segundo) en comparación con las velocidades de unos pocos gigahercios (miles de millones de operaciones por segundo) de los chips actuales. La tasa de cambio tecnológico no se limitará a las velocidades mentales humanas. La inteligencia artificial mejorará sus propias capacidades en un ciclo de retroalimentación que la inteligencia humana sin ayuda no podrá seguir. Este ciclo de inteligencia artificial que mejora iterativamente su propio diseño será cada vez más rápido. De hecho, esto es exactamente lo que predice la fórmula para la aceleración continua de la tasa de cambio de paradigma. Una de las objeciones que se han planteado a la continuación de la aceleración del cambio de paradigma es que, en última instancia, se vuelve demasiado rápido para que los humanos lo sigan y, por lo tanto, se argumenta, no puede suceder. Sin embargo, el cambio de la inteligencia biológica a la no biológica permitirá que la tendencia continúe. Junto con el acelerado ciclo de mejora de la inteligencia no biológica, la nanotecnología permitirá la manipulación de la realidad física a nivel molecular. La nanotecnología permitirá diseñar nanobots: robots diseñados a nivel molecular, medidos en micras (millonésimas de metro), como los «respirocitos» (glóbulos rojos mecánicos). Los nanobots tendrán innumerables funciones dentro del cuerpo humano, incluida la reversión del envejecimiento humano, en la medida en que esta tarea aún no se haya completado a través de la biotecnología, como la ingeniería genética. Los nanobots interactuarán con las neuronas biológicas para ampliar enormemente la experiencia humana mediante la creación de realidad virtual desde dentro del propio sistema nervioso. Miles de millones de nanobots en los capilares del cerebro también ampliarán enormemente la inteligencia humana. Una vez que la inteligencia no biológica se afiance en el cerebro humano, lo que ya comenzó con los implantes neuronales computarizados, la inteligencia artificial en nuestros cerebros crecerá exponencialmente, como lo ha estado haciendo todo el tiempo, al menos duplicando su poder cada año. En contraste, la inteligencia biológica es efectivamente de capacidad limitada. Así, la porción no biológica de nuestra inteligencia finalmente predominará.
Los nanobots también mejorarán el medio ambiente al revertir la contaminación de la industrialización anterior. Nanobots llamados foglets que pueden manipular imágenes y ondas de sonido traerán las cualidades cambiantes de la realidad virtual al mundo real. Esta nanotecnología se basa en el concepto de robots minúsculos y autorreplicantes, en que en lugar de construir el objeto que se desea átomo a átomo, los minúsculos robots enlazarían sus brazos unos con otros para formar una masa sólida con la forma de dicho objeto. Después, simplemente desplazándose un poco a su alrededor podrían formar en su lugar, por ejemplo, otra forma totalmente diferente, y así sucesivamente. La capacidad humana para comprender y responder adecuadamente a las emociones, la llamada inteligencia emocional, es una de las formas de inteligencia humana que será comprendida y dominada por la futura inteligencia artificial. Algunas de nuestras respuestas emocionales están sintonizadas para optimizar nuestra inteligencia en el contexto de nuestros cuerpos biológicos limitados y frágiles. La inteligencia artificial del futuro también tendrá «cuerpos«, como, por ejemplo, cuerpos virtuales en realidad virtual o proyecciones en realidad real usando los foglets antes mencionados, para interactuar con el mundo, pero estos cuerpos creados con nanotecnología serán mucho más capaces y duraderos que los cuerpos humanos biológicos. Por lo tanto, algunas de las respuestas «emocionales» de la futura inteligencia artificial serán rediseñadas para reflejar sus capacidades físicas enormemente mejoradas. A medida que la realidad virtual desde dentro del sistema nervioso se vuelve competitiva con la realidad física en términos de resolución y credibilidad, nuestras experiencias se llevarán a cabo cada vez más en entornos virtuales. En la realidad virtual, podemos ser una persona diferente tanto física como emocionalmente. De hecho, otras personas, como nuestra pareja, podrán seleccionar un cuerpo diferente para nosotros, y viceversa. La ley de rendimientos acelerados pronosticada por Kurzweil continuará hasta que la inteligencia no biológica llegue a «saturar» la materia y la energía en nuestra vecindad del universo con nuestra inteligencia humano-máquina. Por saturación, Kurzweil se refiere a utilizar los patrones de materia y energía para la computación en un grado óptimo, según nuestra comprensión de la física de la computación. A medida que nos acerquemos a este límite, la inteligencia de nuestra civilización continuará su capacidad de expansión extendiéndose hacia el resto del universo. La velocidad de esta expansión alcanzará rápidamente la velocidad máxima a la que puede viajar la información. ¿Puede ser que otras civilizaciones galácticas ya hayan alcanzado este nivel?
En última instancia, todo el universo se saturará con nuestra inteligencia, lo que tal vez ya ha sucedido con otras civilizaciones. Este es el destino del universo que prevén los transhumanistas. Determinaremos nuestro propio destino en lugar de dejar que lo determinen las actuales fuerzas simples y mecánicas que gobiernan la mecánica celestial. El tiempo que tardará el universo en volverse inteligente hasta este punto depende de si la velocidad de la luz es o no un límite inmutable. Hay indicios de posibles sutiles excepciones a este límite, que, si existen, la vasta inteligencia de nuestra civilización en este tiempo futuro podrá explotar. Todo esto es la Singularidad. Algunos dirían que no podemos comprenderlo, al menos con nuestro nivel actual de comprensión. Por esa razón, no podemos mirar más allá de su horizonte de eventos y dar un sentido completo a lo que hay más allá. Esta es una de las razones por las que Kurzweil y otros científicos, especialmente los transhumanistas, llaman a esta transformación la Singularidad. A pesar de nuestras profundas limitaciones de pensamiento, tenemos suficientes poderes de abstracción para hacer declaraciones significativas sobre la naturaleza de la vida después de la Singularidad. Lo que es más importante, la inteligencia que surgirá supuestamente seguirá representando a la civilización humana, que ya será una civilización humano-máquina. En otras palabras, las futuras máquinas podrán ser consideradas «humanas«, aunque no sean biológicas. Este será el próximo paso en la evolución, el próximo cambio de paradigma de alto nivel. La mayor parte de la inteligencia de nuestra civilización será, en última instancia, no biológica. A finales de este siglo XXI, será billones de billones de veces más poderosa que la inteligencia humana. Sin embargo, para abordar las preocupaciones expresadas con frecuencia, esto no implica el fin de la inteligencia biológica, incluso si se la arroja de su posición de superioridad evolutiva. Incluso las formas no biológicas se derivarán del diseño biológico, por lo que podemos considerar que nuestra civilización seguirá siendo humana. De hecho los transhumanistas creen que, en muchos sentidos será más ejemplar en lo que consideramos humano de lo que es hoy, aunque nuestra comprensión del término irá más allá de sus orígenes biológicos. No obstante, muchos observadores han expresado su alarma por el surgimiento de formas de inteligencia no biológica superiores a la inteligencia humana, ya que pueden considerar que somos prescindibles.
El potencial para aumentar nuestra propia inteligencia a través de una conexión íntima con otros sustratos de pensamiento no necesariamente alivia la preocupación, ya que algunas personas han expresado el deseo de permanecer «sin mejorar» y al mismo tiempo mantener su lugar en la parte superior de la cadena intelectual. Desde la perspectiva de la humanidad biológica, estas inteligencias sobrehumanas parecerán ser nuestros servidores devotos, satisfaciendo nuestras necesidades y deseos. Pero tal vez suceda al revés. Pero cumplir los deseos de un legado biológico reverenciado ocupará solo una porción trivial del poder intelectual que traerá la Singularidad. La aceleración en curso de la tecnología es la implicación y el resultado inevitable de lo que Kurzweil llama la ley de rendimientos acelerados, que describe la aceleración del ritmo y el crecimiento exponencial de los productos de un proceso evolutivo. Hay muchos ejemplos del crecimiento exponencial que implica la ley de rendimientos acelerados, en áreas tan variadas como la electrónica de todo tipo, la secuenciación del ADN, las comunicaciones, el escaneo cerebral, la ingeniería inversa del cerebro, el tamaño y el alcance del conocimiento humano y la rápida reducción del tamaño de la tecnología. Esta última tendencia está directamente relacionada con la aparición de la nanotecnología. La futura era GNR (genética, nanotecnología, robótica) surgirá no solo de la explosión exponencial de la computación, sino más bien de la interacción y la miríada de sinergias que resultarán de múltiples avances tecnológicos entrelazados. Cuando se puso en marcha el escaneo del genoma humano en 1990, los críticos señalaron que, dada la velocidad con la que se podría escanear el genoma, llevaría miles de años terminar el proyecto. Sin embargo, el proyecto se completó en primera instancia en 2003. El costo de la secuenciación del ADN se redujo de unos diez dólares por par de bases en 1990 a un par de centavos en 2004 y sigue cayendo rápidamente. Ha habido un crecimiento exponencial suave en la cantidad de datos de secuencias de ADN que se han recopilado. Un ejemplo reciente de esta capacidad mejorada fue la secuenciación del virus del SARS, que tardó solo treinta y un días desde la identificación del virus, en comparación con los más de quince años para el virus del VIH.
El crecimiento exponencial de la tecnología de las comunicaciones ha sido durante muchos años incluso más explosivo que el procesamiento o el crecimiento de memoria de computación y no es menos importante en sus implicaciones. Una vez más, esta progresión implica mucho más que la reducción de transistores en un circuito integrado, sino que incluye avances acelerados en fibra óptica, conmutación óptica, tecnologías electromagnéticas y otros factores. Actualmente nos estamos alejando de la maraña de cables en nuestras ciudades y en nuestra vida diaria a través de la comunicación inalámbrica, cuyo poder se duplica cada diez u once meses. Desde la perspectiva de la mayoría de los observadores, nada sucedía en esta área de las comunicaciones hasta mediados de la década de 1990, cuando aparentemente de la nada surgieron la World Wide Web (Internet) y el correo electrónico. Pero el surgimiento de Internet como un fenómeno mundial era fácilmente predecible al examinar los datos de tendencias exponenciales a principios de la década de 1980 de ARPANET, predecesor de Internet. Para adaptarse a este crecimiento exponencial, la velocidad de transmisión de datos de la red troncal de Internet ha crecido exponencialmente. Otra tendencia que tendrá profundas implicaciones para el siglo XXI es el movimiento generalizado hacia la miniaturización. Los tamaños de características clave de una amplia gama de tecnologías, tanto electrónicas como mecánicas, están disminuyendo y a un ritmo exponencial. En la actualidad, estamos reduciendo la tecnología en un factor de aproximadamente cuatro por dimensión lineal por cada década. Esta miniaturización es una fuerza impulsora que también se refleja en el tamaño de todos los sistemas electrónicos, por ejemplo, el almacenamiento magnético. A medida que el tamaño de las características sobresalientes de una amplia gama de tecnologías se acerca inexorablemente al rango de menos de cien nanómetros, la mil millonésima parte de un metro, ha ido acompañado de un rápido crecimiento en el interés por la nanotecnología. Las citas de la ciencia de la nanotecnología han aumentado significativamente durante la última década,
La revolución de la genética (en el ámbito de la biotecnología) está trayendo la revolución de la información, con su capacidad y menor precio-rendimiento en aumento exponencial, al campo de la biología. De manera similar, la revolución de la nanotecnología traerá el rápido aumento del dominio de la información a los materiales y sistemas mecánicos. La revolución de la robótica y la «IA fuerte» involucra llevar a cabo la ingeniería inversa del cerebro humano, lo que significa llegar a comprender la inteligencia humana en términos de información y luego combinar los conocimientos resultantes con plataformas computacionales cada vez más poderosas. Por lo tanto, las tres transformaciones superpuestas (genética, nanotecnología y robótica) que dominarán la primera mitad de este siglo XXI representan diferentes facetas de la revolución de la información. Vemos pues, que todos los aspectos de la información y la tecnología de la información están creciendo a un ritmo exponencial. Inherente a la expectativa de que ocurra una Singularidad en la historia humana está la importancia generalizada de la información para el futuro de la experiencia humana. Vemos información en todos los niveles de la existencia. Todas las formas de conocimiento humano y expresión artística, como ideas, diseños científicos y de ingeniería, literatura, música, imágenes, películas, pueden expresarse como información digital. Nuestros cerebros también funcionan digitalmente, a través de disparos discretos de nuestras neuronas. El cableado de nuestras conexiones interneuronales se puede describir digitalmente, y el diseño de nuestros cerebros se especifica mediante un código genético digital sorprendentemente pequeño. De hecho, toda la biología opera a través de secuencias lineales de pares de bases de ADN de 2 bits, que a su vez controlan la secuenciación de solo veinte aminoácidos en las proteínas. Las moléculas forman arreglos discretos de átomos. El átomo de carbono, con sus cuatro posiciones que establecen conexiones moleculares, es particularmente hábil para crear una variedad de formas tridimensionales, lo que explica su papel central tanto en biología como en tecnología. Dentro del átomo, los electrones adquieren niveles discretos de energía. Otras partículas subatómicas, como los protones, comprenden cantidades discretas de quarks. Aunque las fórmulas de la mecánica cuántica se expresan en términos de campos continuos y niveles discretos, sabemos que los niveles continuos se pueden expresar con cualquier grado deseado de precisión utilizando datos binarios. De hecho, la mecánica cuántica, como implica la palabra «cuántica«, se basa en valores discretos o quanta.
El físico y matemático Stephen Wolfram proporciona amplia evidencia para mostrar cómo la complejidad creciente puede originarse en un universo que es, en esencia, un sistema algorítmico determinista, o sea, un sistema basado en reglas fijas con resultados predeterminados. En su libro A New Kind of Science, Wolfram ofrece un análisis completo de cómo los procesos subyacentes a una construcción matemática llamada «un autómata celular» tienen el potencial para describir todos los niveles de nuestro mundo natural. Un autómata celular es un mecanismo computacional simple que, por ejemplo, cambia el color de cada celda en una cuadrícula según el color de las celdas cercanas adyacentes de acuerdo con una regla de transformación. En su opinión, es factible expresar todos los procesos de información en términos de operaciones en autómatas celulares, por lo que las ideas de Wolfram se relacionan con varios temas clave relacionados con la información y su omnipresencia. Wolfram postula que el universo mismo es una computadora celular autómata gigante. En su hipótesis hay un básico digital para los fenómenos aparentemente analógicos, como el movimiento y el tiempo, y para las fórmulas de la física, y podemos modelar nuestra comprensión de la física como la simple transformación de un autómata celular. Otros científicos han propuesto esta posibilidad. El físico Richard Feynman se preguntó al respecto al considerar la relación de la información con la materia y la energía. El matemático y filósofo estadounidense, conocido como el fundador de la cibernética, Norbert Wiener, anunció un cambio fundamental en el enfoque de la energía a la información en su libro Cybernetic de 1948 y sugirió que la transformación de la información, no la energía, era el componente fundamental del universo. Quizás el primero en postular que el universo está siendo computado en una computadora digital fue Konrad Zuse en 1967. Zuse es mejor conocido como el inventor de la primera computadora programable en funcionamiento, que desarrolló entre 1935 y 1941. Un defensor entusiasta de una teoría de la física basada en la información fue Edward Fredkin, quien a principios de la década de 1980 propuso una «nueva teoría de la física» basada en la idea de que el universo está compuesto en última instancia por software. No deberíamos pensar en la realidad como compuesta de partículas y fuerzas, según Fredkin, sino como bits de datos modificados de acuerdo con las reglas de cálculo. Fredkin fue citado por el periodista y académico estadounidense, además de un galardonado autor sobre ciencia, psicología evolucionista, historia, religión y teoría de juegos, Robert Wright, en la década de 1980 diciendo: «Hay tres grandes cuestiones filosóficas. ¿Qué es la vida? ¿Qué es la conciencia y el pensamiento y la memoria y todo eso? ¿Y cómo funciona el universo? El punto de vista de la información abarca los tres. Lo que digo es que en el nivel más básico de complejidad, un proceso de información ejecuta lo que consideramos física. En un nivel mucho más alto de complejidad, la vida, el ADN, ya sabes, la función bioquímica, están controlados por un proceso de información digital. Luego, en otro nivel, nuestros procesos de pensamiento son básicamente procesamiento de información… Encuentro la evidencia que respalda mis creencias en diez mil lugares diferentes. Y para mí es totalmente abrumador. Es como si hubiera un animal que quiero encontrar. He encontrado sus huellas. He encontrado sus excrementos. He encontrado la comida a medio masticar. Encuentro pedazos de su piel, y así sucesivamente. En todos los casos se ajusta a un tipo de animal, y no se parece a ningún animal que nadie haya visto jamás. La gente dice, ¿Dónde está este animal? Digo, bueno, estuvo aquí, es así de grande, esto aquello y lo otro. Y sé mil cosas sobre él. No lo tengo en la mano, pero sé que está ahí. Lo que veo es tan convincente que no puede ser una criatura de mi imaginación«.
Asimismo, al comentar sobre la teoría de la física digital de Fredkin, Wright escribe: «Fredkin está hablando de una característica interesante de algunos programas de computadora, incluidos muchos autómatas celulares: no hay atajos para descubrir a dónde conducirán. Esta, de hecho, es una diferencia básica entre el enfoque ‘analítico’ asociado con las matemáticas tradicionales, incluidas las ecuaciones diferenciales, y el enfoque ‘computacional’ asociado con los algoritmos. Puede predecir un estado futuro de un sistema susceptible al enfoque analítico sin averiguar qué estados ocupará entre ahora y entonces, pero en el caso de muchos autómatas celulares, debe pasar por todos los estados intermedios para descubrir cuál es el final. será como decir: no hay forma de conocer el futuro excepto verlo desarrollarse. Fredkin explica: ‘No hay forma de saber la respuesta a alguna pregunta más rápido que lo que está pasando’. Fredkin cree que el universo es muy literalmente una computadora y está siendo utilizada por alguien, o algo, para resolver un problema. Suena como una broma de buenas y malas noticias: la buena noticia es que nuestras vidas tienen un propósito; la noticia básica es que su propósito es ayudar a algún hacker remoto a estimar pi en nueve billones de decimales«. Fredkin continuó demostrando que aunque se necesita energía para almacenar y recuperar información, podemos reducir arbitrariamente la energía requerida para realizar cualquier ejemplo particular de procesamiento de información. y que esta operación no tiene límite inferior. Eso implica que la información, en lugar de la materia y la energía, puede considerarse como la realidad más fundamental. La idea de que un proceso completamente determinista puede producir resultados que son completamente impredecibles es de gran importancia, ya que proporciona una explicación de cómo el mundo puede ser inherentemente impredecible mientras aún se basa en reglas completamente deterministas. En un nivel diferente, lo vemos en el propio cerebro humano, que comienza con solo alrededor de treinta a cien millones de bytes de especificación en el genoma comprimido pero termina, en base al aprendizaje, con una complejidad que es aproximadamente mil millones de veces mayor.
El ser humano cumple un propósito altamente exigente: sobrevivir en un nicho ecológico desafiante. Los seres humanos representan una jerarquía extremadamente intrincada y elaborada de otros patrones. El físico y matemático Stephen Wolfram considera que cualquier patrón que combine algunas características reconocibles y elementos impredecibles es efectivamente equivalente a otro. Pero no muestra cómo un autómata celular puede aumentar su complejidad, y mucho menos convertirse en un patrón tan complejo como un ser humano. Aquí hay un eslabón perdido, uno que explicaría cómo uno pasa de los patrones interesantes pero en última instancia rutinarios de un autómata celular a la complejidad de las estructuras persistentes que demuestran niveles más altos de inteligencia. Entonces, los autómatas celulares solo nos llevan hasta cierto punto. Entonces, ¿cómo pasamos de estos patrones interesantes pero limitados a las más importantes obras artísticas? Un concepto que debemos tener en cuenta es la evolución. Si agregamos otro concepto simple, un algoritmo evolutivo, al de los autómatas celulares simples de Wolfram, comenzamos a obtener resultados mucho más emocionantes e inteligentes. Un algoritmo evolutivo puede comenzar con soluciones potenciales generadas aleatoriamente para un problema, que se codifican en un código genético digital. Luego se provoca que las soluciones compitan entre sí en una batalla evolutiva simulada. Las mejores soluciones sobreviven y procrean en una reproducción sexual simulada en la que se crean soluciones descendientes, extrayendo su código genético de dos «padres«. También podemos introducir una tasa de mutación genética. Varios parámetros de alto nivel de este proceso, como la tasa de mutación, la tasa de descendencia, etc., se denominan apropiadamente «parámetros de Dios«, y es el trabajo del ingeniero que diseña el algoritmo evolutivo establecer razonablemente los valores óptimos. El proceso se ejecuta durante muchos miles de generaciones de evolución simulada y al final del proceso es probable que se encuentren soluciones de un orden claramente superior a las iniciales. Los resultados de estos algoritmos evolutivos, a veces llamados genéticos, pueden ser soluciones elegantes e inteligentes para problemas complejos. Se han utilizado, por ejemplo, para crear diseños artísticos y diseños para formas de vida artificiales, así como para ejecutar una amplia gama de tareas prácticas, como el diseño de motores a reacción. Los algoritmos genéticos son un enfoque de la inteligencia artificial «debil«, es decir, la creación de sistemas que pueden realizar funciones particulares que solían requerir la aplicación de la inteligencia humana.
Pero todavía falta algo. Aunque los algoritmos genéticos son una herramienta útil para resolver problemas específicos, nunca han logrado nada parecido a una IA «fuerte«, es decir, una aptitud que se asemeje a las características amplias, profundas y sutiles de la inteligencia humana, en particular su poder de reconocimiento de patrones y su lenguaje de comandos. ¿El problema es que no ejecutamos los algoritmos evolutivos durante el tiempo suficiente? Después de todo, los humanos evolucionaron a través de un proceso evolutivo que se supone tomó miles de millones de años. Quizás no podamos recrear ese proceso con solo unos días o semanas de simulación por computadora. Sin embargo, esto no funcionará porque los algoritmos genéticos convencionales alcanzan una asíntota, concepto que se utiliza en el ámbito de la geometría para nombrar a una recta que, a medida que se prolonga de manera indefinida, tiende a acercarse a una cierta curva o función, aunque sin alcanzar a hallarla, en su nivel de rendimiento, por lo que ejecutarlos durante un período de tiempo más largo no ayudaría. Un tercer nivel, más allá de la capacidad de los procesos celulares para producir aparente aleatoriedad y algoritmos genéticos para producir soluciones inteligentes enfocadas, es realizar la evolución en múltiples niveles. Los algoritmos genéticos convencionales permiten la evolución solo dentro de los límites de un problema limitado y un único medio de evolución. El código genético mismo necesita evolucionar, ya que las reglas de la evolución necesitan evolucionar. La naturaleza no se quedó con un solo cromosoma, por ejemplo. Ha habido muchos niveles incorporados en el proceso evolutivo natural. Y requerimos un entorno complejo en el que tenga lugar la evolución. Sin embargo, para construir una IA fuerte, se tendrá la oportunidad de acortar este proceso mediante la ingeniería inversa del cerebro humano, un proyecto que ya está en marcha, beneficiándose así del proceso evolutivo que ya ha tenido lugar. Se aplicaran algoritmos evolutivos dentro de estas soluciones tal como lo hace el cerebro humano. Por ejemplo, el cableado en un feto es inicialmente aleatorio dentro de las limitaciones especificadas en el genoma en al menos algunas regiones. Investigaciones recientes muestran que las áreas que tienen que ver con el aprendizaje experimentan más cambios, mientras que las estructuras que tienen que ver con el procesamiento sensorial experimentan menos cambios después del nacimiento.
Dado que el universo corre a la velocidad más rápida que puede correr, por lo general no hay forma de cortocircuitar el proceso. Sin embargo, tenemos los beneficios de los miles de millones de años de evolución que ya han tenido lugar, los cuales son responsables del gran aumento del orden de complejidad en el mundo natural. Ahora podemos beneficiarnos de ello mediante el uso de herramientas evolucionadas para aplicar ingeniería inversa a los productos de la evolución biológica, de los que el más importante es cerebro humano. Sí, es cierto que algunos fenómenos de la naturaleza que pueden parecer complejos en algún nivel son simplemente el resultado de simples mecanismos computacionales subyacentes que son esencialmente autómatas celulares en funcionamiento. Wolfram nos brinda una base teórica convincente para expresar estos procesos y sus patrones resultantes. Otra importante propuesta de Wolfram radica en su tratamiento completo de la computación como un fenómeno simple y ubicuo. Por supuesto, sabemos desde hace más de un siglo que la computación es intrínsecamente simple, aunque podemos construir cualquier nivel posible de complejidad a partir de la manipulación de información más simple posible. Aunque necesitamos conceptos adicionales para describir un proceso evolutivo que crea soluciones inteligentes a los problemas, la demostración de Wolfram de la simplicidad y ubicuidad de la computación es una contribución importante en nuestra comprensión del significado fundamental de la información en el mundo. La ley de rendimientos acelerados es fundamentalmente una teoría económica. La teoría y las políticas económicas contemporáneas se basan en modelos obsoletos que enfatizan los costos de la energía, los precios de las materias primas y la inversión de capital en plantas y equipos como factores impulsores clave, mientras que en gran medida pasan por alto la capacidad computacional, la memoria, el ancho de banda, el tamaño de la tecnología, la propiedad intelectual, el conocimiento, y otros componentes cada vez más vitales y cada vez más crecientes, que están impulsando la economía. Es el imperativo económico de un mercado competitivo la fuerza principal que impulsa la tecnología y alimenta la ley de rendimientos acelerados. A su vez, la ley de rendimientos acelerados está transformando las relaciones económicas. El imperativo económico es el equivalente a la supervivencia en la evolución biológica. Nos estamos moviendo hacia máquinas más inteligentes y más pequeñas como resultado de una miríada de pequeños avances, cada uno con su propia justificación económica particular. Las máquinas que pueden llevar a cabo sus misiones con mayor precisión tienen un mayor valor, lo que explica por qué se están construyendo. Hay decenas de miles de proyectos que están avanzando en los diversos aspectos de la ley de rendimientos acelerados en diversas formas incrementales.
Independientemente de los ciclos comerciales a corto plazo, el apoyo a la «alta tecnología» en la comunidad empresarial y, en particular, al desarrollo de software, ha crecido enormemente. Tendríamos que derogar el capitalismo y todo vestigio de competencia económica para detener esta progresión. Es importante señalar que avanzamos hacia la «nueva» economía basada en el conocimiento de manera exponencial pero, no obstante, paulatina. Cuando la llamada nueva economía no transformó los modelos de negocios de la noche a la mañana, muchos observadores descartaron rápidamente la idea como inherentemente defectuosa. Pasarán un par de décadas antes de que el conocimiento domine la economía, pero representará una profunda transformación cuando suceda. Vimos el mismo fenómeno en los ciclos de auge y caída de Internet y las telecomunicaciones. Los auges fueron impulsados por la idea válida de que Internet y la comunicación electrónica distribuida representaban transformaciones fundamentales. Pero cuando estas transformaciones no se produjeron en plazos poco realistas, se desvanecieron más de dos billones de dólares de capitalización de mercado en las empresas .com. Pero la adopción real de estas tecnologías progresó sin problemas sin indicios de auge o caída. Prácticamente todos los modelos económicos que se enseñan en las clases de economía y que utiliza la Junta de la Reserva Federal para establecer la política monetaria, las agencias gubernamentales para establecer la política económica y los pronosticadores económicos de todo tipo, tienen fallas fundamentales en su visión de las tendencias a largo plazo. Esto se debe a que se basan en la visión «lineal intuitiva» de la historia, o la suposición de que el ritmo de cambio continuará al ritmo actual, en lugar de la visión exponencial. La razón por la que estos modelos lineales parecen funcionar por un tiempo es la misma razón por la que la mayoría de las personas adoptan la vista lineal intuitiva en primer lugar, ya que las tendencias exponenciales parecen ser lineales cuando se ven y experimentan durante un breve período de tiempo, particularmente en las primeras etapas de una tendencia exponencial. Pero una vez que se alcanza la punto adecuado en la curva, el crecimiento exponencial estalla y los modelos lineales se derrumban.
Tengamos en cuenta que el crecimiento exponencial subyacente en la economía es una fuerza mucho más poderosa que las recesiones periódicas. Lo que es más importante, las recesiones, incluidas las depresiones, representan solo desviaciones temporales de la curva subyacente. Incluso la Gran Depresión de 1929 representa solo un pequeño bache en el contexto del patrón subyacente de crecimiento. En cada caso, la economía termina exactamente donde habría estado si la recesión/depresión nunca hubiera ocurrido. La economía mundial continúa acelerándose. La productividad (producción económica por trabajador) también ha estado creciendo exponencialmente. De hecho, estas estadísticas están muy subestimadas porque no reflejan completamente las mejoras significativas en la calidad y las características de los productos y servicios. Los medicamentos farmacéuticos son cada vez más efectivos porque ahora están siendo diseñados para llevar a cabo modificaciones precisas en las rutas metabólicas exactas que subyacen a la enfermedad y los procesos de envejecimiento, con efectos secundarios mínimos. Los productos pedidos en cinco minutos en la Web y entregados en su puerta valen más que los productos que tiene que ir a buscar uno mismo. La ropa hecha a medida para tu cuerpo único vale más que la ropa que encuentras en el estante de una tienda. Este tipo de mejoras se están produciendo en la mayoría de las categorías de productos y ninguna de ellas se refleja en las estadísticas de productividad. Los métodos estadísticos que subyacen a las mediciones de la productividad tienden a descartar las ganancias al concluir esencialmente que todavía obtenemos solo un dólar de productos y servicios por un dólar, a pesar de que obtenemos mucho más por ese dólar. Las computadoras son un ejemplo extremo de este fenómeno, pero está generalizado. El profesor de la Universidad de Chicago, Pete Klenow, y el profesor de la Universidad de Rochester, Mark Bils, estiman que el valor en dólares constantes de los bienes existentes ha aumentado un 1,5% anual durante los últimos veinte años debido a las mejoras cualitativas. Esto todavía no tiene en cuenta la introducción de productos y categorías de productos completamente nuevos, como los teléfonos celulares, los buscapersonas, las computadoras de bolsillo, las canciones descargadas y los programas de software. No considera el floreciente valor de la propia Web. ¿Cómo valoramos la disponibilidad de recursos gratuitos como las enciclopedias en línea y los motores de búsqueda que brindan cada vez más puertas de entrada efectivas al conocimiento humano?
Una preocupación de los economistas es que si los consumidores pueden comprar lo que necesitan y quieren con menos dólares, la economía se contraerá. Esto ignora, sin embargo, las necesidades y los deseos intrínsecamente insaciables de los consumidores humanos. Sí, es cierto que el crecimiento económico y otros factores similares son inflacionarios, estos factores se ven compensados por las tendencias exponenciales en la relación precio-rendimiento de todas las tecnologías basadas en la información: computación, memoria, comunicaciones, biotecnología, miniaturización e incluso la tasa general de progreso técnico. Estas tecnologías afectan profundamente a todas las industrias. También estamos experimentando una desintermediación masiva en los canales de distribución a través de la Web y otras nuevas tecnologías de comunicación, así como una mayor eficiencia en las operaciones y la administración. Es importante señalar que una implicación clave de la nanotecnología es que llevará la economía del software al hardware, es decir, a los productos físicos. Los precios del software se están desinflando aún más rápidamente que los del hardware. El impacto de las comunicaciones distribuidas e inteligentes se ha sentido quizás con mayor intensidad en el mundo de los negocios. Los nuevos modelos basados en la comunicación directa y personalizada con el cliente transformarán todas las industrias, lo que dará como resultado una desintermediación masiva de las capas intermedias que tradicionalmente han separado al cliente de la fuente última de productos y servicios. Ampliar el acceso al conocimiento también está cambiando las relaciones de poder. Los consumidores de prácticamente todo, desde lavadoras, automóviles y viviendas hasta banca y seguros, ahora utilizan agentes de software automatizados para identificar rápidamente las opciones correctas con las características y los precios óptimos. Los servicios web como eBay están conectando rápidamente a compradores y vendedores de formas sin precedentes. Los deseos y anhelos de los clientes, a menudo desconocidos incluso para ellos mismos, se están convirtiendo rápidamente en la fuerza motriz de las relaciones comerciales. Los compradores de ropa bien conectados, por ejemplo, seleccionarán los materiales y estilos correctos al ver cuántas combinaciones posibles se ven en una imagen tridimensional de su propio cuerpo, basado en un escaneo corporal detallado, y luego tendrán las opciones fabricadas a medida.
Las desventajas actuales del comercio basado en la Web, como, por ejemplo, las limitaciones en la capacidad de interactuar directamente con los productos y las frecuentes frustraciones de interactuar con menús y formularios inflexibles en lugar de personal humano, se disolverán gradualmente a medida que las tendencias se muevan con fuerza a favor de la electrónica. Para fines de esta década, las computadoras desaparecerán como objetos físicos distintos, con pantallas integradas en nuestros anteojos y dispositivos electrónicos entretejidos en nuestra ropa, proporcionando una realidad virtual visual de inmersión total. Así, «ir a un sitio Web» supondrá entrar en un entorno de realidad virtual, al menos para los sentidos visual y auditivo, donde podremos interactuar directamente con productos y personas, tanto reales como simuladas. Aunque las personas simuladas todavía no estarán a la altura de los estándares humanos, serán bastante satisfactorias como agentes de ventas, encargados de reservas y asistentes de investigación. Las interfaces hápticas (táctiles) nos permitirán tocar productos y personas. Es difícil identificar alguna ventaja duradera del viejo mundo de las tiendas físicas que no será finalmente superada por las ricas interfaces interactivas que pronto llegarán. Estos desarrollos tendrán implicaciones significativas para la industria de bienes raíces. La necesidad de congregar a los trabajadores en las oficinas disminuirá gradualmente. Actualmente ya somos capaces de organizar de manera efectiva equipos geográficamente dispares, algo que era mucho más difícil hace una década. Los entornos de realidad virtual visual-auditiva de inmersión total, como el Metaverso, que serán omnipresentes durante la década de 2020, acelerarán la tendencia a que las personas vivan y trabajen donde quieran. Una vez que tengamos entornos de realidad virtual de inmersión total que incorporen todos los sentidos, lo que será factible probablemente a fines de la década de 2020, no habrá razón para utilizar oficinas reales. Asimismo, gran parte de los bienes raíces se volverán virtuales.
Además, la innovación y el ritmo de cambio de paradigma no se ven notablemente afectados por las pequeñas desviaciones provocadas por los ciclos económicos. Todas las tecnologías que exhiben un crecimiento exponencial continúan sin perder el ritmo debido a las desaceleraciones económicas. El crecimiento general de la economía refleja formas y capas completamente nuevas de riqueza y valor que no existían anteriormente, o al menos que no constituían previamente una parte significativa de la economía, como nuevas formas de materiales basados en nanopartículas, información genética, propiedad intelectual, portales de comunicación, sitios web, ancho de banda, software, bases de datos y muchas otras categorías nuevas basadas en tecnología. El sector de la tecnología de la información en general está aumentando rápidamente su participación en la economía y tiene una influencia cada vez mayor en todos los demás sectores. Si podemos construir una IA genuina, hay razones para creer que podemos construir cosas como neuronas que sean un millón de veces más rápidas. Eso lleva a la conclusión de que se pueden hacer sistemas que piensen un millón de veces más rápido que una persona. Con Inteligencia Artificial (IA), estos sistemas podrían incluso hacer diseños de ingeniería. Combinando esto con la capacidad de un sistema para construir algo mejor que él mismo, tenemos la posibilidad de una transición muy abrupta. Esta situación puede ser más difícil de manejar incluso que la nanotecnología, pero es mucho más difícil pensar en ella de manera constructiva en este momento. En la edición del 19 de abril de 1965 de la revista Electronics, el doctorado en química y física en el Instituto de Tecnología de California, además de ser cofundador de Intel y autor de la famosa Ley de Moore, Gordon Moore, escribió: «El futuro de la electrónica integrada es el futuro de la electrónica misma. Las ventajas de la integración provocarán una proliferación de la electrónica, impulsando esta ciencia hacia muchas áreas nuevas«. Con esas palabras, Moore marcó el comienzo de una revolución que aún está ganando impulso. El artículo de Moore describía la duplicación anual repetida del número de transistores que podrían instalarse en un circuito integrado. Su predicción de la «Ley de Moore» de 1965 fue criticada en ese momento porque su gráfico logarítmico de la cantidad de componentes en un chip tenía solo cinco puntos de referencia, por lo que proyectar esta tendencia naciente hasta 1975 se consideró como prematuro. La estimación inicial de Moore era incorrecta y la revisó a la baja una década después. Pero la idea básica, el crecimiento exponencial de la relación precio-rendimiento de la electrónica basado en la reducción del tamaño de los transistores en un circuito integrado, era válida y profética.
La aceleración de la computación lo ha transformado todo, desde las relaciones sociales y económicas hasta las instituciones políticas. Pero Moore no señaló en sus artículos que la estrategia de reducir el tamaño de las características no era, de hecho, el primer paradigma que trajo un crecimiento exponencial a la computación y la comunicación. Ya podemos ver las líneas generales del siguiente, la computación a nivel molecular y en tres dimensiones. Debe hacerse un análisis de la cantidad de cómputo y memoria requerida para alcanzar los niveles humanos de inteligencia y por qué podemos estar seguros de que estos niveles se alcanzarán en computadoras económicas a finales de la actual década del 2020. Incluso estas computadoras tan poderosas estarán lejos de ser óptimas, por lo que debemos ver cuáles son los límites de la computación de acuerdo con las leyes de la física tal como la entendemos hoy. Esto nos llevará a las computadoras de finales del siglo XXI. Los pasos intermedios ya están en marcha, por lo que las nuevas tecnologías que conducirán al paradigma de la computación tridimensional molecular incluyen nanotubos y circuitos de nanotubos, computación molecular, autoensamblaje en circuitos de nanotubos, sistemas biológicos que emulan el ensamblaje de circuitos, computación con ADN, espintrónica, o computación con el espín de los electrones, computación con luz y computación cuántica. Muchas de estas tecnologías independientes pueden integrarse en sistemas computacionales que eventualmente se acercarán a la capacidad máxima teórica de la materia y la energía para realizar cálculos y superarán con creces las capacidades computacionales de un cerebro humano. Los nanotubos siguen siendo la mejor apuesta. En La era de las máquinas espirituales, Kurzweil cita los nanotubos, que usan moléculas organizadas en tres dimensiones para almacenar bits de memoria y actuar como puertas lógicas, como la tecnología más probable para marcar el comienzo de la era de la computación molecular tridimensional. Los nanotubos, sintetizados por primera vez en 1991, son tubos formados por una red hexagonal de átomos de carbono que se han enrollado para formar un cilindro sin costuras. Los nanotubos son muy pequeños, ya que los nanotubos de una sola pared tienen solo un nanómetro de diámetro, una milmillonésima parte del metro, por lo que pueden alcanzar altas densidades. También son potencialmente muy rápidos. pudiendo llegar ser aproximadamente 1000 veces más rápido que las velocidades de las computadoras modernas. Una pulgada cúbica de circuitos de nanotubos, una vez completamente desarrollada, sería hasta cien millones de veces más poderosa que el cerebro humano. Los circuitos de nanotubos fueron controvertidos, pero ha habido un progreso espectacular de la tecnología en los últimos años. Además de los nanotubos, en los últimos años se ha avanzado mucho en la computación con una sola molécula o con pocas. La idea de computar con moléculas fue sugerida por primera vez a principios de la década de 1970 por Avi Aviram de IBM y Mark A. Ratner de la Universidad Northwestern. En ese momento, no teníamos las tecnologías habilitadoras, lo que requería avances simultáneos en electrónica, física, química e incluso la ingeniería inversa de procesos biológicos para que la idea ganara fuerza.
En 2002, científicos de la Universidad de Wisconsin y la Universidad de Basilea crearon una «unidad de memoria atómica» que utiliza átomos para emular un disco duro. Se podría agregar o quitar un solo átomo de silicio de un bloque de otros veinte usando un microscopio de efecto túnel. Usando este proceso, los investigadores creen que el sistema podría usarse para almacenar millones de veces más datos en un disco de tamaño comparable, con una densidad de aproximadamente 250 terabits de datos por pulgada cuadrada. Un tipo de molécula que los investigadores han encontrado que tiene propiedades deseables para la computación se llama «rotaxano«, que puede cambiar de estado cambiando el nivel de energía de una estructura en forma de anillo contenida dentro de la molécula. Se han demostrado dispositivos de conmutación electrónica y de memoria de rotaxano, y muestran el potencial de almacenar cien gigabits (1011 bits) por pulgada cuadrada. El potencial sería aún mayor si se organizara en tres dimensiones. El autoensamblaje de circuitos a nanoescala es otra técnica habilitadora clave para una nanoelectrónica eficaz. El autoensamblaje permite que los componentes formados incorrectamente se desechen automáticamente y hace posible que los billones de componentes del circuito se organicen por sí mismos, en lugar de ensamblarse minuciosamente en un proceso de arriba hacia abajo. Permitiría que se crearan circuitos a gran escala en tubos de ensayo en lugar de en fábricas multimillonarias, usando química en lugar de litografía, según científicos de la Universidad de California, Los Ángeles (UCLA). Investigadores de la Universidad de Purdue ya han demostrado estructuras de nanotubos autoorganizados, utilizando el mismo principio que hace que las hebras de ADN se unan en estructuras estables. Los científicos de la Universidad de Harvard dieron un paso clave en junio de 2004 cuando demostraron otro método de autoorganización que se puede utilizar a gran escala. La técnica comienza con la fotolitografía para crear una matriz grabada de interconexiones, o conexiones entre elementos computacionales. Luego, se deposita en la matriz una gran cantidad de transistores de efecto de campo de nanocables e interconexiones a nanoescala. Estos luego se conectan en el patrón correcto. En 2004, investigadores de la Universidad del Sur de California y el Centro de Investigación Ames de la NASA demostraron un método que autoorganiza circuitos extremadamente densos en una solución química. La técnica crea nanocables espontáneamente y luego hace que las células de memoria a nanoescala, cada una capaz de contener tres bits de datos, se autoensamblen en los cables. La tecnología tiene una capacidad de almacenamiento de 258 gigabits de datos por pulgada cuadrada que, según los investigadores, podría multiplicarse por diez, en comparación con los 6,5 gigabits de una tarjeta de memoria flash. También en 2003, IBM demostró un dispositivo de memoria de trabajo que utiliza polímeros que se autoensamblan en estructuras hexagonales de veinte nanómetros de ancho. También es importante que los nanocircuitos se autoconfiguren. La gran cantidad de componentes del circuito y su fragilidad inherente, debido a su pequeño tamaño, hacen que sea inevitable que algunas partes de un circuito no funcionen correctamente. No sería económicamente factible descartar un circuito completo simplemente porque una pequeña cantidad de transistores de un billón no funcionen. Para abordar esta preocupación, los circuitos futuros monitorearán continuamente su propio desempeño y enrutarán la información alrededor de las secciones que no son confiables, de la misma manera que la información en Internet se enruta alrededor de los nodos que no funcionan. IBM ha sido particularmente activa en esta área de investigación y ya ha desarrollado diseños de microprocesadores que automáticamente diagnostican problemas y reconfiguran los recursos del chip en consecuencia.
La idea de construir sistemas electrónicos o mecánicos que se autorreplican y se autoorganizan está inspirada en la biología, que se basa en estas propiedades. La investigación publicada en Proceedings of the National Academy of Sciences describió la construcción de nanocables autorreplicantes basados en priones, que son proteínas biológicas autorreplicantes. Una forma de prión parece desempeñar un papel en la memoria humana. El equipo involucrado en el proyecto utilizó priones como modelo debido a su fuerza natural. Sin embargo, debido a que los priones normalmente no conducen la electricidad, los científicos crearon una versión genéticamente modificada que contiene una fina capa de oro, que conduce la electricidad con baja resistencia. La profesora de biología del MIT, Susan Lindquist, quien dirigió el estudio, comentó: «La mayoría de las personas que trabajan en nanocircuitos intentan construirlos utilizando técnicas de fabricación ‘de arriba hacia abajo’. Pensamos que probaríamos un enfoque ‘de abajo hacia arriba’, y dejemos que el autoensamblaje molecular haga el trabajo duro por nosotros«. La última molécula autorreplicante de la biología es, por supuesto, el ADN. Los investigadores de la Universidad de Duke crearon bloques de construcción moleculares llamados «mosaicos» a partir de moléculas de ADN autoensambladas. Pudieron controlar la estructura del ensamblaje resultante, creando «nanogrids» o nano redes en cuadricula. Esta técnica adjunta automáticamente moléculas de proteína a la celda de cada nanogrid, que podría usarse para realizar operaciones informáticas. También demostraron un proceso químico que recubría las nanocintas de ADN con plata para crear nanocables. Comentando el artículo del número del 26 de septiembre de 2003 de la revista Science, el investigador principal, Hao Yan, dijo: «Durante años se ha buscado usar el autoensamblaje del ADN para moldear moléculas de proteínas u otras moléculas, y esta es la primera vez que ha sido demostrado tan claramente«. El ADN es la propia computadora de nanoingeniería de la naturaleza, y su capacidad para almacenar información y realizar manipulaciones lógicas a nivel molecular ya ha sido explotada en «computadoras de ADN» especializadas. Una computadora de ADN es esencialmente un tubo de ensayo lleno de agua que contiene billones de moléculas de ADN, y cada molécula actúa como una computadora.
El objetivo del cálculo es resolver un problema, con la solución expresada como una secuencia de símbolos. Por ejemplo, la secuencia de símbolos podría representar una prueba matemática o simplemente los dígitos de un número. Así es como funciona una computadora de ADN. Se crea una pequeña hebra de ADN utilizando un código único para cada símbolo. Cada cadena de este tipo se replica billones de veces mediante un proceso llamado «reacción en cadena de la polimerasa» (PCR). Estos conjuntos de ADN se colocan luego en un tubo de ensayo. Debido a que el ADN tiene afinidad para unir cadenas, se forman cadenas largas automáticamente, con secuencias de cadenas que representan los diferentes símbolos, cada uno de ellos una posible solución al problema. Dado que habrá muchos trillones de hilos de este tipo, hay varios hilos para cada respuesta posible, es decir, cada secuencia posible de símbolos. El siguiente paso del proceso es probar todos los hilos simultáneamente. Esto se hace mediante el uso de enzimas especialmente diseñadas que destruyen las hebras que no cumplen con ciertos criterios. Las enzimas se aplican al tubo de ensayo secuencialmente y, al diseñar una serie precisa de enzimas, el procedimiento eliminará finalmente todas las hebras incorrectas, dejando solo las que tengan la respuesta correcta. La clave del poder de la computación de ADN es que permite probar cada uno de los billones de hilos simultáneamente. En 2003, científicos israelíes dirigidos por Ehud Shapiro en el Instituto de Ciencias Weizmann combinaron ADN con trifosfato de adenosina (ATP), el combustible natural para sistemas biológicos como el cuerpo humano. Con este método, cada una de las moléculas de ADN pudo realizar cálculos y proporcionar su propia energía. Los científicos del Instituto de Ciencias Weizmann demostraron una configuración que constaba de dos cucharadas de este sistema de supercomputación líquida, que contenía treinta billones de billones de computadoras moleculares y realizaba un total de 660 billones de cálculos por segundo. El consumo de energía de estas computadoras es extremadamente bajo, solo cincuenta millonésimas de vatio para los treinta billones de computadoras. Sin embargo, existe una limitación para la computación de ADN, ya que cada uno de los muchos billones de computadoras tiene que realizar la misma operación al mismo tiempo, aunque con diferentes datos, de modo que el dispositivo es una arquitectura de «datos múltiples de instrucción única» (SIMD). Si bien hay clases importantes de problemas que pueden resolverse en un sistema SIMD, como, por ejemplo, procesar cada píxel de una imagen para mejorar o comprimir la imagen y resolver problemas de lógica combinatoria, no es posible programarlos para algoritmos de propósito general, en el que cada ordenador es capaz de ejecutar cualquier operación necesaria para su misión particular.
Además de su carga eléctrica negativa, los electrones tienen otra propiedad que puede aprovecharse para la memoria y la computación: el espín. Según la mecánica cuántica, los electrones giran sobre un eje, de forma similar a como la Tierra gira sobre su eje. Este concepto es teórico, porque se considera que un electrón ocupa un punto en el espacio, por lo que es difícil imaginar un punto sin tamaño que, sin embargo, gire. No obstante, cuando una carga eléctrica se mueve, provoca un campo magnético que es real y medible. Un electrón puede girar en una de dos direcciones, descritas como «arriba» y «abajo«, por lo que esta propiedad puede explotarse para el cambio lógico o para codificar un poco de memoria. La emocionante propiedad de la espintrónica es que no se requiere energía para cambiar el estado de espín de un electrón. El profesor de física de la Universidad de Stanford, Shoucheng Zhang, y el profesor de la Universidad de Tokio, Naoto Nagaosa, lo expresaron de esta manera: «Hemos descubierto el equivalente de una nueva ‘Ley de Ohm’ [la ley de la electrónica que establece que la corriente en un cable es igual al voltaje dividido por la resistencia]. La nueva ley dice que el espín del electrón se puede transportar sin pérdida de energía ni disipación. Además, este efecto se produce a temperatura ambiente en materiales que ya se utilizan ampliamente en la industria de los semiconductores, como el arseniuro de galio. Eso es importante porque podría habilitar una nueva generación de dispositivos informáticos«. El potencial, entonces, es lograr las eficiencias de los superconductores, es decir, mover información a la velocidad de la luz o cerca de ella sin pérdida de información, a temperatura ambiente. También permite que se utilicen múltiples propiedades de cada electrón para la computación, lo que aumenta el potencial de la memoria y la densidad computacional. Una forma de espintrónica ya es familiar para los usuarios de computadoras. Se trata de la magnetorresistencia, un cambio en la resistencia eléctrica causado por un campo magnético, que se usa para almacenar datos en discos duros magnéticos. Se espera que una nueva y emocionante forma de memoria no volátil basada en espintrónica llamada MRAM (memoria magnética de acceso aleatorio) ingrese al mercado dentro de unos años. Al igual que los discos duros, la memoria MRAM retiene sus datos sin alimentación, pero no utiliza piezas móviles y tendrá velocidades y capacidad de reescritura comparables a las de la memoria RAM convencional.
MRAM almacena información en aleaciones metálicas ferromagnéticas, que son adecuadas para el almacenamiento de datos pero no para las operaciones lógicas de un microprocesador. El santo grial de la espintrónica sería lograr efectos prácticos de la espintrónica en un semiconductor, lo que nos permitiría utilizar la tecnología tanto para la memoria como para la lógica. La fabricación de chips actual se basa en silicio, que no tiene las propiedades magnéticas requeridas. En marzo de 2004, un grupo internacional de científicos informó que al dopar una mezcla de silicio y hierro con cobalto, el nuevo material podía mostrar las propiedades magnéticas necesarias para la espintrónica mientras mantenía la estructura cristalina que requiere el silicio como semiconductor. Parece claro un papel importante para la espintrónica en el futuro de la memoria de las computadoras, y es probable que también contribuya a los sistemas lógicos. El espín de un electrón es una propiedad cuántica. sujeta a las leyes de la mecánica cuántica, por lo que quizás la aplicación más importante de la espintrónica sea en los sistemas de computación cuántica, utilizando el espín de los electrones entrelazados cuánticamente para representar qubits. El espín también se ha utilizado para almacenar información en el núcleo de los átomos, utilizando la compleja interacción de los momentos magnéticos de sus protones. Los científicos de la Universidad de Oklahoma también demostraron una técnica de «fotografía molecular» para almacenar 1.024 bits de información en una sola molécula de cristal líquido que comprende diecinueve átomos de hidrógeno. Otro enfoque de la computación Single Instruction, Multiple Data (SIMD), «una instrucción, múltiples datos» es una técnica empleada para conseguir paralelismo a nivel de datos. SIMD consiste en utilizar múltiples haces de luz láser en los que la información se codifica en cada flujo de fotones. Entonces, los componentes ópticos pueden usarse para realizar funciones lógicas y aritméticas en los flujos de información codificada. Por ejemplo, un sistema desarrollado por Lenslet, una pequeña empresa israelí, utiliza 256 láseres y puede realizar ocho billones de cálculos por segundo, realizando el mismo cálculo en cada uno de los 256 flujos de datos. El sistema se puede utilizar para aplicaciones tales como realizar la compresión de datos en 256 canales de video.
Las tecnologías SIMD, como las computadoras de ADN y las computadoras ópticas, desempeñarán funciones especializadas importantes en el futuro de la computación. La replicación de ciertos aspectos de la funcionalidad del cerebro humano, como el procesamiento de datos sensoriales, puede utilizar arquitecturas SIMD. Para otras regiones del cerebro, como las que se ocupan del aprendizaje y el razonamiento, se requerirá computación de propósito general con sus arquitecturas de «múltiples instrucciones, múltiples datos» (MIMD). Para la computación MIMD de alto rendimiento, necesitaremos aplicar los paradigmas de computación molecular tridimensional descritos anteriormente. La computación cuántica es una forma aún más radical de procesamiento paralelo SIMD, pero se encuentra en una etapa de desarrollo mucho más temprana en comparación con las otras nuevas tecnologías que hemos discutido. Una computadora cuántica contiene una serie de qubits, que esencialmente son cero y uno al mismo tiempo. El qubit se basa en la ambigüedad fundamental inherente a la mecánica cuántica. En una computadora cuántica, los qubits están representados por una propiedad cuántica de las partículas, por ejemplo, el estado de espín de los electrones individuales. Cuando los qubits están en un estado de «superposición cuántica«, cada uno está simultáneamente en ambos estados. En un proceso llamado «decoherencia cuántica«, se resuelve la ambigüedad de cada qubit, dejando una secuencia inequívoca de unos y ceros. Si la computadora cuántica está configurada de la manera correcta, esa secuencia decoherente representará la solución a un problema. Esencialmente, solo la secuencia correcta sobrevive al proceso de decoherencia. Al igual que con la computadora de ADN descrita anteriormente, una clave para la computación cuántica exitosa es una declaración cuidadosa del problema, incluida una forma precisa de probar las posibles respuestas. La computadora cuántica prueba efectivamente todas las combinaciones posibles de valores para los qubits. Entonces, una computadora cuántica con mil qubits probaría 21000 de soluciones potenciales simultáneamente. Una computadora cuántica de mil qubits superaría con creces a cualquier computadora de ADN concebible o, en realidad, a cualquier computadora no cuántica concebible. Sin embargo, existen dos limitaciones en el proceso. La primera es que, como el ADN y las computadoras ópticas discutidas anteriormente, solo un conjunto especial de problemas es susceptible de ser presentado a una computadora cuántica. En esencia, necesitamos poder probar cada respuesta posible de una manera simple. Las clases interesantes de problemas que se pueden resolver con la computación cuántica incluyen descifrar códigos de encriptación. El otro problema es que la potencia computacional de una computadora cuántica depende de la cantidad de qubits entrelazados. En efecto, todos los qubits tienen que estar entrelazados cuánticamente, y eso ha demostrado ser un desafío.
Una pregunta clave es: ¿qué tan difícil es agregar cada qubit adicional? El poder computacional de una computadora cuántica crece exponencialmente con cada qubit agregado, pero si resulta que agregar cada qubit adicional hace que la tarea de ingeniería sea exponencialmente más difícil, no estaremos ganando ningún apalancamiento. Es decir, el poder computacional de una computadora cuántica será solo linealmente proporcional a la dificultad de ingeniería. En general, los métodos propuestos para agregar qubits hacen que los sistemas resultantes sean significativamente más delicados y susceptibles a una decoherencia prematura. Hay propuestas para aumentar significativamente el número de qubits. Por ejemplo, Stephan Gulde y sus colegas de la Universidad de Innsbruck han construido una computadora cuántica usando un solo átomo de calcio que tiene el potencial de codificar simultáneamente docenas de qubits, posiblemente hasta cien, usando diferentes propiedades cuánticas dentro del átomo. Pero incluso si una computadora cuántica con cientos de qubits entrelazados resulta factible, seguirá siendo un dispositivo de propósito especial, aunque con capacidades notables que no se pueden emular de ninguna otra manera. Cuando Kurzweil sugirió en su libro La era de las máquinas espirituales que la computación molecular sería el sexto paradigma informático principal, la idea seguía siendo controvertida. Ha habido tanto progreso en los últimos años que ha habido un cambio radical en la actitud de los expertos, y esta es ahora una opinión generalizada. Ya tenemos pruebas de concepto para todos los requisitos principales de la computación molecular tridimensional, tales como transistores de una sola molécula, celdas de memoria basadas en átomos, nanocables y métodos para autoensamblar y autodiagnosticar los potenciales billones de billones de componentes. La electrónica contemporánea procede desde los diseños detallados de chips hasta la fotolitografía y la fabricación de chips en grandes fábricas centralizadas. Es más probable que se creen nanocircuitos en pequeños frascos de sustancias químicas, un desarrollo que será otro paso importante en la descentralización de nuestra infraestructura industrial y mantendrá la ley de rendimientos acelerados a lo largo de este siglo XXI y más allá.
¿Cuál es la capacidad computacional de un cerebro humano? Se han realizado una serie de estimaciones basadas en la replicación de la funcionalidad de las regiones del cerebro que han sido investigadas mediante ingeniería inversa a niveles humanos de rendimiento. Una vez que tenemos una estimación de la capacidad computacional para una región del cerebro en particular, podemos extrapolar esa capacidad a todo el cerebro considerando qué parte del cerebro representa esa región. Estas estimaciones se basan en la simulación funcional, que replica la funcionalidad general de una región en lugar de simular cada neurona y conexión interneuronal en esa región. Se ha descubierto que varias evaluaciones de diferentes regiones del cerebro proporcionan estimaciones razonablemente cercanas para todo el cerebro. El hecho de que diferentes formas de hacer la misma estimación proporcionen respuestas similares corrobora el enfoque e indica que las estimaciones se encuentran en un rango adecuado. La predicción de que la Singularidad, una expansión de la inteligencia humana por un factor de billones a través de la fusión con una parte no biológica, se calcula que ocurrirá dentro de las próximas décadas. Pero incluso si esta estimación de la cantidad de computación necesaria para simular el cerebro humano fuera demasiado optimista, eso retrasaría la Singularidad solo unos pocos años. Hans Moravec, el legendario experto en robótica de la Universidad Carnegie Mellon, ha analizado las transformaciones realizadas por los circuitos neuronales de procesamiento de imágenes contenidos en la retina. Se sabe que la retina tiene unos dos centímetros de ancho y medio milímetro de espesor. La mayor parte de la profundidad de la retina se dedica a capturar una imagen, pero una quinta parte se dedica al procesamiento de imágenes, que incluye distinguir la oscuridad y la luz, y detectar movimiento en aproximadamente un millón de pequeñas regiones de la imagen. La retina, según el análisis de Moravec, realiza diez millones de estas detecciones de movimiento y borde cada segundo. Basándose en sus varias décadas de experiencia en la creación de sistemas de visión robótica, estima que se requiere la ejecución de unas cien instrucciones informáticas para recrear cada una de estas detecciones a niveles humanos de rendimiento, lo que significa que replicar la funcionalidad de procesamiento de imágenes de esta parte de la retina requiere 1.000 MIPS (millones de instrucciones por segundo). El cerebro humano es unas 75.000 veces más pesado que los 0,02 gramos de neuronas de esta parte de la retina, lo que da como resultado una estimación de unas 1014 (100 billones) de instrucciones por segundo para todo el cerebro.
Otra estimación proviene del trabajo del neurocientífico Lloyd Watts y sus colegas sobre la creación de simulaciones funcionales de regiones del sistema auditivo humano. Una de las funciones del software desarrollado por Watts es una tarea llamada «separación de flujo«, que se utiliza en teleconferencias y otras aplicaciones para lograr la telepresencia, como la localización de cada participante en una teleconferencia de audio remota. Para lograr esto, explica Watts, significa «medir con precisión el tiempo de retraso entre los sensores de sonido que están separados en el que ambos reciben el sonido«. El proceso implica el análisis de tono, la posición espacial y las señales del habla, incluidas las señales específicas del idioma. «Una de las señales importantes que utilizan los humanos para localizar la posición de una fuente de sonido es la diferencia de tiempo interaural (ITD), es decir, la diferencia en el tiempo de llegada de los sonidos a los dos oídos«. El propio grupo de Watts ha creado recreaciones funcionalmente equivalentes de estas regiones del cerebro derivadas de la ingeniería inversa. Estima que se requieren 1011 cps (ciclos por segundo) para lograr la localización de sonidos a nivel humano. Las regiones de la corteza auditiva responsables de este procesamiento comprenden al menos el 0,1 por ciento de las neuronas del cerebro. Así que nuevamente llegamos a una estimación aproximada de alrededor de 1014 cps. Otra estimación proviene de una simulación en la Universidad de Texas que representa la funcionalidad de una región del cerebelo que contiene 104 neuronas; esto requirió alrededor de 108 cps, o alrededor de 104 cps por neurona. Extrapolando esto sobre un estimado de 1011 neuronas da como resultado una cifra estimada de alrededor de 1015 cps para todo el cerebro. Parece claro que podemos emular la funcionalidad de las regiones del cerebro con menos computación de la que se requeriría para simular la operación no lineal precisa de cada neurona y todos los componentes neuronales, es decir, todas las interacciones complejas que tienen lugar dentro de cada neurona. Se llega a la misma conclusión cuando intentamos simular la funcionalidad de los órganos del cuerpo. Por ejemplo, se están probando dispositivos implantables que simulan la funcionalidad del páncreas humano para regular los niveles de insulina. Estos dispositivos funcionan midiendo los niveles de glucosa en la sangre y liberando insulina de manera controlada para mantener los niveles en un rango adecuado. Si bien siguen un método similar al de un páncreas biológico, no intentan, sin embargo, simular cada célula de los islotes pancreáticos, y no habría ninguna razón para hacerlo.
La simulación funcional del cerebro es suficiente para recrear los poderes humanos de reconocimiento de patrones, intelecto e inteligencia emocional. Por otro lado, si queremos «cargar» la personalidad de una persona en particular, es decir, capturar todos sus conocimientos, habilidades y personalidad, entonces es posible que necesitemos simular procesos neuronales a nivel de neuronas individuales y porciones de neuronas, como el soma (cuerpo celular), el axón (conexión de salida), las dendritas (árboles de conexiones entrantes) y las sinapsis (regiones que conectan axones y dendritas) . Para esto, necesitamos mirar modelos detallados de neuronas individuales. El número de conexiones interneuronales por neurona se estima en 103. Con una estimación de 1011 neuronas, eso representa alrededor de 1014 conexiones. Con un tiempo de reinicio de cinco milisegundos, eso equivale a unas 1016 transacciones sinápticas por segundo. Las simulaciones del modelo de neuronas indican la necesidad de alrededor de 103 cálculos por transacción sináptica para capturar las interacciones complejas en las dendritas y otras regiones neuronales, lo que da como resultado una nueva estimación general de alrededor de 1019 cps para simular el cerebro humano a este nivel. Por lo tanto, podemos considerar esto como un límite superior para lograr la equivalencia funcional de todas las regiones del cerebro. La supercomputadora Blue Gene/L de IBM, ya proporciona 360 billones de cálculos por segundo (3,6×1014 cps). Esta cifra ya es mayor que las estimaciones más bajas descritas anteriormente. Blue Gene/L también tiene alrededor de cien terabytes (alrededor de 1015 bits) de almacenamiento principal, más que nuestra estimación de memoria para la emulación funcional del cerebro humano. De acuerdo con las predicciones anteriores, las supercomputadoras alcanzarán durante esta década de 2020 unos 1016 cps para la emulación del cerebro humano funcional. Las computadoras personales actuales ya proporcionan más de 109 cps y se prevé que alcanzaran los 1016 antes de finales de la década de 2020. Sin embargo, hay varias formas en que se puede acelerar esta línea de tiempo. En lugar de utilizar procesadores de uso general, se pueden utilizar circuitos integrados específicos de la aplicación (ASIC) para proporcionar una mejor relación precio-rendimiento para cálculos muy repetitivos. Dichos circuitos ya proporcionan un rendimiento computacional extremadamente alto para los cálculos repetitivos que se utilizan para generar imágenes en movimiento en los videojuegos. Los ASIC pueden multiplicar por mil la relación precio-rendimiento, reduciendo el tiempo para lograrlo. Los variados programas que comprenderá una simulación del cerebro humano también incluirán una gran cantidad de repeticiones y, por lo tanto, serán susceptibles de implementación de ASIC. El cerebelo, por ejemplo, repite un patrón de cableado básico miles de millones de veces.
También podremos amplificar el poder de las computadoras personales aprovechando el poder de cómputo no utilizado de los dispositivos en Internet. Los nuevos paradigmas de comunicación, como la computación en «malla«, contemplan tratar cada dispositivo en la red como un nodo. En otras palabras, en lugar de que los dispositivos, como computadoras personales y PDA, simplemente envíen información hacia y desde los nodos, cada dispositivo actuará como un nodo en sí mismo, enviando información hacia y recibiendo información de todos los demás dispositivos. Eso creará redes de comunicación muy sólidas y autoorganizadas. También facilitará que las computadoras y otros dispositivos aprovechen los ciclos de CPU no utilizados de los dispositivos en su región de la malla. Actualmente, al menos el 99 por ciento de la capacidad computacional de todas las computadoras en Internet no se utiliza. El aprovechamiento efectivo de este cálculo puede proporcionar otro factor de hasta 103 en una mayor relación precio-rendimiento. Por estas razones, es razonable esperar que la capacidad del cerebro humano, al menos en términos de capacidad computacional de hardware, sea de solo mil dólares para la actual década de 2020. Otro enfoque más para acelerar la disponibilidad de computación a nivel humano en una computadora personal es usar transistores en su modo «analógico» nativo. Muchos de los procesos en el cerebro humano son analógicos, no digitales. Aunque podemos emular procesos analógicos con cualquier grado deseado de precisión con la computación digital, perdemos varios órdenes de magnitud de eficiencia al hacerlo. Un solo transistor puede multiplicar dos valores representados como niveles analógicos, mientras que hacerlo con circuitos digitales requiere miles de transistores. Carver Mead del Instituto de Tecnología de California ha sido pionero en este concepto. Una desventaja del enfoque de Mead es que el tiempo de diseño de ingeniería requerido para dicha computación analógica nativa es largo, por lo que la mayoría de los investigadores que desarrollan software para emular regiones del cerebro generalmente prefieren el rápido cambio de las simulaciones de software. Pero, ¿cómo se compara la capacidad computacional con la capacidad de la memoria humana? Resulta que llegamos a estimaciones de marco de tiempo similares si observamos los requisitos de memoria humana. El número de «fragmentos» de conocimiento dominados por un experto en un dominio es de aproximadamente 105 para una variedad de dominios. Estos fragmentos representan patrones, como las caras de personas, así como conocimientos específicos. Por ejemplo, se estima que un maestro de ajedrez de clase mundial ha dominado unas 100.000 posiciones en el tablero. Shakespeare usó 29,000 palabras pero cerca de 100,000 significados de esas palabras. El desarrollo de sistemas expertos en medicina indica que los humanos pueden dominar unos 100.000 conceptos en un dominio. Si estimamos que este conocimiento «profesional» representa tan solo el 1% del patrón general y el almacenamiento de conocimiento de un ser humano, llegamos a una estimación de 107 fragmentos.
Según la experiencia de Kurzweil en el diseño de sistemas que pueden almacenar fragmentos de conocimiento similares en sistemas expertos basados en reglas o en sistemas de reconocimiento de patrones autoorganizados, una estimación razonable es de unos 106 bits por fragmento, que puede ser un patrón o elemento de conocimiento, lo que llevaría a una estimación de una capacidad total de 1013 (10 billones) de bits para la memoria funcional de un ser humano. Actualmente ya podemos comprar 1013 bits de memoria por menos de mil dólares. Además, debemos tener en cuenta que esta memoria será millones de veces más rápida que el proceso de memoria electroquímica utilizado en el cerebro humano y, por lo tanto, se supone que será mucho más eficaz. Si modelamos la memoria humana en el nivel de las conexiones interneuronales individuales, obtenemos una estimación más alta. Podemos estimar alrededor de 104 bits por conexión para almacenar los patrones de conexión y las concentraciones de neurotransmisores. Con un estimado de 1014 conexiones, eso equivale a 1018 (un billón de billones) de bits. En base a los análisis anteriores, es razonable esperar que el hardware que puede emular la funcionalidad del cerebro humano esté disponible por aproximadamente mil dólares a inicios de la actual década de 2020, pero el software que replicará esa funcionalidad tardará aproximadamente una década más. Sin embargo, el crecimiento exponencial de la relación precio-rendimiento, capacidad y velocidad de nuestra tecnología de hardware continuará durante ese período, por lo que para 2030 se necesitarán unos mil cerebros humanos para igualar el valor de mil dólares en computación. Sin embargo, se prevé que para 2050 mil dólares de computación superarán el poder de procesamiento de todos los cerebros humanos en la Tierra. Si bien las neuronas humanas son creaciones maravillosas, no se están diseñando circuitos informáticos utilizando los mismos métodos lentos del cerebro biológico. A pesar del ingenio de los diseños desarrollados a través de la selección natural, son muchos órdenes de magnitud menos capaces de lo que podremos diseñar artificialmente. A medida que aplicamos ingeniería inversa a nuestros cuerpos y cerebros, estaremos en posición de crear sistemas comparables que sean mucho más duraderos y que operen a millones de veces más rápido que nuestros sistemas evolucionados naturalmente. Nuestros circuitos electrónicos ya son más de un millón de veces más rápidos que los procesos electroquímicos de una neurona, y esta velocidad continúa acelerándose.
La mayor parte de la complejidad de una neurona humana se dedica a mantener sus funciones de soporte vital, no a sus capacidades de procesamiento de información. En última instancia, seremos capaces de trasladar nuestros procesos mentales a un sustrato computacional más adecuado. Entonces nuestras mentes no tendrán que permanecer tan pequeñas. Ya hemos tenido cinco paradigmas: calculadoras electromecánicas, computación basada en relés, tubos de vacío, transistores discretos y circuitos integrados, que han proporcionado un crecimiento exponencial a la relación precio-rendimiento y las capacidades de computación. Cada vez que un paradigma llegaba a sus límites, otro paradigma tomaba su lugar. Ya podemos ver los contornos del sexto paradigma, que llevará la computación a la tercera dimensión molecular. Debido a que la computación subyace en los cimientos de todo lo que nos importa, desde la economía hasta el intelecto humano y la creatividad, bien podríamos preguntarnos: ¿existen límites definitivos para la capacidad de la materia y la energía para realizar la computación? Si es así, ¿cuáles son estos límites y cuánto tiempo llevará alcanzarlos? Nuestra inteligencia humana se basa en procesos computacionales que estamos aprendiendo a comprender. En última instancia, multiplicaremos nuestros poderes intelectuales aplicando y ampliando los métodos de la inteligencia humana utilizando la capacidad mucho mayor de la computación no biológica. Entonces, considerar los límites últimos de la computación es realmente preguntar: ¿cuál es el destino de nuestra civilización? Un desafío común a estas ideas es que estas tendencias exponenciales deben alcanzar un límite, como lo hacen comúnmente las tendencias exponenciales. Cuando una especie se encuentra con un nuevo hábitat, como en el famoso ejemplo de los conejos en Australia, su número crece exponencialmente por un tiempo. Pero finalmente alcanza los límites de la capacidad de ese entorno para soportarlo. Seguramente el procesamiento de la información debe tener limitaciones similares. Resulta que, sí, existen límites para el cálculo basado en las leyes de la física. Pero estos aún permiten una continuación del crecimiento exponencial hasta que la inteligencia no biológica sea billones de billones de veces más poderosa que toda la civilización humana actual, incluidas las computadoras contemporáneas. Un factor importante al considerar los límites computacionales es el requerimiento de energía. No obstante, la energía requerida por los MIPS necesarios para los dispositivos informáticos ha ido cayendo también exponencialmente.
Sin embargo, también sabemos que la cantidad de MIPS en los dispositivos informáticos ha ido creciendo exponencialmente. La medida en que las mejoras en el uso de energía han seguido el ritmo de la velocidad del procesador depende de la medida en que usamos el procesamiento paralelo. Una mayor cantidad de computadoras menos poderosas pueden funcionar inherentemente más frías porque el cálculo se extiende sobre un área más grande. La velocidad del procesador está relacionada con el voltaje y la potencia requerida es proporcional al cuadrado del voltaje. Por lo tanto, ejecutar un procesador a una velocidad más lenta reduce significativamente el consumo de energía. Si invertimos en más procesamiento paralelo en lugar de procesadores individuales más rápidos, es factible que el consumo de energía y la disipación de calor se mantengan al ritmo del crecimiento de MIPS por dólar. Esta es esencialmente la misma solución que la evolución biológica desarrolló en el diseño de cerebros de animales. Los cerebros humanos usan alrededor de cien billones de computadoras, como son las conexiones interneuronales, donde tiene lugar la mayor parte del procesamiento. Pero estos procesadores tienen muy poca potencia computacional y, por lo tanto, funcionan relativamente bien. Hasta hace poco, la empresa Intel enfatizó el desarrollo de procesadores de un solo chip cada vez más rápidos, que han estado funcionando a temperaturas cada vez más altas. Pero Intel está cambiando gradualmente su estrategia hacia la paralelización al colocar múltiples procesadores en un solo chip. Veremos que la tecnología de chips avanza en esta dirección como una forma de mantener bajo control los requisitos de energía y la disipación de calor. En última instancia, organizar la computación con procesamiento paralelo masivo, como se hace en el cerebro humano, no será suficiente por sí solo para mantener los niveles de energía y la disipación térmica resultante a niveles razonables. El paradigma informático actual se basa en lo que se conoce como computación irreversible, lo que significa que, en principio, no podemos ejecutar programas de software hacia atrás. En cada paso de la progresión de un programa, los datos de entrada se descartan (borran) y los resultados del cálculo pasan al siguiente paso. Los programas generalmente no retienen todos los resultados intermedios, ya que eso consumiría grandes cantidades de memoria innecesariamente. Este borrado selectivo de la información de entrada es particularmente cierto para los sistemas de reconocimiento de patrones.
Los sistemas de visión, por ejemplo, ya sean humanos o artificiales, reciben tasas de entrada muy altas de los ojos o sensores visuales, pero producen salidas relativamente compactas, como la identificación de patrones reconocidos. El acto de borrar datos genera calor y por lo tanto requiere energía. Cuando se borra un poco de información, esa información tiene que ir a alguna parte. De acuerdo con las leyes de la termodinámica, el bit borrado se libera esencialmente en el entorno circundante, lo que aumenta su entropía, que puede verse como una medida de información, incluida la información aparentemente desordenada, en un entorno. Esto da como resultado una temperatura más alta para el medio ambiente, porque la temperatura es una medida de entropía, que implica cualquier degradación que exista en la materia o en la energía, llevándola a un estado inerte. En términos de informática podemos entender la entropía como la medida de la incertidumbre generada ante una cantidad de mensajes cuando solo se espera recibir uno. Si, por otro lado, no borramos cada bit de información contenido en la entrada de cada paso de un algoritmo, sino que simplemente lo movemos a otra ubicación, ese bit permanece en la computadora y no se libera al medio ambiente. Por lo tanto, no genera calor y no requiere energía del exterior de la computadora. El concepto fundamental en la computación reversible es que si se mantienen todos los resultados intermedios y luego se ejecuta el algoritmo hacia atrás cuando haya terminado su cálculo, terminará donde comenzó, sin usar energía ni generar calor. En el camino, sin embargo, ha calculado el resultado del algoritmo. Ya hemos visto que los átomos pueden almacenar información a una densidad superior a un bit por átomo, como en los sistemas informáticos construidos a partir de dispositivos de resonancia magnética nuclear. Investigadores de la Universidad de Oklahoma almacenaron 1.024 bits en las interacciones magnéticas de los protones de una sola molécula que contiene diecinueve átomos de hidrógeno. Si, por otro lado, organizamos las partículas de una simple roca de una manera útil, podríamos tener una computadora genial, sin consumo de energía, con una memoria de alrededor de mil billones de billones de bits y una capacidad de procesamiento de 1042 operaciones por segundo. que es aproximadamente diez billones de veces más poderoso que todos los cerebros humanos en la Tierra, incluso si usamos la estimación más conservadora.
Una observación clave con respecto a la Singularidad es que los procesos de información (computación) finalmente impulsarán todo lo que es importante. Esta base primaria para la tecnología futura parece no requerir energía. Pero la realidad práctica es un poco más complicada. Si realmente queremos averiguar los resultados de un cálculo, es decir, recibir la salida de una computadora, el proceso de copiar la respuesta y transmitirla fuera de la computadora es un proceso irreversible, que genera calor por cada bit transmitido. Sin embargo, para la mayoría de las aplicaciones de interés, la cantidad de cómputo que se requiere para ejecutar un algoritmo supera ampliamente el cómputo requerido para comunicar las respuestas finales, por lo que este último no cambia apreciablemente la ecuación de energía. Sin embargo, debido a los efectos térmicos y cuánticos esencialmente aleatorios, las operaciones lógicas tienen una tasa de error inherente. Podemos superar los errores usando códigos de detección y corrección de errores, pero cada vez que corregimos un poco, la operación no es reversible, lo que significa que requiere energía y genera calor. En general, las tasas de error son bajas. Pero incluso si los errores ocurren a razón de, digamos, uno por cada 1010 operaciones, solo hemos logrado reducir los requisitos de energía por un factor de 1010, no eliminando la disipación de energía por completo. A medida que consideramos los límites de la computación, el problema de la tasa de error se convierte en un problema de diseño importante. Ciertos métodos para aumentar la tasa computacional, como aumentar la frecuencia de la oscilación de las partículas, también aumentan las tasas de error, por lo que esto pone límites naturales a la capacidad de realizar cálculos utilizando materia y energía. Otra tendencia importante con relevancia aquí será el alejamiento de las baterías convencionales hacia celdas de combustible diminutas, que son dispositivos que almacenan energía en productos químicos, como formas de hidrógeno, que se combinan con el oxígeno disponible. Las celdas de combustible ya se están construyendo utilizando la tecnología MEMS (sistemas mecánicos microelectrónicos). A medida que avanzamos hacia la computación molecular tridimensional con características a nanoescala, los recursos energéticos en forma de celdas de nanocombustible se distribuirán ampliamente en todo el medio informático entre los procesadores paralelos masivos.
Incluso con las restricciones que hemos relatado, los límites finales de las computadoras son enormemente altos. La cantidad potencial de computación aumenta con la energía disponible. La energía en una cantidad de materia es la energía asociada con cada átomo (y partícula subatómica). Así que cuantos más átomos, más energía. Como se discutió anteriormente, cada átomo puede usarse potencialmente para el cálculo. Entonces, cuantos más átomos, más computación. La energía de cada átomo o partícula crece con la frecuencia de su movimiento: cuanto más movimiento, más energía. La misma relación existe para el cálculo potencial: cuanto mayor sea la frecuencia de movimiento, más cálculo puede realizar cada componente, que puede ser un átomo. Vemos esto en los chips contemporáneos: cuanto mayor sea la frecuencia del chip, mayor será su velocidad computacional. Entonces, existe una relación proporcional directa entre la energía de un objeto y su potencial para realizar cálculos. Si usamos la cifra de 1016 cps, una computadora portátil podría realizar el equivalente de todo el pensamiento humano durante los últimos diez mil años en una diezmilésima de nanosegundo. Al analizar la entropía máxima, o los grados de libertad representados por el estado de todas las partículas, en dicho dispositivo, Lloyd muestra que tal computadora tendría una capacidad de memoria teórica de 1031 bits. Es difícil imaginar tecnologías que lleguen hasta el final para alcanzar estos límites. Pero podemos imaginar fácilmente tecnologías que se acerquen razonablemente a hacerlo. Como muestra el proyecto de la Universidad de Oklahoma, ya se ha demostrado la capacidad de almacenar al menos cincuenta bits de información por átomo. Almacenar 1027 bits de memoria en los 1025 átomos en un kilogramo de materia, por lo tanto, debería ser eventualmente alcanzable. Pero debido a que muchas propiedades de cada átomo podrían explotarse para almacenar información, como la posición precisa, el espín y el estado cuántico de todas sus partículas, probablemente podrían ampliarse los 1027 bits. El neurocientífico Anders Sandberg estima la capacidad potencial de almacenamiento de un átomo de hidrógeno en unos cuatro millones de bits. Sin embargo, estas densidades aún no se han demostrado, por lo que es mejor utilizar una estimación más conservadora. Como se indicó anteriormente, se podrían lograr 1042 cálculos por segundo sin producir calor significativo. Al implementar completamente técnicas de computación reversibles, usar diseños que generan bajos niveles de errores y permitir cantidades razonables de disipación de energía, deberíamos terminar entre 1042 y 1050 cps (cálculos por segundo). No obstante, el terreno de diseño entre estos dos límites es complejo. Entonces, una vez que lleguemos a una civilización con 1042 cps por cada kilo, los científicos e ingenieros de ese día usarán su inteligencia no biológica para averiguar cómo obtener más cps y así sucesivamente. Kurzweil cree que nos acercaremos mucho a los límites finales.
Pero incluso si tiene la misma capacidad que nuestro propio cerebro, esta parte no biológica de nuestra inteligencia será más poderosa porque combinará los poderes de reconocimiento de patrones de la inteligencia humana con la capacidad de compartir memoria y las habilidades y la precisión de la memoria de las máquinas. La parte no biológica siempre operará al máximo de su capacidad, lo que está lejos de ser el caso de la humanidad biológica actual. Sin embargo, este estado de computación a principios de la década de 2030 no representará la Singularidad, porque todavía no corresponde a una profunda expansión de nuestra inteligencia. Sin embargo, a mediados de la década de 2040, ese valor de cómputo de mil dólares probablemente equivaldrá a 1026 cps, por lo que la inteligencia creada por año será aproximadamente mil millones de veces más poderosa que todas las inteligencias humanas hoy. De hecho, eso representará un cambio profundo. y es por esa razón que Kurzweil fija la fecha para la Singularidad, que representa una transformación profunda y disruptiva en la capacidad humana, para el 2045. A pesar del claro predominio de la inteligencia no biológica a mediados de la década de 2040, la nuestra seguirá siendo una civilización humana. Trascenderemos la biología, pero no nuestra humanidad. Volviendo a los límites de la computación según la física, las estimaciones anteriores se expresaron en términos de computadoras portátiles porque ese es un factor de forma familiar en la actualidad. Sin embargo, para la segunda década de este siglo, la mayor parte de la computación no estará organizada en dispositivos de este tipo, sino que estará muy distribuida por todo el entorno. La informática estará en todas partes: en las paredes, en nuestros muebles, en nuestros electrodomésticos, en nuestra ropa y en nuestros cuerpos y cerebros. Y, por supuesto, la civilización humana no se limitará a computar con unos cuantos kilos de materia, sino que debemos plantear el potencial computacional no solo a nivel de un planeta del tamaño de la Tierra, sino en computadoras a la escala de los sistemas solares, de las galaxias y de todo el universo conocido. Como veremos, la cantidad de tiempo requerida para que nuestra civilización humana alcance escalas de cómputo e inteligencia que van más allá de nuestro planeta y hacia el universo puede ser mucho más corta de lo que hubiésemos podido pensar. Tal como hemos dicho, Kurzweil prevé la fecha de la Singularidad, que representa una transformación profunda y disruptiva en la capacidad humana, en el año 2045, para el que solo faltan 23 años. La inteligencia no biológica en ese año será mil millones de veces más poderosa que toda la inteligencia humana actual.
Es sorprendente hasta qué punto la evolución biológica ha sido capaz de pasar de sistemas esencialmente sin inteligencia, como podría ser una roca ordinaria, que no realiza ningún cálculo útil, a la capacidad última de la materia para realizar cálculos con un determinado propósito. La evolución biológica nos llevó a una parte del camino, y la evolución tecnológica, que según los transhumanistas como Kurzweil representa una continuación de la evolución biológica, nos llevará muy cerca de esos límites. Tenemos que tener en cuenta que una roca de 1 kg. tiene del orden de 1027 bits de información codificada en el estado de sus átomos y alrededor de 1042 cps representados por la actividad de sus partículas. Podemos usar una piedra para hacer cálculos. Por ejemplo, al dejar caer la piedra desde una altura particular, podemos calcular la cantidad de tiempo que se tarda en dejar caer un objeto desde esa altura. Por supuesto, esto representa muy poco cómputo: quizás 1 cps, lo que significa que su eficiencia computacional es aún muy baja. En comparación, ¿qué podemos decir sobre la eficiencia del cerebro humano? Ya hemos visto antes cómo cada una de las aproximadamente 1014 conexiones interneuronales puede almacenar aproximadamente 104 bits en las concentraciones de neurotransmisores de la conexión y las no linealidades sinápticas y dendríticas para un total de 1018 bits. El cerebro humano pesa poco más que la piedra antes mencionada. Sin embargo, a pesar de que la tecnología avanza exponencialmente, nuestras experiencias están en un mundo lineal, y en una escala lineal, el cerebro humano está mucho más cerca de la piedra que de la última computadora. Entonces, ¿cuál es la eficiencia computacional del cerebro? Nuevamente, necesitamos considerar el principio de equivalencia y usar la estimación de 1016 cps requerida para emular la funcionalidad del cerebro. Con la capacidad teórica de los átomos del cerebro estimada en 1042 cps, esto nos da una eficiencia computacional tan baja como de 10–26 . Nuevamente, eso está más cerca de una roca que de la computadora portátil, incluso en una escala logarítmica.
Nuestros cerebros biológicos han evolucionado significativamente en su memoria y eficiencia computacional a partir de objetos anteriores a la biología, tal vez como piedras. Pero claramente tenemos muchos órdenes de magnitud de mejora para aprovechar durante la primera mitad de este siglo XXI. Pero los límites antes mencionados se basan en la computación con átomos y representan los límites de la nanotecnología basados en nuestra comprensión actual. Pero ¿qué pasa con la picotecnología, medida en billonésimas (10-12) de metro, y la femtotecnología, con escalas de 10-15 de metro? A estas escalas, necesitaríamos computación ya no con átomos, sino con partículas subatómicas. Con un tamaño tan pequeño tendríamos el potencial para una velocidad y densidad aún mayores. Tenemos al menos varias tecnologías de picoescala. Científicos de la Universidad de California en Santa Bárbara han desarrollado un detector de medición extremadamente sensible con un haz físico hecho de cristal de arseniuro de galio y un sistema de detección que puede medir una flexión del haz de tan solo un picómetro. El dispositivo en principio está destinado a proporcionar una prueba del principio de incertidumbre de Heisenberg. En la dimensión del tiempo, los científicos de la Universidad de Cornell han demostrado una tecnología de imágenes basada en la dispersión de rayos X que puede grabar películas del movimiento de un solo electrón. Cada cuadro representa solo cuatro attosegundos (cada uno una milmillonésima de una milmillonésima de segundo). El dispositivo puede lograr una resolución espacial de 100 picómetros. Sin embargo, nuestra actual comprensión de la materia a estas escalas, particularmente en el rango del femtómetro, todavía no está lo suficientemente bien desarrollada para proponer paradigmas informáticos, pero todo llegará. Aún no se ha escrito un equivalente para la picotecnología o femtotecnología al libro An Engines of Creation de Eric Drexler, publicado en 1986, que sentó las bases para la nanotecnología. Sin embargo, cada una de las teorías en competencia sobre el comportamiento de la materia y la energía en estas escalas se basa en modelos matemáticos basados en transformaciones computables. Muchas de las transformaciones de la física proporcionan la base para la computación universal, es decir, transformaciones a partir de las cuales podemos construir computadoras de uso general, y es posible que el comportamiento en el rango de los picómetros y femtómetros también lo haga.
Por supuesto, incluso si los mecanismos básicos de la materia en estos rangos proporcionan en teoría computación universal, todavía tendríamos que idear la ingeniería necesaria para crear cantidades masivas de elementos informáticos y aprender a controlarlos adecuadamente. Estos son similares a los desafíos en los que ahora estamos progresando rápidamente en el campo de la nanotecnología. En este momento, tenemos que considerar la viabilidad de la picocomputación y la femtocomputación como simplemente especulativa. Pero la nanocomputación proporcionará niveles masivos de inteligencia, por lo que sí es posible hacerlo, es probable que nuestra inteligencia futura descubra los procesos necesarios para entrar en la picocomputación y la femtocomputación. El experimento mental que deberíamos hacer no es si los humanos, tal como los conocemos hoy, serán capaces de diseñar tecnologías de picocomputación y femtocomputación, sino si la vasta inteligencia de la futura inteligencia basada en nanotecnología, que será billones de billones de veces más capaz que la inteligencia humana biológica contemporánea, será capaz de representar estos diseños tecnológicos. Aunque Kurzweil cree que es probable que nuestra futura inteligencia basada en nanotecnología sea capaz de diseñar computación a escalas más finas que las actuales, las proyecciones actuales sobre la Singularidad no se basan en esta especulación. Además de hacer que los soportes informáticos sean más pequeños, podemos hacerlos más grandes, es decir, podemos replicar estos dispositivos muy pequeños a gran escala. Con la nanotecnología a gran escala, los recursos informáticos pueden autorreplicarse y, por lo tanto, pueden convertir rápidamente la masa y la energía en una forma inteligente. Sin embargo, nos encontramos con la limitación de la velocidad de la luz, porque la materia del universo se extiende a lo largo de grandes distancias. Pero hay ciertas sugerencias de que la velocidad de la luz puede no ser inmutable. Los físicos Steve Lamoreaux y Justin Torgerson del Laboratorio Nacional de Los Álamos analizaron datos de un antiguo reactor nuclear supuestamente natural que hace dos mil millones de años produjo una reacción de fisión que duró varios cientos de miles de años en lo que ahora es África occidental. Al examinar los isótopos radiactivos que quedaron del reactor y compararlos con los isótopos de reacciones nucleares similares actuales, determinaron que la constante física alfa, o constante de estructura fina, que determina la intensidad de la fuerza electromagnética, aparentemente ha cambiado en los dos mil millones de años. Esto es de gran importancia para el mundo de la física, porque la velocidad de la luz es inversamente proporcional a alfa, y ambas han sido consideradas constantes inmutables. Alfa parece haber disminuido. De confirmarse, esto implicaría que la velocidad de la luz ha aumentado.
Pero estos resultados exploratorios deberán verificarse cuidadosamente. Si es cierto, pueden tener una gran importancia para el futuro de nuestra civilización. Si la velocidad de la luz ha aumentado, presumiblemente no lo ha hecho sólo como resultado del paso del tiempo, sino porque ciertas condiciones han cambiado. Si la velocidad de la luz ha cambiado debido a circunstancias cambiantes, eso abre la puerta lo suficiente como para que los vastos poderes de nuestra futura inteligencia y tecnología abran la puerta de par en par. Este es el tipo de conocimiento científico que los tecnólogos pueden explotar. La ingeniería humana a menudo toma un efecto natural, frecuentemente sutil, y lo controla con miras a aprovecharlo y magnificarlo en gran medida. Incluso si nos resultase difícil aumentar significativamente la velocidad de la luz en las largas distancias del espacio, hacerlo dentro de los pequeños límites de un dispositivo informático también tendría consecuencias importantes para ampliar el potencial de la computación. La velocidad de la luz es uno de los límites que restringen los dispositivos informáticos incluso hoy en día, por lo que la capacidad de aumentarla extendería aún más los límites de la computación. Exploraremos varios otros enfoques intrigantes para posiblemente aumentar o eludir la velocidad de la luz. Expandir la velocidad de la luz es, por supuesto, especulativo hoy en día, y ninguno de los análisis que subyacen a la expectativa de la Singularidad se basan en esta posibilidad. Otra posibilidad intrigante y altamente especulativa es enviar un proceso computacional atrás en el tiempo a través de un «agujero de gusano» en el espacio-tiempo. El físico teórico Todd Brun del Instituto de Estudios Avanzados de Princeton ha analizado la posibilidad de computar usando lo que él llama una «curva temporal cerrada» (CTC). Según Brun, los CTC podrían «enviar información (como el resultado de los cálculos) a sus propios conos de luz anteriores«.
Todd Brun no proporciona un diseño para tal dispositivo, pero establece que tal sistema es consistente con las leyes de la física. Su computadora que viaja en el tiempo tampoco crea la «paradoja del abuelo«, citada a menudo en discusiones sobre viajes en el tiempo. Esta conocida paradoja señala que si una persona retrocede en el tiempo, podría matar a su abuelo, lo que provocaría que esta persona no existiera, lo que daría como resultado que su abuelo no fuera asesinado por él, por lo que esta persona existiría y, por lo tanto, podría regresar y matar a su abuelo, y así hasta el infinito. El proceso computacional de extensión del tiempo de Brun no parece presentar este problema porque no afecta el pasado. Produce una respuesta determinada e inequívoca en el presente a una pregunta planteada. La pregunta debe tener una respuesta clara, y la respuesta no se presenta hasta después de formular la pregunta, aunque el proceso para determinar la respuesta puede tener lugar antes de que se formule la pregunta utilizando una «curva temporal cerrada» (CTC). Por el contrario, el proceso podría tener lugar después de hacer la pregunta y luego usar un CTC para devolver la respuesta al presente, pero no antes de que se hiciera la pregunta, porque eso introduciría la paradoja del abuelo. Es muy posible que existan barreras (o limitaciones) fundamentales para dicho proceso que aún no comprendemos, pero esas barreras aún no se han identificado. Si es factible, ampliaría enormemente el potencial de la computación local. Una vez más, todas las estimaciones de las capacidades computacionales y de las capacidades de la Singularidad no se basan en la conjetura tentativa de Brun.
Según el neurocientífico Lloyd Watts hay buenas razones para creer que estamos en un punto de inflexión y que será posible en esta década de 2020 formular una comprensión significativa de la función cerebral. Esta visión optimista se basa en varias tendencias medibles y en una simple observación que se ha probado repetidamente en la historia de la ciencia: los avances científicos son posibles gracias a un avance tecnológico que nos permite ver lo que no habíamos podido ver antes. Aproximadamente a principios del siglo XXI, pasamos por un punto de inflexión detectable tanto en el conocimiento de la neurociencia como en el poder de la computación. Por primera vez en la historia, colectivamente sabemos lo suficiente sobre nuestros propios cerebros y hemos desarrollado una tecnología informática tan avanzada que ahora podemos emprender seriamente la construcción de un modelo verificable, en tiempo real y de alta resolución de partes significativas de nuestra inteligencia. El cerebro es una prueba de que cierta disposición de la materia puede producir mente, realizar un razonamiento inteligente, reconocimiento de patrones, aprendizaje y muchas otras tareas importantes de interés para la ingeniería. Por lo tanto, podemos aprender a construir nuevos sistemas tomando prestadas ideas del cerebro. El cerebro también es un sistema evolucionado y desordenado en el que ocurren muchas interacciones debido a las contingencias evolutivas. Por otro lado, también debe ser robusto, ya que podemos sobrevivir con él, y ser capaz de soportar variaciones bastante importantes y agresiones ambientales, por lo que la información verdaderamente valiosa del cerebro podría ser más cómo crear sistemas complejos resistentes que autoorganizarse bien. Las interacciones dentro de una neurona son complejas, pero en el siguiente nivel, las neuronas parecen ser objetos algo simples que se pueden unir de manera flexible en redes. Las redes corticales son un verdadero galimatías a nivel local, pero nuevamente en el siguiente nivel, la conectividad no es tan compleja. Es probable que la evolución haya producido una serie de módulos o temas repetitivos que se están reutilizando, y cuando los comprendamos, así como sus interacciones, podamos hacer algo similar.
La combinación de la inteligencia a nivel humano con la superioridad inherente de una computadora en lo que respecta a velocidad, precisión y capacidad para compartir memoria será formidable. Sin embargo, hasta la fecha, la mayor parte de la investigación y el desarrollo de la Inteligencia Artificial (IA) ha utilizado métodos de ingeniería que no se basan necesariamente en cómo funciona el cerebro humano, por la sencilla razón de que no hemos tenido las herramientas precisas necesarias para desarrollar modelos detallados de la cognición humana. Pero nuestra capacidad para aplicar ingeniería inversa al cerebro, para ver el interior, modelarlo y simular sus regiones, está creciendo exponencialmente. En última instancia, comprenderemos los principios de funcionamiento que subyacen en toda la gama de nuestro propio pensamiento, conocimiento que nos proporcionará procedimientos poderosos para desarrollar el software de las máquinas inteligentes. Kurzweil nos dice que modificaremos, refinaremos y extenderemos estas técnicas a medida que las apliquemos a tecnologías computacionales que son mucho más poderosas que el procesamiento electroquímico que tiene lugar en las neuronas biológicas. Un beneficio clave de este gran proyecto serán los conocimientos precisos que ofrece sobre nosotros mismos. También obtendremos nuevas y poderosas formas de tratar problemas neurológicos, como el Alzheimer, los accidentes cerebrovasculares, la enfermedad de Parkinson y las discapacidades sensoriales y, en última instancia, podremos ampliar enormemente nuestra inteligencia. El primer paso en la ingeniería inversa del cerebro es mirar dentro del cerebro para determinar cómo funciona. Hasta ahora, nuestras herramientas para hacer esto han sido toscas, pero eso ahora está cambiando, ya que un número significativo de nuevas tecnologías de escaneo presentan una resolución espacial y temporal, precio-rendimiento y ancho de banda muy mejorados. Al mismo tiempo, estamos acumulando rápidamente datos sobre las características y la dinámica precisas de las partes y sistemas constituyentes del cerebro, que van desde las sinapsis individuales hasta grandes regiones como el cerebelo, que comprende más de la mitad de las neuronas del cerebro. Extensas bases de datos están catalogando metódicamente nuestro conocimiento del cerebro, que crece exponencialmente. Los investigadores también han demostrado que pueden comprender y aplicar rápidamente esta información mediante la construcción de modelos y simulaciones de trabajo. Estas simulaciones de regiones cerebrales se basan en los principios matemáticos de la teoría de la complejidad y la computación caótica, y ya están proporcionando resultados que se asemejan mucho a los experimentos realizados en cerebros humanos y animales reales.
El poder de las herramientas computacionales y de escaneo necesarias para la tarea de ingeniería inversa del cerebro se está acelerando, de manera similar a la aceleración en la tecnología que hizo factible el proyecto del genoma. Cuando lleguemos a la era de los nanobots, o nanorobots, podremos escanear desde el interior del cerebro con una resolución espacial y temporal muy alta. No existen barreras inherentes para evitar que podamos aplicar ingeniería inversa a los principios operativos de la inteligencia humana y replicar estas capacidades en los sustratos computacionales más potentes que estarán disponibles en las próximas décadas. El cerebro humano es una jerarquía compleja de sistemas complejos, pero no representa un nivel de complejidad más allá de lo que ya somos capaces de manejar. La relación precio-rendimiento de la computación y la comunicación se duplica cada año. Como vimos anteriormente, la capacidad computacional necesaria para emular la inteligencia humana estará disponible en menos de una década. Una suposición principal que subyace a la expectativa de la Singularidad es que los medios no biológicos podrán emular la riqueza, la sutileza y la profundidad del pensamiento humano. Pero lograr la capacidad computacional de hardware de un solo cerebro humano, o incluso de la inteligencia colectiva de pueblos y naciones, no producirá automáticamente niveles humanos de capacidad, si por niveles humanos incluimos todas las formas diversas y sutiles en que los humanos son inteligentes, incluida la aptitud musical y artística, la creatividad, el movimiento físico a través del mundo y la comprensión y respuesta adecuada a las emociones. La capacidad computacional del hardware es necesaria pero no suficiente. Comprender la organización y el contenido de estos recursos, el software de inteligencia, es aún más crítico y es el objetivo de la empresa de ingeniería inversa del cerebro.
Una vez que una computadora alcance un nivel humano de inteligencia, necesariamente lo superará. Una ventaja clave de la inteligencia no biológica es que las máquinas pueden compartir fácilmente su conocimiento. Los humanos todavía no podemos acceder o transmitir rápidamente nuestro conocimiento, que está incrustado en un amplio patrón de concentraciones de neurotransmisores, con niveles de sustancias químicas en las sinapsis que permiten que una neurona influya en otra, y conexiones interneuronales, que son porciones de las neuronas llamadas axones y dendritas que conectan las neuronas. Pero consideremos el caso de la inteligencia de una máquina. En una de las empresas de Kurzweil, pasaron años enseñando a una computadora de investigación cómo reconocer el habla humana continua utilizando un software de reconocimiento de patrones. Expusieron la computadora y el software a miles de horas de voz grabada, se corrigieron sus errores y se mejoro pacientemente su desempeño entrenando sus «caóticos» algoritmos de autoorganización, métodos que modifican sus propias reglas, basados en procesos que usan información inicial semi-aleatoria, y con resultados que no son totalmente predecibles. Finalmente, la computadora se volvió bastante experta en reconocer el habla. Ahora simplemente se pueden descargar los patrones ya establecidos en segundos. Un buen ejemplo de la divergencia entre la inteligencia humana y la Inteligencia Artificial (IA) contemporánea es cómo cada uno emprende la solución de un problema de ajedrez. Los humanos lo hacemos reconociendo patrones, mientras que las máquinas construyen enormes «árboles» lógicos de posibles movimientos y contramovimientos. La mayor parte de la tecnología hasta la fecha ha utilizado este último tipo de enfoque de ingeniería analítico «de arriba hacia abajo«. Pero a medida que nuestras herramientas para la ingeniería inversa de las formas de la naturaleza están creciendo rápidamente en sofisticación, la tecnología se está moviendo hacia la emulación de la naturaleza mientras implementa estas técnicas en sustratos mucho más capaces. El escenario más convincente para dominar el software de la inteligencia es aprovechar directamente el modelo del mejor ejemplo que podemos conseguir de un proceso inteligente: el cerebro humano. Aunque su «diseñador» original, suponiendo que fuese la evolución, tardó varios miles de millones de años en desarrollar el cerebro, está fácilmente disponible para nosotros, protegido por un cráneo pero con las herramientas adecuadas que no están ocultas a nuestra vista. Su contenido aún no tiene derechos de autor ni está patentado, pero ya se han presentado solicitudes de patentes basadas en la ingeniería inversa del cerebro. Se aplicarán los miles de billones de bytes de información derivados de los escáneres cerebrales y los modelos neuronales en muchos niveles para diseñar algoritmos paralelos para nuestras máquinas, particularmente aquellas basadas en paradigmas de auto-organización. Con este enfoque de auto-organización, no tenemos que intentar replicar cada conexión neuronal. Hay una gran cantidad de repeticiones y redundancias dentro de cualquier región particular del cerebro. Los científicos están descubriendo que los modelos de alto nivel de las regiones del cerebro suelen ser más simples que los modelos detallados de sus componentes neuronales.
La complejidad de nuestros cerebros aumenta considerablemente a medida que interactuamos con el mundo, mediante el aprendizaje, por un factor de aproximadamente mil millones sobre lo que está codificado en el genoma. Pero se encuentran patrones altamente repetitivos en cada región específica del cerebro, por lo que no es necesario capturar cada detalle en particular para aplicar ingeniería inversa con éxito a los algoritmos relevantes, que combinan métodos digitales y analógicos. Por ejemplo, la activación de una neurona puede considerarse un evento digital, mientras que los niveles de neurotransmisores en la sinapsis pueden considerarse valores analógicos. El patrón de cableado básico del cerebelo, por ejemplo, se describe en el genoma solo una vez, pero se repite miles de millones de veces. Con la información de los estudios de modelado y escaneo cerebral, podemos diseñar un software equivalente simulado, es decir, algoritmos funcionalmente equivalentes al rendimiento general de una región del cerebro. El ritmo de construcción de modelos y simulaciones de trabajo está solo ligeramente por detrás de la disponibilidad de información de escaneo cerebral y estructura neuronal. Hay más de cincuenta mil neurocientíficos en el mundo escribiendo artículos para más de trescientas revistas. El campo es amplio y diverso, con científicos e ingenieros creando nuevas tecnologías de escaneo y detección y desarrollando modelos y teorías en muchos niveles. Entonces, incluso las personas que trabajan en este campo a menudo no son completamente conscientes de las dimensiones completas de la investigación contemporánea. En la neurociencia contemporánea, se están desarrollando modelos y simulaciones a partir de diversas fuentes, incluidos escáneres cerebrales, modelos de conexión interneuronal, modelos neuronales y pruebas psicofísicas. Como se mencionó anteriormente, el investigador del sistema auditivo Lloyd Watts ha desarrollado un modelo integral de una parte significativa del sistema de procesamiento auditivo humano a partir de estudios neurobiológicos de tipos de neuronas específicos e información de conexión interneuronal. El modelo de Watts incluye cinco caminos paralelos y las representaciones reales de la información auditiva en cada etapa del procesamiento neuronal. Watts ha implementado su modelo en una computadora como software en tiempo real que puede localizar e identificar sonidos y funciones, de forma similar a como funciona el oído humano. Aunque es un trabajo en progreso, el modelo ilustra la viabilidad de convertir modelos neurobiológicos y datos de conexión cerebral en simulaciones de trabajo.
Como han especulado Hans Moravec y otros, estas simulaciones funcionales eficientes requieren cerca de mil veces menos computación de lo que sería necesario si simulamos las no linealidades en cada dendrita, sinapsis y demás estructura subneural en la región que se simula. La relación de velocidad real actual entre la electrónica contemporánea y la señalización electroquímica en las conexiones interneuronales biológicas es de al menos un millón a uno. Encontramos esta misma ineficiencia en todos los aspectos de nuestra biología, porque la evolución biológica construyó todos sus mecanismos y sistemas con un conjunto de materiales severamente limitados, como las células, que a su vez están hechas de un conjunto limitado de proteínas. Aunque las proteínas biológicas son tridimensionales, están restringidas a moléculas complejas que pueden plegarse a partir de una secuencia lineal (unidimensional) de aminoácidos. Pero el cerebro no es un único órgano de procesamiento de información, sino una colección intrincada y entrelazada de cientos de regiones especializadas. El proceso de «pelar la cebolla» para comprender las funciones de estas regiones intercaladas está en marcha. A medida que estén disponibles las descripciones de las neuronas necesarias y los datos de interconexión cerebral, se desarrollarán réplicas detalladas e implementables, como la simulación de las regiones auditivas, para todas las regiones del cerebro. La mayoría de los algoritmos de modelado cerebral no son los métodos secuenciales y lógicos que se usan comúnmente en la computación digital actual. El cerebro biológico tiende a utilizar procesos holográficos, caóticos y de auto-organización, es decir, información que no se encuentra en un lugar sino que se distribuye por toda una región. También es masivamente paralelo y utiliza técnicas analógicas híbridas controladas digitalmente. Sin embargo, una amplia gama de proyectos ha demostrado nuestra capacidad para comprender estas técnicas y extraerlas de nuestro conocimiento cada vez mayor del cerebro y su organización. Una vez que se comprenden los algoritmos de una región en particular, se pueden refinar y ampliar antes de implementarlos en equivalentes neuronales sintéticos. Se pueden ejecutar en un sustrato computacional que ya es mucho más rápido que los circuitos neuronales. Las computadoras actuales realizan cálculos en mil millonésimas de segundo, en comparación con las milésimas de segundo para las transacciones interneuronales. Y también podemos hacer uso de los métodos para construir máquinas inteligentes que ya conocemos.
Pero, ¿es el cerebro humano diferente de una computadora? La respuesta a esta pregunta depende de lo que entendamos por la palabra «computadora«. La mayoría de las computadoras de hoy en día son todas digitales y realizan uno o quizás algunos cálculos a la vez a una velocidad extremadamente alta. Por el contrario, el cerebro humano combina métodos digitales y analógicos, pero realiza la mayoría de los cálculos en el dominio analógico (continuo), utilizando neurotransmisores y mecanismos relacionados. Aunque estas neuronas ejecutan cálculos a velocidades extremadamente lentas, típicamente doscientas transacciones por segundo, el cerebro en su conjunto es enormemente paralelo, en que la mayoría de sus neuronas trabajan al mismo tiempo, lo que da como resultado que se lleven a cabo hasta cien billones de cálculos simultáneamente. El paralelismo masivo del cerebro humano es la clave de su capacidad de reconocimiento de patrones, que es uno de los pilares del pensamiento de nuestra especie. Las neuronas de los mamíferos se involucran en una danza caótica, es decir, con muchas interacciones aparentemente aleatorias, y si la red neuronal ha aprendido bien sus lecciones, surgirá un patrón estable que reflejará la decisión de la red. Actualmente, los diseños paralelos para computadoras son algo limitados. Pero no hay ninguna razón por la que recreaciones no biológicas funcionalmente equivalentes de redes neuronales biológicas no puedan construirse utilizando estos principios. De hecho, decenas de esfuerzos en todo el mundo ya han tenido éxito en hacerlo. El propio Kurzweil nos dice que en el reconocimiento de patrones y en los proyectos en los que ha estado involucrado durante más de cuarenta años utilizan esta forma de computación entrenable y no determinista. Muchos de los métodos de organización característicos del cerebro también se pueden simular de manera efectiva utilizando computación convencional de potencia suficiente. Duplicar los paradigmas de diseño de la naturaleza será, según Kurzweil, una tendencia clave en la informática del futuro. También debemos tener en cuenta que la computación digital puede ser funcionalmente equivalente a la computación analógica, es decir, podemos realizar todas las funciones de una red híbrida digital-analógica con una computadora totalmente digital. Lo contrario no es cierto: no podemos simular todas las funciones de una computadora digital con una analógica. Sin embargo, la computación analógica tiene una ventaja de ingeniería, ya que es potencialmente miles de veces más eficiente. Un cálculo analógico puede ser realizado por unos pocos transistores o, en el caso de las neuronas de los mamíferos, por procesos electroquímicos específicos. Una computación digital, por el contrario, requiere miles o decenas de miles de transistores. Por otro lado, esta ventaja se puede compensar con la facilidad de programar y modificar simulaciones digitales basadas en computadora.
Hay una serie de otras formas clave en las que el cerebro se diferencia de una computadora convencional. Los circuitos del cerebro son muy lentos. Los tiempos de reinicio sináptico y estabilización de neuronas, la cantidad de tiempo requerida para que una neurona y sus sinapsis se reinicien después de que la neurona se active, son tan lentos que hay muy pocos ciclos de activación de neuronas disponibles para tomar decisiones de reconocimiento de patrones. Las imágenes de resonancia magnética funcional (fMRI) y las exploraciones de magnetoencefalografía (MEG) muestran que los juicios que no requieren resolver ambigüedades parecen realizarse en un solo ciclo de activación de neuronas en menos de veinte milisegundos, lo que implica esencialmente que no se efectúa ningún proceso iterativo (repetido). El reconocimiento de objetos ocurre en alrededor de 150 milisegundos, de modo que incluso si «pensamos algo«, el número de ciclos de operación se mide en cientos o miles como máximo, no en miles de millones, como con una computadora típica. Pero por contra, el cerebro biológico es masivamente paralelo. El cerebro tiene del orden de cien billones de conexiones interneuronales, cada una de las cuales potencialmente procesa información simultáneamente. Estos dos factores, tiempo de ciclo lento y paralelismo masivo, dan como resultado un cierto nivel de capacidad computacional para el cerebro. Pero ya actualmente nuestras supercomputadoras más grandes se acercan a este rango. Las supercomputadoras líderes alcanzan más de 1014 cps (cálculos por segundo), lo que coincide con el rango inferior de las estimaciones para la simulación funcional. Sin embargo, no es necesario utilizar la misma granularidad de procesamiento paralelo que el propio cerebro, siempre que coincidamos con la velocidad computacional general y la capacidad de memoria necesarias o, al contrario, simulemos la arquitectura paralela masiva del cerebro.
Asimismo, el cerebro biológico combina fenómenos analógicos y digitales. La topología de las conexiones en el cerebro biológico es esencialmente digital, o sea existe una conexión o no. Aunque un disparo de axón no es completamente digital, pero se aproxima mucho a un proceso digital. No obstante, casi todas las funciones del cerebro son analógicas y están llenas de no linealidades, o sea cambios repentinos en la salida, en lugar de niveles que cambian suavemente, que son sustancialmente más complejas que el modelo clásico que se ha estado usando para las neuronas. Sin embargo, la dinámica no lineal detallada de una neurona y todos sus componentes, como dendritas, espinas, canales y axones, se puede modelar a través de las matemáticas de los sistemas no lineales. Estos modelos matemáticos pueden luego simularse en una computadora digital con cualquier grado de precisión deseado. Como mencionó Kurzweil, si simulamos las regiones neuronales utilizando transistores en su modo analógico nativo en lugar de mediante computación digital, este enfoque puede proporcionar una capacidad mejorada en tres o cuatro órdenes de magnitud. También tenemos que el cerebro biológico se reconfigura a sí mismo. Las dendritas están continuamente explorando nuevas espinas y sinapsis. La topología y la conductancia de las dendritas y las sinapsis también se adaptan continuamente. El sistema nervioso se auto-organiza en todos los niveles de su organización. Si bien las técnicas matemáticas utilizadas en los sistemas computarizados de reconocimiento de patrones, como las redes neuronales y los modelos de Markov, son mucho más simples que las que se utilizan en el cerebro, se tiene una experiencia sustancial en ingeniería con modelos de auto-organización. Las computadoras contemporáneas no se reconectan literalmente, aunque los «sistemas de autoreparación» emergentes están comenzando a hacer esto, pero podemos simular este proceso de manera efectiva en el software. En el futuro, también se podrá implementar esto en el hardware, aunque puede haber ventajas al implementar la mayor parte de la auto-organización en el software, lo que brinda más flexibilidad a los programadores. La mayoría de los detalles en el cerebro son aleatorios. Si bien hay una gran cantidad de procesos estocásticos, o aleatorios dentro de restricciones cuidadosamente controladas en cada aspecto del cerebro, no es necesario modelar cada «hoyuelo» en la superficie de cada dendrita, como tampoco es necesario modelar cada pequeño variación en la superficie de cada transistor en la comprensión de los principios de funcionamiento de una computadora. Pero ciertos detalles son críticos para descifrar los principios de funcionamiento del cerebro, lo que nos obliga a distinguir entre ellos y los que comprenden el «ruido» estocástico o el caos. Los aspectos caóticos (aleatorios e impredecibles) de la función neuronal se pueden modelar utilizando las técnicas matemáticas de la teoría de la complejidad y la teoría del caos.
El cerebro biológico utiliza propiedades emergentes. El comportamiento inteligente es una propiedad emergente de la actividad caótica y compleja del cerebro. Consideremos la analogía con el diseño aparentemente inteligente de colonias de hormigas, con sus túneles interconectados y sistemas de ventilación delicadamente construidos. A pesar de su diseño inteligente e intrincado, los montículos de hormigas no tienen arquitectos maestros; la arquitectura surge de las interacciones impredecibles de todos los miembros de la colonia, cada uno siguiendo reglas relativamente simples. El cerebro biológico es imperfecto. Es la naturaleza de los sistemas adaptativos complejos el que la inteligencia emergente de sus decisiones sea poco óptima. Es decir, refleja un nivel de inteligencia inferior al que representaría una disposición óptima de sus elementos. Solo necesita ser lo suficientemente buena, lo que en el caso de nuestra especie significaba un nivel de inteligencia suficiente para permitirnos burlar los competidores en nuestro nicho ecológico, como, por ejemplo, los primates que también combinan una función cognitiva con un apéndice oponible pero cuyo cerebro no está tan desarrollado como el de los humanos y cuyas manos no funcionan tan bien. Nos contradecimos, por lo que una variedad de ideas y enfoques, incluidos los conflictivos, conduce a resultados superiores. Nuestros cerebros son muy capaces de sostener puntos de vista contradictorios. De hecho, prosperamos en esta diversidad interna. Asimismo, el cerebro utiliza la evolución. El paradigma de aprendizaje básico utilizado por el cerebro es evolutivo, en el que sobreviven los patrones de conexiones que son más exitosos para dar sentido al mundo y contribuir a reconocimientos y decisiones. El cerebro de un recién nacido contiene en su mayoría conexiones interneuronales vinculadas al azar, y solo una parte de ellas sobrevive en el cerebro de dos años. Los patrones son importantes. Ciertos detalles de estos métodos caóticos de auto-organización, expresados como restricciones del modelo, o reglas que definen las condiciones iniciales y los medios para la auto-organización, son cruciales, mientras que muchos detalles dentro de las restricciones se establecen inicialmente al azar. Luego, el sistema se auto-organiza y representa gradualmente las características invariables de la información que se le ha presentado. La información resultante no se encuentra en nodos o conexiones específicas, sino que es un patrón distribuido.
El cerebro biológico es holográfico. Existe una analogía entre la información distribuida en un holograma y el método de representación de información en redes cerebrales. Encontramos esto también en los métodos de auto-organización utilizados en el reconocimiento de patrones computarizados, como las redes neuronales, los modelos de Markov y los algoritmos genéticos. Además, el cerebro biológico está profundamente conectado. El cerebro obtiene su resiliencia al ser una red profundamente conectada en la que la información tiene muchas formas de navegar de un punto a otro. Considere la analogía con Internet, que se ha vuelto cada vez más estable a medida que aumenta el número de sus nodos constituyentes. Los nodos, incluso los centros completos de Internet, pueden volverse inoperativos sin siquiera derribar toda la red. De manera similar, perdemos neuronas continuamente sin afectar la integridad de todo el cerebro. El cerebro biológico sí tiene una arquitectura de regiones. Aunque los detalles de las conexiones dentro de una región son inicialmente aleatorios dentro de las limitaciones y auto-organizados, existe una arquitectura de varios cientos de regiones que realizan funciones específicas, con patrones específicos de conexiones entre regiones. El diseño de una región cerebral es más simple que el diseño de una neurona. Los modelos a menudo se vuelven más simples en un nivel superior, no más complejos. Considere una analogía con una computadora. Necesitamos comprender la física detallada de los semiconductores para modelar un transistor, y las ecuaciones que subyacen a un solo transistor real son complejas. Sin embargo, un circuito digital que multiplica dos números, aunque involucre cientos de transistores, se puede modelar de manera mucho más simple, con solo unas pocas fórmulas. Se puede modelar una computadora completa con miles de millones de transistores a través de su conjunto de instrucciones y descripción de registro, que se puede describir en un puñado de páginas escritas de texto y transformaciones matemáticas. Los programas de software para un sistema operativo, los compiladores de lenguaje y los ensambladores son razonablemente complejos, pero el modelado de un programa en particular, por ejemplo, un programa de reconocimiento de voz basado en el modelado de Markov, puede describirse en solo unas pocas páginas de ecuaciones. En ninguna parte de tal descripción se encontrarían los detalles de la física de los semiconductores. Una observación similar también es válida para el cerebro. Se puede describir un arreglo neuronal particular que detecta una característica visual invariable particular, como una cara, o que realiza una operación de filtrado de paso de banda, restringiendo la entrada a un rango de frecuencia específico, en información auditiva o que evalúa la proximidad temporal de dos eventos con mucha mayor simplicidad que las relaciones físicas y químicas reales que controlan los neurotransmisores y otras variables sinápticas y dendríticas involucradas en los procesos respectivos. Aunque toda esta complejidad neural tendrá que ser cuidadosamente considerada antes de avanzar al siguiente nivel superior, como el modelado de un cerebro artificial, gran parte de ella puede simplificarse una vez que se entiendan los principios operativos del cerebro.
Ahora nos estamos acercando a un período de rápido crecimiento exponencial en el ritmo acelerado de comprensión del cerebro humano, pero nuestros intentos en esta área tienen una larga historia. Nuestra capacidad para reflexionar y construir modelos de nuestro pensamiento es un atributo único de nuestra especie. Actualmente el enfoque más poderoso para capturar cada detalle neuronal destacado será escanearlo desde adentro. Para la década actual de 2020, la tecnología de nanobots será viable y el escaneo cerebral será una de sus aplicaciones destacadas. Como se describió anteriormente, los nanobots son robots que tendrán el tamaño de las células sanguíneas humanas, de siete a ocho micrones o incluso más pequeños. Miles de millones de ellos podrían viajar a través de cada capilar cerebral, escaneando cada característica neuronal relevante de cerca. Usando comunicación inalámbrica de alta velocidad, los nanobots se comunicarían entre sí y con las computadoras que compilan la base de datos del escaneo cerebral. En otras palabras, los nanobots y las computadoras estarán en una red de área local inalámbrica. Eso sí, asegurándonos de que no sea hackeable. A fines del siglo XIX, los científicos descubrieron que cuando inyectaban un tinte azul en el torrente sanguíneo de un animal, todos los órganos del animal se volvían azules a excepción de la médula espinal y el cerebro. Formularon con precisión la hipótesis de una barrera que protege al cerebro de una amplia gama de sustancias potencialmente dañinas en la sangre, incluidas bacterias, hormonas, sustancias químicas que pueden actuar como neurotransmisores y otras toxinas. Solo el oxígeno, la glucosa y un conjunto muy selecto de otras moléculas pequeñas pueden salir de los vasos sanguíneos y entrar al cerebro. Las autopsias de principios del siglo XX revelaron que el revestimiento de los capilares en el cerebro y otros tejidos del sistema nervioso está mucho más repleto de células endoteliales que los vasos de tamaño comparable en otros órganos. Estudios más recientes han demostrado que hay un sistema complejo que presenta puertas de enlace completas con claves y contraseñas que permiten la entrada al cerebro. Por ejemplo, se han descubierto dos proteínas llamadas zonulina y zot que reaccionan con receptores en el cerebro para abrir temporalmente la barrera hematoencefálica (BBB) en sitios seleccionados. Estas dos proteínas juegan un papel similar en la apertura de receptores en el intestino delgado para permitir la digestión de glucosa y otros nutrientes.
Esto quiere decir que cualquier diseño de nanobots para escanear o interactuar con el cerebro deberá considerar varias estrategias que sean factibles, dadas las capacidades futuras. Una táctica obvia es hacer que el nanobot sea lo suficientemente pequeño como para deslizarse a través de la barrera hematoencefálica (BBB), pero este es el enfoque menos práctico, al menos con la nanotecnología tal como la conocemos hoy. Para hacer esto, el nanobot tendría que tener un diámetro de veinte nanómetros o menos, que es aproximadamente del tamaño de cien átomos de carbono. Limitar un nanobot a estas dimensiones limitaría severamente su funcionalidad. Una estrategia intermedia sería mantener el nanobot en el torrente sanguíneo pero hacer que proyecte un brazo robótico a través de la barrera hematoencefálica (BBB) y hacia el líquido extracelular que recubre las células neurales. Esto permitiría que el nanobot siga siendo lo suficientemente grande como para tener suficientes recursos computacionales y de navegación. Dado que casi todas las neuronas se encuentran dentro de dos o tres anchos de celda de un capilar, el brazo necesitaría alcanzar solo hasta unas cincuenta micras. Los análisis realizados por el neurólogo Dr Robert Boland-Freitas y otros muestran que es bastante factible restringir el ancho de un manipulador de este tipo a menos de veinte nanómetros. Otro enfoque es mantener los nanobots en los capilares y usar un escaneo no invasivo. Otro tipo de escaneo no invasivo involucraría un conjunto de nanobots que emiten señales enfocadas similares a las de un escáner de dos fotones y otro conjunto de nanobots que reciben la transmisión. La topología del tejido intermedio podría determinarse analizando el impacto en la señal recibida. Otro tipo de estrategia, sugerida por el Dr Robert Boland-Freitas, sería que el nanobot literalmente se abriera paso a través de la barrera hematoencefálica (BBB) abriendo un agujero en ella, saliendo del vaso sanguíneo y luego reparando el daño. Dado que el nanobot se puede construir utilizando carbono en una configuración diamantina, sería mucho más fuerte que los tejidos biológicos. Freitas escribe: «Para pasar entre las células en un tejido rico en células, es necesario que un nanorobot avance interrumpa una cantidad mínima de contactos adhesivos de célula a célula que se encuentran en su camino. Después de eso, y con el objetivo de minimizar la biointrusión, el nanorobot debe volver a sellar esos contactos adhesivos a su paso, de manera crudamente análoga a un topo excavador«.
Los estudios contemporáneos sobre el cáncer sugieren otro enfoque. Los investigadores del cáncer están muy interesados en interrumpir selectivamente la barrera hematoencefálica (BBB) para transportar sustancias que destruyan los tumores cancerígenos. Estudios recientes de la barrera hematoencefálica (BBB) muestran que se abre en respuesta a una variedad de factores, que incluyen ciertas proteínas, hipertensión localizada, altas concentraciones de ciertas sustancias, microondas y otras formas de radiación, infección e inflamación. También hay procesos especializados que transportan sustancias necesarias como la glucosa. También se ha descubierto que el manitol de azúcar provoca una contracción temporal de las células endoteliales estrechamente empaquetadas para proporcionar una ruptura temporal de la barrera hematoencefálica (BBB). Al explotar estos mecanismos, varios grupos de investigación están desarrollando compuestos que abren la barrera hematoencefálica (BBB). Aunque esta investigación tiene como objetivo las terapias contra el cáncer, se pueden usar enfoques similares para abrir las puertas de entrada a los nanobots que escanearán el cerebro y mejorarán nuestro funcionamiento mental. Podríamos pasar por alto el torrente sanguíneo y la barrera hematoencefálica (BBB) por completo inyectando los nanobots en áreas del cerebro que tienen acceso directo al tejido neural. Es remarcable saber que las nuevas neuronas migran desde los ventrículos a otras partes del cerebro. Los nanobots podrían seguir el mismo camino de migración. Robert Freitas ha descrito varias técnicas para que los nanobots controlen las señales sensoriales. Estos serán importantes tanto para la ingeniería inversa de las entradas al cerebro, como para crear una realidad virtual de inmersión total desde el interior del sistema nervioso. Para escanear y monitorear las señales auditivas, Freitas propone «nanodispositivos móviles [que] nadan hacia la arteria espiral del oído y descienden a través de sus bifurcaciones para llegar al canal coclear, luego se colocan como monitores neurales en las proximidades del nervio espiral, fibras y los nervios que ingresan al epitelio del órgano de Corti [nervios cocleares o auditivos] dentro del ganglio espiral. Estos monitores pueden detectar, registrar o retransmitir a otros nanodispositivos en la red de comunicaciones todo el tráfico neural auditivo percibido por el oído humano«.
Para las «sensaciones de gravedad, rotación y aceleración» del cuerpo, Freitas prevé «nanomonitores colocados en las terminaciones nerviosas aferentes que emanan de las células ciliadas ubicadas en los canales semicirculares«. Para el «manejo sensorial cinestésico las neuronas motoras pueden monitorearse para realizar un seguimiento de los movimientos y posiciones de las extremidades, o actividades musculares específicas, e incluso para ejercer control«. «El tráfico neuronal sensorial olfativo y gustativo puede ser espiado por instrumentos nanosensoriales«. «Las señales de dolor pueden registrarse o modificarse según sea necesario, al igual que los impulsos nerviosos mecánicos y de temperatura de los receptores ubicados en la piel«. Freitas señala que la retina es rica en pequeños vasos sanguíneos, «permitiendo el fácil acceso tanto a los fotorreceptores (bastón, cono, bipolar y ganglio) como al integrador de. neuronas«. Las señales del nervio óptico representan más de cien millones de niveles por segundo, pero este nivel de procesamiento de señales ya es manejable artificialmente. Como han indicado Tomaso Poggio del MIT y otros, aún no comprendemos la codificación de las señales del nervio óptico. Una vez que tengamos la capacidad de monitorear las señales de cada fibra discreta en el nervio óptico, nuestra capacidad para interpretar estas señales será mucho más fácil. Esta es actualmente un área de intensa investigación. Las señales sin procesar del cuerpo pasan por múltiples niveles de procesamiento antes de agregarse en una representación dinámica compacta en dos pequeños órganos llamados ínsula derecha e izquierda, ubicados en lo profundo de la corteza cerebral. Para la realidad virtual de inmersión total, como se pretende con el Metaverso, puede ser más efectivo aprovechar las señales ya interpretadas en la ínsula en lugar de las señales no procesadas en todo el cuerpo. Escanear el cerebro con el propósito de aplicar ingeniería inversa a sus principios de funcionamiento es una acción más fácil que escanearlo con el propósito de «cargar» una personalidad en particular. Para aplicar ingeniería inversa al cerebro, solo necesitamos escanear las conexiones en una región lo suficiente como para comprender su patrón básico. No necesitamos capturar cada conexión. Una vez que comprendemos los patrones de cableado neuronal dentro de una región, podemos combinar ese conocimiento con una comprensión detallada de cómo funciona cada tipo de neurona en esa región. Aunque una región particular del cerebro puede tener miles de millones de neuronas, contendrá solo un número limitado de tipos de neuronas. Ya se ha hecho un progreso significativo en la derivación de los mecanismos subyacentes a variedades específicas de neuronas y conexiones sinápticas al estudiar estas células in vitro, así como in vivo utilizando métodos como el escaneo de dos fotones.
Ya tenemos tecnología capaz de producir escaneos de muy alta resolución para ver la forma precisa de cada conexión en un área particular del cerebro, si el escáner está físicamente cerca de las características neuronales. Con respecto a los nanobots, ya hay cuatro conferencias importantes dedicadas al desarrollo de dispositivos del tamaño de células sanguíneas con fines diagnósticos y terapéuticos. Podemos proyectar el costo exponencialmente decreciente de la computación y el tamaño rápidamente decreciente, así como la efectividad creciente de las tecnologías electrónicas y mecánicas. Con base en estas proyecciones, podemos anticipar de forma conservadora la tecnología nanobot necesaria para implementar este tipo de escenarios durante la actual década de 2020. Una vez que el escaneo basado en nanobots se haga realidad, finalmente estaremos en la misma posición en la que se encuentran hoy los diseñadores de circuitos, ya que podremos colocar sensores altamente sensibles y de muy alta resolución, en forma de nanobots, en millones o incluso miles de millones. de ubicaciones en el cerebro y, por lo tanto, presenciar con asombroso detalle los cerebros vivos en acción. No obstante, hay que considerar los niveles de modelado y comprensión en el cerebro, desde la física de las reacciones sinápticas hasta las transformaciones de la información por parte de los grupos neuronales. En aquellas regiones del cerebro para las que hemos logrado desarrollar modelos detallados, encontramos un fenómeno similar al que involucra a las células pancreáticas. Los modelos son complejos pero siguen siendo más simples que las descripciones matemáticas de una sola célula o incluso una sola sinapsis. Como indicamos anteriormente, estos modelos específicos de la región también requieren una computación significativamente menor de lo que implica teóricamente la capacidad computacional de todas las sinapsis y células. El neurólogo Gilles Laurent del Instituto de Tecnología de California observa: «En la mayoría de los casos, el comportamiento colectivo de un sistema es muy difícil de deducir a partir del conocimiento de sus componentes. La neurociencia es una ciencia de los sistemas en los que los sistemas de primer orden y locales son necesarios los esquemas explicativos pero no suficientes«.
La ingeniería inversa del cerebro procederá mediante el refinamiento iterativo de modelos y simulaciones de arriba a abajo y de abajo a arriba, a medida que refinamos cada nivel de descripción y modelado. Hasta hace muy poco, la neurociencia se caracterizaba por modelos demasiado simplistas limitados por la tosquedad de nuestras herramientas de detección y exploración. Esto llevó a muchos observadores a dudar de que nuestros procesos de pensamiento fueran inherentemente capaces de comprenderse a sí mismos. El psiquiatra estadounidense Peter D. Kramer escribe: «Si la mente fuera lo suficientemente simple para que la entendiéramos, seríamos demasiado simples para entenderla«. El éxito reciente en el desarrollo de modelos altamente detallados en varios niveles, desde componentes neuronales como las sinapsis hasta grandes regiones neuronales como el cerebelo, demuestra que construir modelos matemáticos precisos de nuestros cerebros y luego simular estos modelos con computación es una tarea desafiante pero viable, una vez que las capacidades de datos estén disponibles. Aunque los modelos tienen una larga historia en la neurociencia, solo recientemente se han vuelto lo suficientemente completos y detallados como para permitir que las simulaciones basadas en ellos funcionen como experimentos cerebrales reales. En un discurso ante la reunión anual de la Asociación Estadounidense de Psicología en 2002, el psicólogo y neurocientífico Joseph LeDoux de la Universidad de Nueva York dijo: «Si quienes somos está determinado por lo que recordamos, y si la memoria es una función del cerebro, entonces las sinapsis, las interfaces a través de las cuales las neuronas se comunican entre sí y las estructuras físicas en las que se codifican los recuerdos, son las unidades fundamentales del Yo. Las sinapsis ocupan un lugar bastante bajo en el tótem de cómo se organiza el cerebro, pero creo que son bastante importantes. El Yo es la suma de los subsistemas individuales del cerebro, cada uno con su propia forma de ‘memoria’, junto con las complejas interacciones entre los subsistemas. Sin plasticidad sináptica, la capacidad de las sinapsis para alterar la facilidad con la que transmiten señales de una neurona a otra, los cambios en esos sistemas que se requieren para el aprendizaje serían imposibles«.
Aunque los primeros modelos trataban a la neurona como la unidad principal de transformación de la información, las investigaciones se han vuelto hacia el énfasis en sus componentes subcelulares. De hecho, una sinapsis cerebral real es mucho más compleja de lo que se describe en el modelo clásico de redes neuronales de McCulloch-Pitts, una unidad de cálculo que intenta modelar el comportamiento de una neurona «natural«, similares a las que constituyen del cerebro humano. La respuesta sináptica está influenciada por una variedad de factores, incluida la acción de múltiples canales controlados por una variedad de potenciales iónicos (voltajes) y múltiples neurotransmisores y neuromoduladores. Sin embargo, se han hecho progresos considerables en los últimos años en el desarrollo de fórmulas matemáticas que subyacen al comportamiento de las neuronas, las dendritas, las sinapsis y la representación de la información en los trenes de picos, o pulsos de neuronas que han sido activadas. Existen modelos bien fundamentados para la biofísica de los cuerpos neuronales, las sinapsis y la acción de las redes neuronales de retroalimentación, como las que se encuentran en la retina y los nervios ópticos, y muchas otras clases de neuronas. La atención a cómo funciona la sinapsis tiene sus raíces en el trabajo pionero de la biopsicología Donald Hebb, que abordó la pregunta: ¿Cómo funciona la memoria a corto plazo? La región del cerebro asociada con la memoria a corto plazo es la corteza prefrontal, aunque ahora nos damos cuenta de que se han identificado diferentes formas de retención de información a corto plazo en la mayoría de los otros circuitos neuronales que se han estudiado de cerca. La mayor parte del trabajo de Hebb se centró en los cambios en el estado de las sinapsis para fortalecer o inhibir las señales recibidas y en el circuito de reverberación más controvertido en el que las neuronas disparan en un bucle continuo. Otra teoría propuesta por Hebb es un cambio en el estado de una neurona misma, es decir, una función de memoria en el soma celular (cuerpo). La evidencia experimental apoya la posibilidad de todos estos modelos. La memoria sináptica hebbiana clásica y la memoria reverberatoria requieren un retraso de tiempo antes de que se pueda utilizar la información registrada. Los experimentos in vivo muestran que en al menos algunas regiones del cerebro hay una respuesta neuronal que es demasiado rápida para ser explicada por tales modelos de aprendizaje estándar y, por lo tanto, solo podría lograrse mediante cambios en el soma inducidos por el aprendizaje. Otra posibilidad no anticipada directamente por Hebb son los cambios en tiempo real en las propias conexiones neuronales. Los resultados de escaneos recientes muestran un rápido crecimiento de los picos de dendritas y nuevas sinapsis, por lo que debe considerarse como un mecanismo importante. Los experimentos también han demostrado una rica variedad de comportamientos de aprendizaje a nivel sináptico que van más allá de los simples modelos hebbianos. Las sinapsis pueden cambiar su estado rápidamente, pero luego comienzan a decaer lentamente con la estimulación continua, o en algunos casos por falta de estimulación, o muchas otras variaciones.
Aunque los modelos contemporáneos son mucho más complejos que los modelos de sinapsis simples ideados por Hebb, sus intuiciones han demostrado ser correctas en gran medida. Además de la plasticidad sináptica hebbiana, los modelos actuales incluyen procesos globales que proporcionan una función reguladora. Por ejemplo, la escala sináptica evita que los potenciales sinápticos se vuelvan cero, y, por lo tanto, no se puedan aumentar a través de enfoques multiplicativos, o se vuelvan excesivamente altos y, por lo tanto, dominen una red. Experimentos in vitro han encontrado escalamiento sináptico en redes cultivadas de neuronas neocorticales, del hipocampo y de la médula espinal. Otros mecanismos son sensibles a la sincronización general de picos y la distribución de potencial a través de muchas sinapsis. Las simulaciones han demostrado la capacidad de estos mecanismos descubiertos recientemente para mejorar el aprendizaje y la estabilidad de la red. El nuevo desarrollo más emocionante en nuestra comprensión de la sinapsis es que la topología de las sinapsis y las conexiones que forman cambian continuamente. Nuestro primer vistazo a los rápidos cambios en las conexiones sinápticas fue revelado por un innovador sistema de escaneo que requiere un animal genéticamente modificado cuyas neuronas han sido diseñadas para emitir una luz verde fluorescente. El sistema puede obtener imágenes del tejido neuronal vivo y tiene una resolución suficientemente alta para capturar no solo las dendritas (conexiones interneuronales) sino también las espinas: pequeñas proyecciones que brotan de las dendritas e inician posibles sinapsis.
El neurobiólogo Karel Svoboda y sus colegas del Laboratorio Cold Spring Harbor en Long Island utilizaron el sistema de escaneo en ratones para investigar las redes de neuronas que analizan la información de los bigotes, un estudio que proporcionó una mirada fascinante al aprendizaje neuronal. A las dendritas les crecían continuamente nuevas espinas. La mayoría de estos duraron solo uno o dos días, pero en ocasiones una columna permaneció estable. «Creemos que la alta rotación que vemos podría desempeñar un papel importante en la plasticidad neuronal, en el sentido de que las espinas que brotan se extienden para sondear diferentes socios presinápticos en las neuronas vecinas«, dijo Svoboda. «Si una conexión determinada es favorable, es decir, reflejando un tipo deseable de recableado cerebral, entonces estas sinapsis se estabilizan y se vuelven más permanentes. Pero la mayoría de estas sinapsis no van en la dirección correcta y están retraídas«. Otro fenómeno consistente que se ha observado es que las respuestas neuronales disminuyen con el tiempo, si se repite un estímulo en particular. Esta adaptación da mayor prioridad a los nuevos patrones de estímulo. Un trabajo similar realizado por el neurobiólogo Wen-Biao Gan de la Facultad de Medicina de la Universidad de Nueva York sobre espinas neuronales en la corteza visual de ratones adultos muestra que este mecanismo de la columna vertebral puede contener recuerdos a largo plazo: «Digamos que un niño de 10 años usa 1000 conexiones para almacenar una pieza de información. Cuando tenga 80 años, una cuarta parte de las conexiones seguirán allí, sin importar cómo cambien las cosas. Es por eso que aún puedes recordar tus experiencias de la infancia«. Wen-Biao Gan también explica: «Nuestra idea era que en realidad no necesitas hacer muchas sinapsis nuevas y deshacerte de las viejas cuando aprendes y memorizas. Solo necesitas modificar la fuerza de las sinapsis preexistentes para el aprendizaje y la memoria a corto plazo. Sin embargo, es probable que se hagan o eliminen algunas sinapsis para lograr la memoria a largo plazo«.
La razón por la que los recuerdos pueden permanecer intactos incluso si han desaparecido las tres cuartas partes de las conexiones es que el método de codificación utilizado parece tener propiedades similares a las de un holograma. En un holograma, la información se almacena en un patrón difuso a lo largo de una región extensa. Si destruyes las tres cuartas partes del holograma, toda la imagen permanece intacta, aunque con solo una cuarta parte de la resolución. La investigación de Pentti Kanerva, neurocientífica del Instituto de Neurociencia Redwood, respalda la idea de que los recuerdos se distribuyen dinámicamente en una región de neuronas. Esto explica por qué los recuerdos más antiguos persisten pero, sin embargo, parecen «desvanecerse«, porque su resolución ha disminuido. Los investigadores también están descubriendo que neuronas específicas realizan tareas de reconocimiento especiales. Un experimento con pollos identificó neuronas del tallo cerebral que detectan retrasos particulares cuando los sonidos llegan a los dos oídos. Diferentes neuronas responden a diferentes cantidades de retraso. Aunque hay muchas irregularidades complejas en el funcionamiento de estas neuronas y las redes de las que dependen, lo que realmente están logrando es fácil de describir y sería simple de replicar. Según el neurocientífico Scott Makeig de la Universidad de California en San Diego, «los resultados neurobiológicos recientes sugieren un papel importante de las entradas neuronales sincronizadas con precisión en el aprendizaje y la memoria«. Un experimento reciente en el Instituto de Ciencias No Lineales de la Universidad de California en San Diego demuestra el potencial de las neuronas electrónicas para emular con precisión las biológicas. Las neuronas (biológicas o de otro tipo) son un excelente ejemplo de lo que a menudo se denomina computación caótica. Cada neurona actúa de una manera esencialmente impredecible. Cuando toda una red de neuronas recibe información del mundo exterior o de otras redes de neuronas, la señalización entre ellas parece al principio ser frenética y aleatoria. Con el tiempo, típicamente una fracción de segundo más o menos, la interacción caótica de las neuronas se apaga y surge un patrón estable de activación. Este patrón representa la «decisión» de la red neuronal. Si la red neuronal está realizando una tarea de reconocimiento de patrones, y tales tareas constituyen la mayor parte de la actividad en el cerebro humano, el patrón emergente representa el reconocimiento apropiado. .
Entonces, la pregunta que abordaron los investigadores de San Diego fue: ¿podrían las neuronas electrónicas participar en esta danza caótica junto con las biológicas? Conectaron neuronas artificiales con neuronas reales de langostas espinosas en una sola red, y su red híbrida biológica-no biológica funcionó de la misma manera, es decir, una interacción caótica seguida de un patrón emergente estable, y con el mismo tipo de resultados que una red biológica de neuronas. Esencialmente, las neuronas biológicas aceptaron a sus pares electrónicos. Esto indica que el modelo matemático caótico de estas neuronas era razonablemente preciso. La disposición detallada de las conexiones y sinapsis en una región determinada es un producto directo de la extensión del uso de esa región. Como el escaneo cerebral ha alcanzado una resolución lo suficientemente alta como para detectar el crecimiento de la columna dendrítica y la formación de nuevas sinapsis, podemos ver que nuestro cerebro crece y se adapta para seguir literalmente nuestros pensamientos. Esto da nuevos matices de significado a la máxima de Descartes «Pienso, luego existo«. En un experimento realizado por el neurocientífico estadounidense Michael Merzenich y sus colegas en la Universidad de California en San Francisco, la comida de los monos se colocó en tal posición que los animales tenían que manipular con destreza un dedo para obtenerla. Los escáneres cerebrales antes y después revelaron un crecimiento dramático en las conexiones interneuronales y sinapsis en la región del cerebro responsable de controlar ese dedo. Edward Taub de la Universidad de Alabama estudió la región de la corteza responsable de evaluar la información táctil de los dedos. Al comparar a los no músicos con los intérpretes experimentados de instrumentos de cuerda, no encontró ninguna diferencia en las regiones del cerebro dedicadas a los dedos de la mano derecha, pero sí una gran diferencia en los dedos de la mano izquierda. Si hiciéramos un dibujo de las manos basándonos en la cantidad de tejido cerebral dedicado a analizar el tacto, los dedos de la mano izquierda de los músicos, que en el caso de instrumentos de cuerdas normalmente se utilizan para controlar las cuerdas, serían enormes. Aunque la diferencia fue mayor para aquellos músicos que comenzaron su formación musical con un instrumento de cuerda cuando eran niños, «incluso si empiezas a tocar el violín a los 40«, comentó Taub, «todavía tienes una reorganización cerebral«. Un hallazgo similar proviene de una evaluación de un programa de software, desarrollado por Paula Tallal y Steve Miller en la Universidad de Rutgers, llamado Fast ForWord, que ayuda a los estudiantes disléxicos. El programa lee texto a los niños, ralentizando los fonemas entrecortados basados en la observación de que muchos estudiantes disléxicos no pueden percibir estos sonidos cuando se hablan rápidamente. Se ha demostrado que leer con esta forma modificada del habla ayuda a estos niños a aprender a leer. Utilizando la resonancia magnética funcional, John Gabrieli, de la Universidad de Stanford, descubrió que la región prefrontal izquierda del cerebro, un área asociada con el procesamiento del lenguaje, había crecido y mostraba una mayor actividad en los estudiantes disléxicos que usaban el programa. Paula Tallal dice: «Tu creas tu cerebro a partir de la información que recibes».
El Dr. Álvaro Pascual-Leone de la Universidad de Harvard escaneó los cerebros de voluntarios antes y después de que practicaran un ejercicio sencillo de piano. La corteza cerebral motora de los voluntarios cambió como resultado directo de su práctica. Luego hizo que un segundo grupo solo pensara en hacer el ejercicio del piano pero sin mover ningún músculo. Sorprendentemente, esto produjo un cambio igualmente pronunciado en la red de la corteza motora. Estudios recientes de resonancia magnética funcional (fMRI) sobre el aprendizaje de relaciones visoespaciales, la capacidad para representar, analizar y manipular objetos mentalmente, encontraron que las conexiones interneuronales pueden cambiar rápidamente durante el transcurso de una sola sesión de aprendizaje. Los investigadores encontraron cambios en las conexiones entre las células de la corteza parietal posterior en lo que se llama la vía «dorsal«, que contiene información sobre la ubicación y las propiedades espaciales de los estímulos visuales, y las células de la corteza temporal inferior posterior en la vía «ventral«, que contiene reconocidas características invariantes de diferentes niveles de abstracción. Significativamente, esa tasa de cambio fue directamente proporcional a la tasa de aprendizaje. Investigadores de la Universidad de California en San Diego informaron una idea clave sobre la diferencia en la formación de recuerdos a corto y largo plazo. Usando un método de escaneo de alta resolución, los científicos pudieron ver cambios químicos dentro de las sinapsis en el hipocampo, la región del cerebro asociada con la formación de recuerdos a largo plazo. Descubrieron que cuando una célula se estimulaba por primera vez, la actina, un neuroquímico, se movía hacia las neuronas a las que estaba conectada la sinapsis. Esto también estimuló la actina en las células vecinas para alejarse de la célula activada. Sin embargo, estos cambios duraron solo unos minutos. Si los estímulos se repetían lo suficiente, entonces se producía un cambio más significativo y permanente. «Los cambios a corto plazo son solo parte de la forma normal en que las células nerviosas se comunican entre sí«, dijo el investigador principal, Michael A. Colicos. Los cambios a largo plazo en las neuronas ocurren solo después de que las neuronas se estimulan cuatro veces en el transcurso de una hora. La sinapsis en realidad se dividirá y se formarán nuevas sinapsis, produciendo un cambio permanente que presumiblemente durará por el resto de su vida. La analogía con la memoria humana es que cuando ves o escuchas algo una vez, puede quedarse en tu mente durante unos minutos. Si no es importante, se desvanece y lo olvidas 10 minutos después. Pero si lo vemos o lo escuchamos nuevamente y esto continúa sucediendo durante la próxima hora, lo recordaremos por mucho más tiempo. Y las cosas que se repiten muchas veces se pueden recordar durante toda la vida. Una vez que un axón forma dos nuevas conexiones, esas conexiones son muy estables y no hay razón para creer que desaparecerán. Ese es el tipo de cambio que uno imaginaría que duraría toda la vida.
«Es como una lección de piano«, dice el investigador y profesor de biología Yukiko Goda. «Si tocas una partitura musical una y otra vez, se graba en tu memoria«. De manera similar, en un artículo en Science, los neurocientíficos S. Lowel y W. Singer informan haber encontrado evidencia de una formación dinámica rápida de nuevas conexiones interneuronales en la corteza visual, que describieron con la frase de Donald Hebb «Lo que se dispara junto se conecta«. «Durante un tiempo hemos sabido bastante sobre cómo funciona la memoria, pero no teníamos un concepto claro de cuál es el dispositivo de almacenamiento clave«, dijo la investigadora y directora del Instituto Whitehead para la Investigación Biomédica, Susan Lindquist. «El estudio efectuado sugiere cuál podría ser el dispositivo de almacenamiento, pero es una sugerencia tan sorprendente descubrir que puede estar involucrada una actividad similar a la de los priones. Ello indica que los priones no son solo bichos raros de la naturaleza, sino que podrían participar en procesos fundamentales«. Los ingenieros también están descubriendo que los priones, una proteína mal plegada capaz de transmitir su forma mal plegada a otras variedades de la misma proteína, son un medio poderoso para construir memorias electrónicas. Los estudios de escaneo cerebral también están revelando mecanismos para inhibir recuerdos innecesarios e indeseables. Usando resonancia magnética funcional (fMRI), científicos de la Universidad de Stanford pidieron a los sujetos del estudio que intentaran olvidar la información que habían memorizado anteriormente. Durante esta actividad, las regiones de la corteza frontal que se han asociado con la represión de la memoria mostraron un alto nivel de actividad, mientras que el hipocampo, la región normalmente asociada con el recuerdo, estaba relativamente inactiva. Estos hallazgos «confirman la existencia de un proceso de olvido activo y establecen un modelo neurobiológico para orientar la investigación sobre el olvido motivado«, escribieron el profesor de psicología de la Universidad de Stanford John Gabrieli y sus colegas. Gabrieli también comentó: «La gran noticia es que hemos demostrado cómo el cerebro humano bloquea un recuerdo no deseado, que existe tal mecanismo y tiene una base biológica. Te hace superar la posibilidad de que no haya nada en el cerebro que suprimiría un recuerdo, que todo era una ficción mal entendida«. Además de generar nuevas conexiones entre las neuronas, el cerebro también crea nuevas neuronas a partir de células madre neurales, que se replican para mantener una reserva de sí mismas. En el curso de la reproducción, algunas de las células madre neurales se convierten en células «precursoras neurales«, que a su vez maduran en dos tipos de células de apoyo llamadas astrocitos y oligodendrocitos, así como en neuronas. Las células evolucionan aún más en tipos específicos de neuronas. Sin embargo, esta diferenciación no puede tener lugar a menos que las células madre neurales se alejen de su fuente original en los ventrículos del cerebro. Solo alrededor de la mitad de las células neuronales realizan con éxito el viaje, que es similar al proceso durante la gestación y la primera infancia en el que solo sobrevive una parte de las neuronas en desarrollo del cerebro temprano. Los científicos esperan evitar este proceso de migración neuronal mediante la inyección de células madre neuronales directamente en las regiones objetivo, así como crear medicamentos que promuevan este proceso de neurogénesis, o creación de nuevas neuronas, para reparar el daño cerebral causado por una lesión o enfermedad.
Un experimento realizado por los investigadores en genética Fred Gage, G. Kempermann y Henriette van Praag en el Instituto Salk de Estudios Biológicos mostró que la neurogénesis en realidad es estimulada por nuestra experiencia. Mover ratones de una jaula estéril y poco interesante a una que fuese estimulante duplicó aproximadamente el número de células en división en las regiones del hipocampo. Lo más probable es que el cerebro humano esté compuesto, en su mayor parte, por un gran número de sistemas distribuidos relativamente pequeños, ordenados por la embriología en una sociedad compleja que está controlada en parte por sistemas simbólicos seriales que se agregan más tarde. Pero los sistemas subsimbólicos que hacen la mayor parte del trabajo desde abajo deben, por su propio carácter, impedir que todas las demás partes del cerebro sepan mucho sobre cómo funcionan. Y esto, en sí mismo, podría ayudar a explicar cómo las personas hacen tantas cosas y tienen ideas tan incompletas sobre cómo se hacen realmente esas cosas. Además de nuevos conocimientos sobre la plasticidad de la organización de cada región del cerebro, los investigadores están creando rápidamente modelos detallados de regiones particulares del cerebro. Estos modelos y simulaciones neuromórficas están ligeramente rezagados respecto de la disponibilidad de la información en la que se basan. El rápido éxito de convertir los datos detallados de los estudios de las neuronas y los datos de interconexión del escaneo neuronal en modelos efectivos y simulaciones de trabajo desmiente el escepticismo que a menudo se manifiesta sobre nuestra capacidad inherente de comprender nuestros propios cerebros. Por lo general, no es necesario modelar la funcionalidad del cerebro humano sobre una base de no linealidad por no linealidad y sinapsis por sinapsis. Las simulaciones de regiones que almacenan recuerdos y habilidades en neuronas y conexiones individuales, como el cerebelo, hacen uso de modelos celulares detallados. Sin embargo, incluso para estas regiones, las simulaciones requieren muchos menos cálculos de lo que implican todos los componentes neuronales. Esto es cierto para la simulación del cerebelo. Aunque hay una gran cantidad de complejidad detallada y no linealidad en las partes subneuronales de cada neurona, así como un patrón de cableado semialeatorio y caótico que subyace a los trillones de conexiones en el cerebro, se ha logrado un progreso significativo en los últimos veinte años en las matemáticas de modelar tales sistemas adaptativos no lineales. Por lo general, no es necesario conservar la forma exacta de cada dendrita y el perfil preciso de cada conexión interneuronal. Podemos comprender los principios de funcionamiento de extensas regiones del cerebro examinando su dinámica en el nivel de análisis apropiado. Ya se ha tenido un éxito significativo en la creación de modelos y simulaciones de extensas regiones cerebrales. La aplicación de pruebas a estas simulaciones y la comparación de los datos con los obtenidos de experimentos psicofísicos en cerebros humanos reales han producido resultados impresionantes. Dada la relativa tosquedad de nuestras herramientas de escaneo y detección hasta la fecha, el éxito en el modelado demuestra la capacidad de extraer los conocimientos correctos de la gran cantidad de datos que se recopilan.
Una pregunta que Kurzweil se plantea en su libro La era de las máquinas espirituales es: ¿cómo se las arregla un niño de diez años para atrapar una pelota que le han lanzado? Todo lo que un niño puede ver es la trayectoria de la pelota desde su posición. Para inferir realmente la trayectoria de la pelota en el espacio tridimensional, sería necesario resolver difíciles ecuaciones diferenciales simultáneas. Se necesitarían resolver ecuaciones adicionales para predecir el curso futuro de la pelota, y más ecuaciones para traducir estos resultados en lo que se requiere de los propios movimientos del jugador. ¿Cómo logra un niño todo esto en unos pocos segundos sin computadora y sin entrenamiento en ecuaciones diferenciales? Claramente, no está resolviendo ecuaciones conscientemente, pero ¿cómo resuelve el problema su cerebro? La verdad es que hemos avanzado considerablemente en la comprensión de este proceso básico de formación de habilidades. Como se había planteado en la hipótesis, el problema no se resuelve construyendo un modelo mental de movimiento tridimensional. Más bien, el problema se resuelve traduciendo directamente los movimientos observados de la pelota en el movimiento apropiado del jugador y los cambios en la configuración de sus brazos y piernas. Alexandre Pouget de la Universidad de Rochester y Lawrence H. Snyder de la Universidad de Washington han descrito «funciones básicas» matemáticas que pueden representar esta transformación directa del movimiento percibido en el campo visual en movimientos requeridos de los músculos. Además, el análisis de modelos desarrollados recientemente del funcionamiento del cerebelo demuestra que nuestros circuitos neuronales del cerebelo son realmente capaces de aprender y luego aplicar las funciones básicas necesarias para implementar estas transformaciones sensoriales motoras. Cuando nos involucramos en el proceso de prueba y error de aprender a realizar una tarea sensorial motora, como atrapar una pelota voladora, estamos entrenando los potenciales sinápticos de las sinapsis del cerebelo para aprender las funciones básicas apropiadas. El cerebelo realiza dos tipos de transformaciones con estas funciones básicas. Se trata de pasar de un resultado deseado a una acción y pasar de un posible conjunto de acciones a un resultado anticipado. Tomaso Poggio ha señalado que la idea de funciones básicas puede describir procesos de aprendizaje en el cerebro que van más allá del control motor. La región cerebral gris y blanca, del tamaño de una pelota de béisbol y con forma de frijol, llamada cerebelo, se encuentra en el tronco encefálico y comprende más de la mitad de las neuronas del cerebro. Proporciona una amplia gama de funciones críticas, incluida la coordinación sensorial motora, el equilibrio, el control de tareas de movimiento y la capacidad de anticipar los resultados de las acciones, tanto las propias como las de otros objetos y personas. A pesar de su diversidad de funciones y tareas, su organización sináptica y celular es extremadamente consistente, involucrando solo varios tipos de neuronas. Parece haber un tipo específico de cálculo que realiza.
A pesar de la uniformidad del procesamiento de información del cerebelo, la amplia gama de sus funciones puede entenderse en términos de la variedad de entradas que recibe de la corteza cerebral a través de los núcleos del tronco encefálico y luego a través de las células de fibra musgosa del cerebelo, y de otros, particularmente la región de la «oliva inferior» del cerebro a través de las células de fibra trepadora del cerebelo. El cerebelo es responsable de nuestra comprensión del momento y la secuencia de las entradas sensoriales, así como de controlar nuestros movimientos físicos. El cerebelo es también un ejemplo de cómo la considerable capacidad del cerebro supera con creces a la información proporcionada por su compacto genoma. La mayor parte del genoma dedicado al cerebro describe la estructura detallada de cada tipo de célula neural, incluidas sus dendritas, espinas y sinapsis, y cómo estas estructuras responden a la estimulación y el cambio. Relativamente poco código genómico es responsable del «cableado» real. En el cerebelo, el método de cableado básico se repite miles de millones de veces. Está claro que el genoma no proporciona información específica sobre cada repetición de esta estructura del cerebelo, sino que especifica ciertas restricciones sobre cómo se repite esta estructura, al igual que el genoma no especifica la ubicación exacta de las células en otros órganos. Algunas de las salidas del cerebelo van a unas doscientas mil neuronas motoras alfa, que determinan las señales finales para los aproximadamente seiscientos músculos del cuerpo. Las entradas a las neuronas motoras alfa no especifican directamente los movimientos de cada uno de estos músculos, pero están codificadas de una manera más compacta, que aún no se comprende bien. Las señales finales a los músculos se determinan en los niveles más bajos del sistema nervioso, específicamente en el tronco encefálico y la médula espinal. Curiosamente, esta organización se lleva al extremo en el pulpo, cuyo sistema nervioso central aparentemente envía comandos de muy alto nivel a cada uno de sus brazos, tales como «agarre ese objeto y acérquelo«, dejándolo en manos de un sistema nervioso periférico independiente en cada brazo para llevar a cabo la misión. Se ha aprendido mucho en los últimos años sobre el papel de los tres principales tipos de nervios del cerebelo. Las neuronas llamadas «fibras trepadoras» parecen proporcionar señales para entrenar el cerebelo. La mayor parte de la salida del cerebelo proviene de las llamadas grandes células de Purkinje, cada una de las cuales recibe alrededor de doscientas mil entradas (sinapsis), en comparación con el promedio de alrededor de mil para un neurona típica. Las entradas provienen en gran parte de las células granulares, que son las neuronas más pequeñas, empaquetadas alrededor de seis millones por milímetro cuadrado.
Los estudios sobre el papel del cerebelo durante el aprendizaje de los movimientos de escritura a mano por parte de los niños muestran que las células de Purkinje en realidad toman muestras de la secuencia de movimientos, cada una de las cuales es sensible a una muestra específica. Obviamente, el cerebelo requiere una guía perceptual continua de la corteza visual. Los investigadores pudieron vincular la estructura de las células del cerebelo con la observación de que existe una relación inversa entre la curvatura y la velocidad al escribir a mano, es decir, se puede escribir más rápido dibujando líneas rectas en lugar de curvas detalladas para cada letra. Estudios celulares detallados y estudios en animales nos han proporcionado impresionantes descripciones matemáticas de la fisiología y organización de las sinapsis del cerebelo, así como de la codificación de la información en sus entradas y salidas, y de las transformaciones realizadas. Recopilando datos de múltiples estudios, Javier F. Medina, Michael D. Mauk y sus colegas de la Facultad de Medicina de la Universidad de Texas idearon una simulación detallada de abajo hacia arriba del cerebelo. Presenta más de diez mil neuronas simuladas y trescientas mil sinapsis, e incluye todos los tipos principales de células del cerebelo. Las conexiones de las células y las sinapsis están determinadas por una computadora, que «conecta» la región simulada del cerebelo siguiendo restricciones y reglas, similares al método estocástico, aleatorio dentro de restricciones, utilizado para conectar el cerebro humano real a partir de su código genético. No sería difícil expandir la simulación del cerebelo de la Universidad de Texas a un mayor número de sinapsis y células. Los investigadores de Texas aplicaron un experimento de aprendizaje clásico a su simulación y compararon los resultados con muchos experimentos similares sobre el condicionamiento humano real. En los estudios en humanos, la tarea implicó asociar un tono auditivo con una bocanada de aire aplicada al párpado, lo que hace que el párpado se cierre. Si el soplo de aire y el tono se presentan juntos durante cien a doscientos intentos, el sujeto aprenderá la asociación y cerrará el ojo del sujeto simplemente al escuchar el tono. Si luego se presenta el tono muchas veces sin el soplo de aire, el sujeto finalmente aprende a disociar los dos estímulos para «extinguir» la respuesta, por lo que el aprendizaje es bidireccional. Después de ajustar una variedad de parámetros, la simulación proporcionó una coincidencia razonable con los resultados experimentales sobre el condicionamiento del cerebelo humano y animal. Curiosamente, los investigadores descubrieron que si creaban lesiones simuladas del cerebelo, eliminando porciones de la red simulada del cerebelo, obtenían resultados similares a los obtenidos en experimentos con conejos que habían recibido lesiones del cerebelo reales.
Debido a la uniformidad de esta gran región del cerebro y la relativa simplicidad de su cableado interneuronal, sus transformaciones de entrada-salida se comprenden relativamente bien, en comparación con las de otras regiones del cerebro. Aunque las ecuaciones relevantes aún requieren refinamiento, esta simulación de abajo hacia arriba ha demostrado ser bastante impresionante. Kurzweil cree que la forma de crear una inteligencia similar a la del cerebro es construir un sistema de modelo preciso de trabajo en tiempo real, con suficiente detalle para expresar la esencia de cada cálculo que se está realizando, y verificar su correcto funcionamiento contra las mediciones del sistema real. Un ejemplo importante de modelado neuromórfico de una región del cerebro es la réplica integral de una parte significativa del sistema de procesamiento auditivo humano desarrollado por Lloyd Watts y sus colegas. El software de Watts es capaz de igualar las complejidades que han sido reveladas en sutiles experimentos sobre la audición humana y la discriminación auditiva. Watts ha utilizado su modelo como un preprocesador (parte frontal) en los sistemas de reconocimiento de voz y ha demostrado su capacidad para seleccionar un hablante de los sonidos de fondo. Esta es una hazaña impresionante de la que los humanos son capaces, pero hasta ahora no había sido factible en los sistemas automatizados de reconocimiento de voz. Al igual que la audición humana, el modelo de cóclea de Watts está dotado de sensibilidad espectral, en que oímos mejor a ciertas frecuencias en respuestas temporales en que somos sensibles a la sincronización de los sonidos, lo que crea la sensación de su ubicación espacial, en enmascaramiento, amplitud no lineal dependiente de la frecuencia que permite la capacidad de escuchar sonidos fuertes y bajos, en el control de ganancia (amplificación) y otras características sutiles. Los resultados que obtiene son directamente comprobables por datos biológicos y psicofísicos. También hemos avanzado tanto en la comprensión de la codificación de la información visual que se han desarrollado implantes de retina experimentales e instalado quirúrgicamente en pacientes. Sin embargo, debido a la relativa complejidad del sistema visual, nuestra comprensión del procesamiento de la información visual va a la zaga de nuestro conocimiento de las regiones auditivas. Un pionero en la comprensión del procesamiento visual es Tomaso Poggio del MIT, quien ha distinguido sus dos tareas como identificación y categorización. Ya se han diseñado sistemas experimentales y comerciales que tienen un éxito razonable en la identificación de rostros. Se utilizan como parte de los sistemas de seguridad para controlar el ingreso de personal en determinados edificios y en los cajeros automáticos. En la categorización, se plantea la capacidad de diferenciar, por ejemplo, entre una persona y un automóvil o entre un perro y un gato. Es un asunto más complejo, aunque recientemente se han logrado avances.
Una extensa literatura apoya el uso de la «hipótesis y prueba» en tareas más complejas de reconocimiento de patrones. La corteza hace una conjetura sobre lo que está viendo y luego determina si las características de lo que realmente está en el campo de visión coinciden con su hipótesis. A menudo nos enfocamos más en la hipótesis que en la prueba real, lo que explica por qué las personas a menudo ven y escuchan lo que esperan percibir en lugar de lo que realmente está allí. «Hipótesis y prueba» también es una estrategia útil en nuestros sistemas de reconocimiento de patrones basados en computadora. Aunque tenemos la ilusión de recibir imágenes de alta resolución de nuestros ojos, lo que el nervio óptico en realidad envía al cerebro son solo contornos y pistas sobre puntos de interés en nuestro campo visual. Entonces esencialmente alucinamos el mundo a partir de recuerdos corticales que interpretan una serie de películas de resolución extremadamente baja que llegan en canales paralelos. En un estudio de 2001 publicado en la revista Nature, Frank S. Werblin, profesor de biología molecular y celular en la Universidad de California en Berkeley, y el estudiante de doctorado Boton Roska, MD, demostraron que el nervio óptico transporta de diez a doce canales de salida, cada uno de los cuales solo lleva información mínima sobre una escena dada. Un grupo de lo que se llama células ganglionares envía información solo sobre los bordes, así como cambios en el contraste. Otro grupo detecta solo grandes áreas de color uniforme, mientras que un tercer grupo es sensible solo a los fondos detrás de las figuras de interés. «Aunque creemos que vemos el mundo de manera tan completa, lo que recibimos son solo pistas, bordes en el espacio y el tiempo«, dice Werblin. «Estas 12 imágenes del mundo constituyen toda la información que tendremos sobre lo que hay ahí fuera, y a partir de estas 12 imágenes, que son tan escasas, reconstruimos la riqueza del mundo visual. Tengo curiosidad por cómo la naturaleza seleccionó estas 12 simples películas y cómo puede ser que sean suficientes para proporcionarnos toda la información que parece que necesitamos». Tales hallazgos prometen ser un gran avance en el desarrollo de un sistema artificial que podría reemplazar el ojo, la retina y el procesamiento temprano del nervio óptico.
El pionero en robótica Hans Moravec ha realizado ingeniería inversa en el procesamiento de imágenes realizado por la retina y las primeras regiones de procesamiento visual en el cerebro. Durante más de treinta años, Moravec ha estado construyendo sistemas para emular la capacidad de nuestro sistema visual para construir representaciones del mundo. Solo recientemente ha estado disponible suficiente potencia de procesamiento en los microprocesadores para replicar esta detección de características a nivel humano, y Moravec está aplicando sus simulaciones por computadora a una nueva generación de robots que pueden navegar entornos complejos no planificados con visión a nivel humano. Un tipo especial de reconocimiento visual es la detección de movimiento, una de las áreas de enfoque del Instituto de Biología Max Planck en Tubingen, Alemania. El modelo básico de investigación es simple: compara la señal en un receptor con una señal retardada en el receptor adyacente. Este modelo funciona para ciertas velocidades pero conduce al sorprendente resultado de que por encima de cierta velocidad, los aumentos en la velocidad de un objeto observado disminuirán la respuesta de este detector de movimiento. Los resultados experimentales en animales, basados en el comportamiento y análisis de salidas neuronales, y humanos, basados en percepciones informadas, han coincidido estrechamente con el modelo. El hipocampo es vital para aprender nueva información y almacenar recuerdos a largo plazo. Ted Berger y sus colegas de la Universidad del Sur de California mapearon los patrones de señal de esta región estimulando cortes de hipocampo de rata con señales eléctricas millones de veces para determinar qué entrada producía la salida correspondiente. Luego desarrollaron un modelo matemático en tiempo real de las transformaciones realizadas por las capas del hipocampo y programaron el modelo en un chip. Su plan es probar el chip en animales, primero deshabilitando la región del hipocampo correspondiente, notando la falla de memoria resultante y luego determinando si esa función mental puede restaurarse instalando su chip de hipocampo en lugar de la región deshabilitada. En última instancia, este enfoque podría usarse para reemplazar el hipocampo en pacientes afectados por accidentes cerebro-vasculares, epilepsia o enfermedad de Alzheimer. El chip estaría ubicado en el cráneo de un paciente, en lugar de dentro del cerebro, y se comunicaría con el cerebro a través de dos conjuntos de electrodos, colocados a cada lado de la sección dañada del hipocampo. Uno registraría la actividad eléctrica proveniente del resto del cerebro, mientras que el otro enviaría las instrucciones necesarias al cerebro. Otra región del cerebro que se está modelando y simulando es la región olivo-cerebelosa, responsable del equilibrio y la coordinación del movimiento de las extremidades. El objetivo del grupo de investigación internacional involucrado en este esfuerzo es aplicar su circuito olivo-cerebeloso artificial a robots militares, así como a robots que puedan ayudar a discapacitados. Una de las razones por las que seleccionaron esta región cerebral en particular fue que «está presente en todos los vertebrados y es muy similar desde el cerebro más simple hasta el más complejo«, explica Rodolfo Llinas, uno de los investigadores y neurocientíficos de la Facultad de Medicina de la Universidad de Nueva York. Ferdinando Mussa-Ivaldi, neurocientífico de la Universidad Northwestern, comentó sobre las aplicaciones de un circuito olivo-cerebeloso artificial para discapacitados: «Piense en un paciente paralizado. Es posible imaginar que muchas tareas ordinarias, como obtener un vaso de agua, vestirse, desvestirse, trasladarse a una silla de ruedas podría ser realizado por asistentes robóticos, brindando así más independencia al paciente«.
Debido a que se encuentra en la parte superior de la jerarquía neuronal, la parte del cerebro menos comprendida es la corteza cerebral (o neocórtex). Esta región, que consta de seis capas delgadas en las áreas más externas de los hemisferios cerebrales, contiene miles de millones de neuronas. La corteza es responsable de la percepción, la planificación, la toma de decisiones y la mayor parte de lo que consideramos pensamiento consciente. Nuestra habilidad para usar el lenguaje, otro atributo único de nuestra especie, parece ubicarse en esta región. Una pista intrigante sobre el origen del lenguaje y un cambio evolutivo clave que permitió la formación de esta habilidad distintiva es la observación de que solo unos pocos primates, incluidos los humanos y los monos, pueden usar un espejo para dominar las habilidades. La realización de gestos manuales requiere la capacidad de correlacionar mentalmente la ejecución y la observación de los movimientos de la propia mano. Un concepto estrechamente relacionado es que la capacidad de imitar los movimientos o, en el caso de los bebés humanos los sonidos vocales, de los demás es fundamental para el desarrollo del lenguaje. La imitación requiere la capacidad de descomponer una presentación observada en partes, cada una de las cuales se puede dominar mediante un refinamiento recursivo e iterativo. De esta manera, podemos construir estructuras elaboradas de oraciones y párrafos a partir de un conjunto limitado de palabras. Otra característica clave del cerebro humano es la capacidad de hacer predicciones, incluidas predicciones sobre los resultados de sus propias decisiones y acciones. Algunos científicos creen que la predicción es la función principal de la corteza cerebral, aunque el cerebelo también juega un papel importante en la predicción del movimiento. Curiosamente, somos capaces de predecir o anticipar nuestras propias decisiones. El trabajo del profesor de fisiología Benjamin Libet de la Universidad de California en Davis muestra que la actividad neuronal para iniciar una acción en realidad ocurre alrededor de un tercio de segundo antes de que el cerebro haya tomado la decisión de realizar la acción. La implicación, según Libet, es que la decisión es realmente una ilusión, que «la conciencia está fuera del circuito». El científico cognitivo y filósofo Daniel Dennett describe el fenómeno de la siguiente manera: «La acción se precipita originalmente en alguna parte del cerebro, y las señales vuelan a los músculos, deteniéndose en el camino para decirle a usted, el agente consciente, lo que está pasando, pero como todos los buenos funcionarios dejando que usted, el presidente torpe, mantenga la ilusión de que usted lo comenzó todo«.
Recientemente se llevó a cabo un experimento relacionado en el que los neurofisiólogos estimularon electrónicamente puntos en el cerebro para inducir sentimientos emocionales particulares. Los sujetos propusieron de inmediato una justificación para experimentar esas emociones. Se sabe desde hace muchos años que en pacientes cuyos cerebros izquierdo y derecho ya no están conectados, un lado del cerebro, generalmente el lado izquierdo más verbal, creará explicaciones elaboradas («confabulaciones«) para las acciones iniciadas por el otro lado, como si el lado izquierdo fuera el agente de relaciones públicas del lado derecho. La capacidad más compleja del cerebro humano es nuestra inteligencia emocional. Sentada incómodamente en la parte superior de la jerarquía compleja e interconectada de nuestro cerebro se encuentra nuestra capacidad para percibir y responder adecuadamente a la emoción, para interactuar en situaciones sociales, para tener un sentido moral, para entender el chiste y para responder emocionalmente al arte y la música, como en el último concierto de Joan Manel Serrat, entre otras funciones de alto nivel. Obviamente, las funciones de nivel inferior de percepción y análisis alimentan el procesamiento emocional de nuestro cerebro, pero estamos comenzando a comprender las regiones del cerebro e incluso a modelar los tipos específicos de neuronas que manejan tales problemas. Estos conocimientos recientes han sido el resultado de los intentos de comprender cómo los cerebros humanos difieren de los de otros mamíferos. La respuesta es que las diferencias son leves pero críticas y nos ayudan a discernir cómo el cerebro procesa las emociones y los sentimientos relacionados. Una diferencia es que los humanos tienen una corteza más grande, lo que refleja nuestra mayor capacidad para planificar, tomar decisiones y otras formas de pensamiento analítico. Otra característica distintiva clave es que las situaciones cargadas de emociones parecen ser manejadas por células especiales llamadas células fusiformes, que se encuentran solo en humanos y algunos grandes simios. Estas células neuronales son grandes, con largos filamentos neuronales llamados dendritas apicales que conectan señales extensas de muchas otras regiones del cerebro. Este tipo de interconexión «profunda«, en la que ciertas neuronas proporcionan conexiones a través de numerosas regiones, es una característica que ocurre cada vez más a medida que ascendemos en la escala evolutiva. No es sorprendente que las células fusiformes, involucradas como están en el manejo de la emoción y el juicio moral, tengan esta forma de interconexión profunda, dada la complejidad de nuestras reacciones emocionales.
Sin embargo, lo sorprendente es la cantidad de células fusiformes que hay en esta diminuta región. Tan solo unas 80.000 en el cerebro humano, en que unas 45.000 están en el hemisferio derecho y 35.000 en el hemisferio izquierdo. Esta disparidad parece explicar la percepción de que la inteligencia emocional es competencia del cerebro derecho, aunque la desproporción es modesta. Los gorilas tienen unas 16.000 de estas células, los bonobos unas 2.100 y los chimpancés unas 1.800, mientras que otros mamíferos carecen de ellos por completo, por lo que se supone carecen de inteligencia emocional. El Dr. Arthur Craig del Instituto Neurológico Barrow en Phoenix ha proporcionado recientemente una descripción de la arquitectura de las células fusiformes. Las entradas del cuerpo, estimadas en cientos de megabits por segundo, incluidos los nervios de la piel, los músculos, los órganos y otras áreas, fluyen hacia la parte superior de la médula espinal. Estos llevan mensajes sobre el tacto, la temperatura, los niveles de ácido, como, por ejemplo, el ácido láctico en los músculos, el movimiento de los alimentos a través del tracto gastrointestinal y muchos otros tipos de información. Estos datos se procesan a través del tronco encefálico y el mesencéfalo. Las células clave crean un mapa del cuerpo que representa su estado actual, similar a las pantallas utilizadas por los controladores de vuelo para rastrear aviones. Luego, la información fluye a través de una región del tamaño de una nuez llamada núcleo ventromedial posterior (VMpo), que aparentemente calcula reacciones complejas a estados corporales como «esto sabe terrible«, «qué hedor» o «ese toque ligero es estimulante«. La información cada vez más sofisticada termina en dos regiones de la corteza llamadas ínsula. Estas estructuras, del tamaño de pequeños dedos, están ubicadas en los lados izquierdo y derecho de la corteza. Craig describe el VMpo y las dos regiones de la ínsula como «un sistema que representa el yo material«. Aunque aún no se comprenden los mecanismos, estas regiones son fundamentales para la autoconciencia y las emociones complicadas. También son mucho más pequeños en otros animales. Por ejemplo, el VMpo es del tamaño de un grano de arena en los monos macacos e incluso más pequeño en los animales de nivel inferior. Estos hallazgos son consistentes con un creciente consenso de que nuestras emociones están estrechamente vinculadas a áreas del cerebro que contienen mapas del cuerpo, una opinión promovida por el Dr. Antonio Damasio de la Universidad de Iowa. También son consistentes con la opinión de que gran parte de nuestro pensamiento se dirige hacia nuestros cuerpos para protegerlos y mejorarlos, así como también atender sus innumerables necesidades y deseos.
Muy recientemente se ha descubierto otro nivel de procesamiento de lo que comenzó como información sensorial del cuerpo. Los datos de las dos regiones de la ínsula pasan a un área diminuta en la parte delantera de la ínsula derecha llamada corteza frontoinsular. Esta es la región que contiene las células fusiformes antes mencionadas, y las exploraciones de resonancia magnética funcional (fMRI) han revelado que es particularmente activa cuando una persona se enfrenta a emociones de alto nivel como el amor, la ira, la tristeza y el deseo sexual. Las situaciones que activan fuertemente las células fusiformes incluyen cuando un sujeto mira a su pareja romántica o escucha llorar a su hijo. Los antropólogos creen que las células fusiformes hicieron su primera aparición hace diez o quince millones de años en un posible ancestro común aún no descubierto de los simios y los primeros homínidos, y aumentaron rápidamente en número hace unos cien mil años, cuando aparece el Homo Sapiens. Curiosamente, las células fusiformes no existen en humanos recién nacidos, sino que comienzan a aparecer alrededor de los cuatro meses de edad y aumentan significativamente entre las edades de uno a tres años. La capacidad de los niños para lidiar con problemas morales y percibir emociones de alto nivel como el amor se desarrolla durante este mismo período de tiempo. Las células fusiformes obtienen su poder de la profunda interconexión de sus largas dendritas apicales con muchas otras regiones del cerebro. Las emociones de alto nivel que procesan las células fusiformes se ven afectadas, por lo tanto, por todas nuestras regiones perceptivas y cognitivas. Será difícil, por lo tanto, aplicar ingeniería inversa a los métodos exactos de las células fusiformes hasta que tengamos mejores modelos de las muchas otras regiones a las que se conectan. Sin embargo, es notable cómo pocas neuronas parecen estar involucradas exclusivamente con estas emociones. Tenemos cincuenta mil millones de neuronas en el cerebelo que se ocupan de la formación de habilidades, miles de millones en la corteza que realizan las transformaciones para la percepción y la planificación racional, pero solo unas ochenta mil células fusiformes que se ocupan de las emociones de alto nivel. Es importante señalar que las células fusiformes no están resolviendo problemas racionalmente, razón por la cual no tenemos un control racional sobre nuestras respuestas a la música o sobre el enamoramiento. Sin embargo, el resto del cerebro está muy ocupado tratando de dar sentido a nuestras misteriosas emociones de alto nivel.
Comprender los métodos del cerebro humano ayudará a diseñar máquinas similares inspiradas en la biología. Otra aplicación importante será conectar nuestros cerebros con las computadoras, que ya está sucediendo, pero que Kurzweil cree que se convertirá en una fusión cada vez más íntima en las próximas décadas. La Agencia de Proyectos de Investigación Avanzada de Defensa estadounidense (DARPA) ya está gastando $ 24 millones por año en la investigación de interfaces directas entre el cerebro y las computadoras. Tomaso Poggio y James DiCarlo en el MIT, junto con Christof Koch en el Instituto de Tecnología de California (Caltech), están intentando desarrollar modelos de reconocimiento visual de objetos y cómo se codifica esta información. Estos podrían eventualmente usarse para transmitir imágenes directamente a nuestros cerebros. Miguel Nicolelis y sus colegas de la Universidad de Duke implantaron sensores en los cerebros de los monos, lo que permitió a los animales controlar un robot solo con el pensamiento. El primer paso del experimento consistió en enseñar a los monos a controlar un cursor en una pantalla con un joystick. Los científicos recopilaron un patrón de señales de EEG (sensores cerebrales) y posteriormente hicieron que el cursor respondiera a los patrones apropiados en lugar de a los movimientos físicos del joystick. Los monos aprendieron rápidamente que el joystick ya no funcionaba y que podían controlar el cursor con solo pensar. Este sistema de «detección de pensamientos» se conectó luego a un robot, y los monos pudieron aprender a controlar los movimientos del robot solo con sus pensamientos. Al obtener retroalimentación visual sobre el desempeño del robot, los monos pudieron perfeccionar su control mental sobre el robot. El objetivo de esta investigación es proporcionar un sistema similar para humanos paralizados que les permita controlar sus extremidades y su entorno. Un desafío clave en la conexión de implantes neurales a neuronas biológicas es que las neuronas generan células gliales, que rodean un objeto «extraño» en un intento de proteger el cerebro. Ted Berger y sus colegas están desarrollando recubrimientos especiales que parecerán biológicos y, por lo tanto, atraerán en lugar de repeler a las neuronas cercanas. Otro enfoque que persigue el Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas en Munich es la interfaz directa de nervios y dispositivos electrónicos. Un chip permite que las neuronas crezcan en un sustrato especial que proporciona contacto directo entre los nervios y los sensores y estimuladores electrónicos. Un trabajo similar en un «neurochip» en Caltech ha demostrado una comunicación bidireccional no invasiva entre las neuronas y la electrónica.
Ya hemos aprendido cómo interconectar implantes neurales instalados quirúrgicamente. En los implantes cocleares (del oído interno) se ha descubierto que el nervio auditivo se reorganiza para interpretar correctamente la señal multicanal del implante. Un proceso similar parece tener lugar con el implante de estimulación cerebral profunda que se utiliza para los pacientes de Parkinson. Las neuronas biológicas cercanas a este implante cerebral aprobado por la Administración de Alimentos y Medicamentos (FDA) estadounidense reciben señales del dispositivo electrónico y responden como si hubieran recibido señales de las neuronas biológicas que alguna vez fueron funcionales. Las versiones recientes del implante para la enfermedad de Parkinson ofrecen la posibilidad de descargar software actualizado directamente al implante desde fuera del paciente. Algunos observadores han expresado su preocupación de que, a medida que desarrollamos modelos, simulaciones y extensiones del cerebro humano, corremos el riesgo de no comprender realmente con qué estamos jugando y los delicados equilibrios involucrados. A medida que se acerca el poder computacional para emular el cerebro humano, al que ya casi llegamos con las supercomputadoras, los esfuerzos para escanear y sentir el cerebro humano y construir modelos de trabajo y simulaciones del mismo se están acelerando. Como con cualquier otra proyección es fundamental comprender la naturaleza exponencial del progreso en este campo. Las herramientas de escaneo y detección están duplicando su resolución espacial y temporal general cada año. Los tiempos de ancho de banda de escaneo, precio-rendimiento y reconstrucción de imágenes también están experimentando un crecimiento exponencial comparable. Estas tendencias son válidas para todas las formas de escaneo completamente no invasivo, escaneo in vivo con un cráneo expuesto y escaneo destructivo. Las bases de datos de información de escaneo cerebral y construcción de modelos también se están duplicando en tamaño aproximadamente una vez al año. Disponemos de herramientas matemáticas cada vez más potentes, implementadas en programas informáticos eficaces, que son capaces de modelar con precisión este tipo de sistemas complejos jerárquicos, adaptativos, semialeatorios, auto-organizados y altamente no lineales. Nuestro éxito hasta la fecha en el modelado eficaz de varias regiones importantes del cerebro demuestra la eficacia de este enfoque. Pero, ¿dónde está el límite?
Descargar artículo en PDF: De la ingeniería inversa del cerebro biológico al cerebro
Fuentes
- Ray Kurzweil – The Singularity Is Near – When Humans Transcend Biology
- Ray Kurzweil – How to Create a Mind – The Secret of Human Thought Revealed
- Michio Kaku – The Future of the Mind
- Marvin Minsky – The Society of Mind
- Hans Moravec – Aprendizaje Invisible
- Hans Moravec – El hombre mecánico
- John von Neumann, Ray Kurzweil – The Computer and the Brain
- Mark F. Bear – Neurociencia – La Exploración del Cerebro
- Roger Bartra – Antropología del Cerebro
- Alexander Luria – El Cerebro en Acción
- Stanislas Dehaene – La Conciencia en el Cerebro
- Grazyna Gosar y Franz Bludorf – Inteligencia de red de computadoras
- Juan A. Simon – El cuidado de su Cerebro
- Paul MacLean – El Cerebro Triuno
- Joseph LeDoux – El cerebro emocional
- Dennis Rains – Principios de Neuropsicología Humana
- Chopra Deepak y Tanzi Rudolph E – Super Cerebro
- Andy Clark – Estar Ahí – Cerebro, Cuerpo y Mundo en la nueva Ciencia Cognitiva
- Elcarte N. Maya y Rodrigo S. Rivero – Conocer el Cerebro
- Simon Foster – El Poder de tu Cerebro
- Mario Bunge – El Problema Mente – Cerebro
- Sandra Aamodt y Sam Wang – Entra en tu Cerebro
- Francisco J. Rubia – El Cerebro – avances recientes en Neurociencia
- Javier Tirapu – Para qué sirve el Cerebro
- Marta Eugenia Rodríguez – Todo sobre el Cerebro y la Mente
- Jean Didier Vincent – Viaje extraordinario al centro del Cerebro
- H. Pribram y J. M. Ramirez – Cerebro y Conciencia
- Rodolfo Llinas – El Cerebro y el mito del Yo
- Luis Álvarez Valcarcel – Cerebro, Mente y Conciencia
- Maria Elena Torres – El Cerebro es holográfico y la realidad inexistente
De la ingeniería inversa del cerebro biológico al cerebro artificial