Un físico teórico pregunta: ¿una red neuronal tiene naturaleza de Buda? La ciencia de la «sensibilidad» de la IA y lo que nos puede decir sobre nuestra naturaleza y mente de Buda

Una fuente sorprendente de información sobre la cuestión de por qué nuestras mentes funcionan de la manera en que lo hacen proviene del intento de replicarlas: el estudio de la inteligencia artificial». – Jochen Szangolies, PhD

Editor: Jochen Szangolies, PhD, que trabaja en la contextualidad cuántica y la mecánica, lucha brillantemente con el concepto de la Naturaleza de Buda en su relación no solo con la mente, sino también con la Inteligencia Artificial. A medida que intentamos emular la mente humana y empujar efectivamente a la IA hacia la conciencia, ¿significa esto que la «máquina» desarrolla la naturaleza de Buda? Perdone el sentido del humor de nuestro editor: agregamos el video robótico budista «predicador» como un «guiño» en el futuro. No es una parte seria de esta provocativa historia. (Pero no pudimos resistirnos). Los editores también agregaron imágenes (con la excepción del recuadro «Figura» al que se hace referencia a continuación).


Por Jochen Szangolies, PhD

Biografía en la parte inferior de la característica. Perfil en Academia.edu >>

La filosofía budista nos ve como sistemáticamente equivocados acerca de nosotros mismos y del mundo, y ve el sufrimiento (sánscrito: duḥkha, Pāli : dukkha ) como una consecuencia directa de esta percepción errónea o ignorancia (sánscrito: avidyā , Pāli: avijjā) Sería inútil tratar de dar una explicación de la doctrina budista aquí que tiene alguna pretensión hacia la integridad, pero la esencia general no está muy lejos de lo siguiente: estamos equivocados sobre el tipo de criaturas que somos, y del mismo modo, sobre el mundo nosotros habitamos Concretamente, creemos que el mundo que nos rodea tiene ciertas características inmutables y absolutas, y que nosotros mismos poseemos un cierto núcleo fijo o naturaleza verdadera llamada ‘yo’, pero de hecho, estas son nociones categóricamente erróneas, incluso inconsistentes, que engendra deseos que solo podemos perseguir en vano.

La idea de que algunas de nuestras creencias más profundas e intuitivas sobre nosotros mismos y el mundo en el que vivimos simplemente debería estar equivocada es un desafío y, en el primer encuentro, puede parecer totalmente ofensivo. ¿Cuál podría ser la razón de este engaño? ¿No deberíamos esperar que la evolución, si nada más, haya ajustado nuestras facultades para representarnos fielmente dentro de nuestro entorno, maximizando nuestras posibilidades de interactuar exitosamente con él?

¿La IA desarrollará la sensibilidad? Si es sensible, ¿tendrá la naturaleza de Buda?

En este ensayo, quiero sugerir que una fuente sorprendente de comprensión de la cuestión de por qué nuestras mentes funcionan de la manera en que lo hacen proviene del intento de replicarlas: el estudio de la inteligencia artificial.

1 Lo que nos enseñan los errores de AI

La inteligencia artificial basada en redes neuronales ha sido, para la mayoría de las cuentas, una historia de éxito masiva. Los superlativos de la IA han dominado los titulares en los últimos años. En 2016, el campeón mundial de Go Lee Sedol fue derrotado por Alpha Go de Deep Mind (ahora Google). [Ed: video insertado a continuación.] Más recientemente, OpenAI, una organización sin fines de lucro respaldada por Elon Musk, declaró que su generador de texto GPT2 era «demasiado peligroso para liberarlo». Philipp Wang, un ingeniero de software en Uber, utilizó la investigación de Nvidia para crear uno de los mayores éxitos virales de 2019 hasta ahora, un sitio que no hace nada más que mostrar una nueva cara humana generada por IA cada vez que se carga.

No es difícil ver, en esta era de noticias falsas y hechos alternativos, que tales hazañas pueden ser motivo de preocupación. Sin embargo, el mayor desafío que plantea la IA basada en redes neuronales puede no estar en sus éxitos, sino en sus fallas, y concretamente, en su incapacidad para justificarse. Cuando una red neuronal falla en su tarea, a menudo lo hace de una manera extraña.

Esto puede tener efectos intrigantes: la investigación realizada en la Universidad de Wyoming muestra cómo crear deliberadamente imágenes diseñadas para engañar a clasificadores de imágenes exitosos, por ejemplo, incitándolos a identificar con confianza lo que parece ruido aleatorio para los ojos humanos como varios animales (ver Figura).

1: Imágenes y sus resultados de clasificación por una red neuronal profunda (DNN). (Imagen de: Nguyen A, Yosinski J, Clune J. Las redes neuronales profundas se engañan fácilmente: Predicciones de alta confianza para imágenes irreconocibles. En visión por computadora y reconocimiento de patrones (CVPR ’15), IEEE, 2015.)

En otro estudio, los investigadores confrontaron los sistemas de IA con el proverbial elefante en la habitación: en una escena de la sala de estar que contiene muchos objetos fácilmente reconocibles por un sistema de visión por computadora, se introduce un elefante. Esto tiene efectos sorprendentes: a veces, el elefante no es reconocido en absoluto; otras veces lo es, pero su presencia hace que objetos previamente etiquetados correctamente se identifiquen erróneamente, como etiquetar un sofá como una silla; otras veces, se identifica a sí mismo como una silla.

Fallas como estas plantean serias preocupaciones sobre la responsabilidad de los agentes artificialmente inteligentes: imagínese lo que una clasificación errónea de este tipo podría significar para un automóvil autónomo. Para agravar este problema es que no podemos simplemente preguntarle a la IA por qué se le ocurrió una clasificación particular, donde los humanos pueden apelar al conocimiento específico del dominio, como que un guepardo es un felino depredador de cuatro patas y no una colección de píxeles aleatorios, una red neuronal solo tiene su resultado de clasificación para apelar. Para él, el ruido aleatorio parecía, inescrutable, ‘guepardo’.

Este problema ha impulsado a DARPA a introducir una ‘tercera ola’ de IA. En esta clasificación, la primera ola de IA fueron los llamados ‘sistemas expertos’, que se basaron esencialmente en el conocimiento experto codificado para realizar sus tareas, mientras que la segunda ola comprende agentes que dependen de la computación basada en redes neuronales, entrenados con conjuntos masivos de datos para lograr hazañas de clasificación.

La IA de la tercera ola, por otro lado, agregará una capacidad crucial que permite a un agente autónomo justificarse a sí mismo, así como aumentar su rendimiento, limitando la incidencia de fallas ‘extrañas’. En términos generales, un sistema de tercera ola poseerá un modelo de los objetos dentro de su dominio; es decir, podrá referirse al hecho de que un guepardo es un animal moteado de cuatro patas para evitar clasificaciones erróneas. Además, si se le pregunta por una razón por la que clasificó una imagen en particular como la de un guepardo, puede apelar a ese modelo y responder «porque el animal que muestra tiene manchas».

Referencia de video (agregada por el editor): el legendario emparejamiento de Lee Sedol con AI Alpha Go:

Esta capacidad de explicarse o justificarse es crucial para la cognición al estilo humano. Los psicólogos, volviendo a William James, hablan del ‘modelo de proceso dual’ del pensamiento humano: el pensamiento, afirma el modelo, consta de dos modos: una facilidad de reconocimiento rápida, implícita, inconsciente y automática, como cuando juzgas de inmediato estado de ánimo de una persona por su expresión facial y un proceso de razonamiento lento, deliberado y concienzudo, como resolver un acertijo matemático. En su exitoso libro ‘Pensamiento, rápido y lento’, Daniel Kahnemann llama a estas diferentes facultades simplemente ‘Sistema 1’ y ‘Sistema 2’.

Las redes neuronales luego se destacan en las tareas de reconocimiento al estilo del Sistema 1, pero, al igual que ocasionalmente tenemos problemas para justificar nuestras intuiciones, carecen de la capacidad de proporcionar una explicación paso a paso de cómo llegan a sus juicios. La iniciativa de la tercera ola de DARPA, por lo tanto, exige agregar un Sistema 2 a la inteligencia artificial. Como el investigador de IA Ben Goertzel ya lo expresó en 2012:

Cerrar la brecha entre las representaciones simbólicas y subsimbólicas es, quizás, el obstáculo clave en el camino desde el estado actual del logro de la IA hasta la inteligencia general artificial a nivel humano.

Aquí, ‘representación subsimbólica’ se refiere, esencialmente, a la computación de estilo de red neuronal, en oposición a la representación simbólica de modelos explícitos.

Mientras que el Sistema 1 produce juicios rápidos y automáticos, el Sistema 2 es la cadena de razonamiento deliberada, paso a paso, a la que probablemente estamos más acostumbrados a identificarnos simplemente con ‘pensamiento’, el proceso por el cual derivamos conclusiones de las premisas, o seguimos una receta , o encontrar razones, a menudo para nuestro propio comportamiento.

De hecho, pensamos que el Sistema 2 es primordial en nuestro panorama mental, pero mucha investigación psicológica parece indicar lo contrario: el Sistema 2 a menudo actúa como un accesorio para el Sistema 1, produciendo justificaciones retrospectivas, encontrando razones por las cuales actuamos o sentimos de cierta manera solo después del hecho

El sistema 2 nos permite justificarnos, producir narrativas que explican nuestro comportamiento. Pero al hacerlo, puede salir mal: a menudo confabulamos razones para nuestras acciones en casos en los que no tenemos acceso introspectivo a sus verdaderas causas. Una demostración extrema de este tipo de autoevaluación defectuosa proviene de pacientes con cerebro dividido. En tales casos, se ha cortado el cuerpo calloso, el «puente» entre los dos hemisferios cerebrales, un procedimiento utilizado, por ejemplo, en el tratamiento de casos graves de epilepsia. Esto lleva a la posibilidad de que ciertas piezas de información no estén disponibles globalmente, pero que influyan en el comportamiento. Por lo tanto, las regiones del cerebro responsables de gobernar el comportamiento y las que generan justificaciones pueden disociarse, una actuando sobre información a la que la otra no tiene acceso.

Como ejemplo, a un paciente con cerebro dividido se le puede mostrar la instrucción de «caminar» solo en la mitad izquierda de su campo de visión. Debido al «cruce» de los nervios ópticos en el cerebro, esta información estará disponible exclusivamente para el hemisferio derecho. Si el paciente se levanta y se va, se les pide que expliquen el motivo; sin embargo, los centros del habla del cerebro están alojados en el hemisferio izquierdo. En consecuencia, la parte de su cerebro que proporciona informes verbales no tiene acceso a la información que los hizo deambular. Sin embargo, en lugar de informar con sinceridad el hecho de que no tienen idea de por qué, la mayoría ofrece una razón confabulada, como: «Quería comprar una coca cola».

Por lo tanto, el Sistema 2 no es simplemente un dispositivo de corrección de errores para mantener la asociatividad de rueda libre del Sistema 1 en la recta y estrecha, sino que puede corregir en exceso, inventando razones y justificaciones donde no hay ninguna disponible. Los modelos del mundo que ofrece pueden confundirnos, incluso mientras guían nuestra acción.

De hecho, hasta cierto punto, cada modelo debe inducir a error: un planetario no es el sistema solar, y la imagen de una tubería no es una tubería. Si no hubiera diferencia entre el modelo y la cosa modelada, serían uno y el mismo; pero luego, el modelado no lograría nada. En consecuencia, sin embargo, se deduce que nuestro modelo del mundo difiere necesariamente del mundo. El mapa no es el territorio, y los confundimos a nuestro propio riesgo.

2 Psicología de doble proceso y las cuatro nobles verdades

En el pensamiento budista, el razonamiento paso a paso del Sistema 2 se conoce como ‘pensamiento discursivo’ (Sánscrito: vitarka-vicara, Pāli: vitakka-vicara), que caracteriza la primera etapa de la meditación, y se dice que está ausente en las últimas etapas. A menudo se encuentra el pensamiento discursivo vinculado a una mala interpretación o ilusión sobre la composición del mundo; Un pensamiento sobre el mundo que oculta su verdadera naturaleza.

Esta percepción errónea nos hace experimentar antojos (sánscrito: tṛ́ṣṇā , Pāli: taṇhā ): lo que creemos sobre nosotros mismos y el mundo nos hace querer ciertas cosas: satisfacción del deseo, posesiones, riqueza, estatus, etc. Estos antojos a menudo se frustran (en parte por necesidad, porque son causados ​​por una percepción errónea del mundo), y es esta frustración la que nos hace experimentar sufrimiento. Incluso la satisfacción del deseo solo puede conducir a más deseo y, por lo tanto, fomenta el sufrimiento, en lugar de superarlo.

El sufrimiento, en el budismo, es diferente de cosas como el dolor: si bien el dolor es una realidad simple, si sufrimos es una cuestión de nuestra actitud hacia el mundo. El mensaje de esperanza que se origina en estas ideas es que al cambiar, al corregir nuestra percepción del mundo, podemos eliminar las causas del sufrimiento.

En pocas palabras, estas son las primeras tres de las Cuatro Nobles Verdades, la enseñanza central del budismo. La Primera Verdad reconoce la realidad del sufrimiento y su presencia inevitable debido a la insatisfacción esencial del mundo tal como se presenta en nuestra percepción ordinaria. La Segunda Verdad localiza el origen del sufrimiento con nuestro anhelo, que a su vez es el resultado de nuestra ignorancia sobre la verdadera naturaleza del mundo. La Tercera Verdad llega a la conclusión de que el fin del sufrimiento radica en darnos cuenta de nuestra ignorancia, que va junto con el cese del anhelo, exponiéndolo esencialmente como una premisa falsa.

Finalmente, la Cuarta Noble Verdad se refiere a la salida de todo el atolladero. En la tradición budista, esto se llama el Noble Óctuple Sendero. Curiosamente, no se trata tanto de una colección de enseñanzas, sino de un conjunto de prácticas: no puedes razonarte fuera de tu percepción errónea del mundo, solo puedes entrenarte para salir de él.

La imagen de cognición de proceso dual, modelo vs red neuronal puede emplearse para arrojar algo de luz sobre estas ideas budistas. Para desempaquetarlos, primero tenemos que echar un vistazo más de cerca a la noción de modelado.

Como hemos visto, el pensamiento de estilo humano difiere del reconocimiento de estilo de red neuronal, al menos en parte debido a la presencia de conocimiento semántico y apropiado al contexto sobre los objetos de nuestros pensamientos. Empleamos modelos tanto para justificarnos como para explicarnos a nosotros mismos y a los demás. ¿Pero qué es un modelo?

En su libro La vida misma, el biólogo teórico Robert Rosen concibió la noción de modelado como un cierto tipo de correspondencia estructural entre un modelo y su objeto. Tome la relación entre un planetario y el sistema solar: las pequeñas cuentas de metal del planetario están dispuestas de cierta manera y están sujetas a ciertas restricciones que dictan posibles configuraciones. Esta disposición refleja la de los planetas alrededor del sol, y las restricciones aseguran que para cada estado del modelo, haya un estado correspondiente del sistema solar, y viceversa. No importa que, por un lado, las restricciones se implementen a través de cables y engranajes, mientras que por el otro, se deben a la ley de gravitación de Newton: para un sistema, modelar otro es simplemente reflejar las relaciones entre las partes, no replicarlas Su composición interior.

De hecho, como se señaló anteriormente, si exigiéramos que un modelo sea igual al sistema que modela en todos los aspectos, terminaríamos con una copia, no con un modelo. Por lo tanto, para que un modelo sea un modelo, no solo debe replicar ciertas propiedades del original, sino que también debe diferir de ciertas maneras. Los mapas modelan el territorio en el sentido de que la colocación de ciertos marcadores de mapa refleja la de ciudades, montañas y lagos; no lo modelan en estar compuesto de tierra, agua y vegetación. La leyenda del mapa explica lo que representa cada marcador y es lo que finalmente nos permite usarlos para la navegación.

La confusión se produce una vez que confundimos las características del modelo con las características del sistema que modela. Como podemos modelar el movimiento de los planetas por un reloj, se podría concluir que los cielos mismos están animados por un reloj celeste gigante, estrellas y planetas salpicados de esferas cristalinas que giran uno alrededor del otro. Pero esto es solo, como lo expresó Korzybski de manera memorable, confundiendo el mapa con el territorio: el hecho de que podamos modelar un sistema de cierta manera, no significa que en realidad sea así.
Las confusiones que el budismo afirma que se encuentran en el origen de nuestro sufrimiento pueden considerarse de este tipo. Sin embargo, no son meras propiedades accidentales del sistema de modelado que se proyectan sobre el original, sino que son inherentes a la noción de modelado en sí.

El budismo propone tres verdades en particular de las que nos equivocamos sistemáticamente:

  • Impermanencia (Sánscrito: anitya , Pāli: anicca ): todo lo que surge, lo hace solo de manera temporal, y se disuelve nuevamente, encerrado en una cadena de causa y efecto (lo que a veces se llama existencia condicionada)
  • Vacío (Sánscrito: śūnyatā , Pāli: suññatā ): Todo está finalmente libre de cualquier carácter interno particular o naturaleza intrínseca (Sánscrito: svabhāva ; Pali: sabhāva )
  • No-Self (Sánscrito: anātman , Pāli: anattā ): No hay un ‘self-core’ fijo e inmutable; estamos libres de la naturaleza interior

Estos no son independientes entre sí: para que las cosas no sean permanentes, no pueden tener una naturaleza interna fundamental; de lo contrario, ¿a dónde iría esa naturaleza cuando cambie? Si se cambia a sí mismo, no puede ser inmutable, pero entonces, ¿en qué sentido fue realmente una naturaleza interna?

La filosofía occidental, por el contrario, comienza con la noción de sustancia: la materia fundamental fija e inmutable, de la que finalmente surge todo lo demás. Tales de Mileto, ampliamente considerado como el «primer filósofo» (más probablemente, simplemente el primero de cuyo pensamiento existe un registro), proclamó que «todo es agua». A medida que avanzan las primeras puñaladas, esta no es del todo mala: la mutabilidad del agua es fácilmente accesible para la observación: la enfrías y se solidifica como hielo; lo calientas y se convierte en un gas. Sin embargo, manifiestamente sigue siendo, en cierto sentido, el mismo tipo de cosas (hoy, diríamos que sigue siendo H2O). ¿Por qué no podría tener otras formas, que surgen bajo otras condiciones?

Así que aquí tenemos un ejemplo de todos los fenómenos que finalmente se reducen a un solo tipo de cosas, que en sí mismas solo forman el verdadero e inmutable carácter interno del mundo. Por supuesto, mientras se responde a una gran cantidad de preguntas de esta manera, surgen inmediatamente otras nuevas: ¿Por qué el agua? Y, quizás más urgentemente, ¿de dónde sale el agua? Si todo está conectado a tierra en el agua, ¿qué es lo que hace que el agua se mueva?

Esto ha generado una tradición productiva en filosofía. No mucho después de Tales, Heráclito vino a proclamar que no, todo es fuego. Una vez más, no es una mala suposición, como tal: el fuego puede surgir de muchas cosas, y casi todo puede ‘disolverse’ en fuego, después de todo. Parménides llevó el juego de las sustancias al extremo y propuso que todo cambio es, de hecho, ilusorio, de hecho, como lo ayudó su discípulo Zenón de Elea, lógicamente imposible. Para Demócrito, solo había ‘átomos y el vacío’, y por lo tanto se lo percibe a menudo como el progenitor de las vistas actuales, donde todo es campos cuánticos, burbujeando en el vacío moderno del vacío cuántico.

¿Diosa budista de la misericordia robot? (Insertado por los editores, por diversión):

3 naturalezas fundamentales y la biblioteca de Babel

Desde un punto de vista budista, todo esto es más o menos ladrar al árbol equivocado. Más exactamente, tales puntos de vista son elementos de la verdad convencional (en oposición a la última). Es decir, no son falsas y, desde luego, distan mucho de ser inútiles: como físico entrenado, estoy lejos de sugerir que alguien que estudie campos cuánticos esté desperdiciando sus vidas o atrapado en una intrincada ilusión.
Pero la verdad convencional es la verdad de los modelos, del pensamiento discursivo, y debemos tener cuidado de no confundir nuestros modelos con el mundo. Y es, de hecho, una característica de los modelos que se reducen a una cierta naturaleza fundamental, un conjunto de hechos de los que se puede derivar todo lo demás, pero que ellos mismos no admiten más justificación. Como analogía, tome los sistemas axiomáticos en matemáticas: todo lo que se puede probar dentro de dicho sistema fluye lógicamente de los axiomas. ¿Pero por qué esos axiomas?

La razón de este «fundamentalismo» que se encuentra dentro de cada modelo es, tal vez contraintuitivamente, su naturaleza parcial e incompleta. Es un hecho intrigante de la teoría de la información que una parte puede contener más información que la totalidad de la que forma parte: si bien ciertos conjuntos admiten una descripción muy corta y, sin embargo, perfectamente precisa: ‘una esfera de vidrio de 10 cm de diámetro’ perfecta y exhaustivamente describe dicho objeto: partes de él pueden necesitar mucha más información para caracterizarse completamente. Solo piense en dejar caer la esfera e intentar describir un solo fragmento con todo detalle: los volúmenes de texto no serían suficientes.

¿La inteligencia artificial llegará al punto de la sensibilidad? Cuando los budistas ofrezcan compasión a todos los seres sintientes, ¿esto incluirá finalmente la IA? (Imagen del editor y subtítulo).

Lo mismo ocurre, por ejemplo, para las entidades matemáticas: los números naturales se caracterizan por completo por una breve lista de enunciados (los llamados axiomas de Peano), pero especificar cualquier subconjunto de ellos puede equivaler a enumerar todos sus miembros, lo que podría ser Una lista infinita.

Esto emplea una medida del contenido de la información que se llama complejidad de descripción-longitud (o Kolmogorov, según el matemático ruso que se le ocurrió). Mi afirmación ahora es que cada modelo tiene una complejidad de longitud de descripción distinta de cero, pero lo más importante es que el mundo en sí no. Si la complejidad de la longitud de la descripción mide los «hechos fundamentales» que especifican el modelo, como la afirmación «todo es agua», entonces tener un carácter fundamental es una propiedad de los modelos, pero no necesariamente del mundo que buscan modelar. El mundo estaría entonces vacío de una naturaleza tan fundamental.

Otro hecho curioso sobre la complejidad de Kolmogorov nos ayudará a demostrar esto. La complejidad de Kolmogorov de una parte es siempre la misma que la complejidad de Kolmogorov de lo que queda después de haber quitado esa parte. De nuevo, es como el fragmento y la esfera de cristal: si solo rompe un fragmento, especificar la forma específica del fragmento también sirve para especificar el agujero que dejó, y por lo tanto, la forma completa de la esfera menos el fragmento. O bien, tome un conjunto de números y elimine algunos de ellos: una vez que pueda describir cuáles ha quitado, también puede describir cuáles sobraron.

Ahora, toma todo. Si no quitas nada, aún te queda todo; y nada tiene contenido de información cero. En consecuencia, todo, en sí mismo, también debe tener cero contenido de información.

Al igual que el fragmento que encaja en el agujero que dejó en la esfera de cristal para crear un objeto de mucho menos contenido de información que cualquiera de sus partes, si sigue juntando todas las ‘partes’ de todo, lo que termina finalmente no tiene información contenido, sin naturaleza fundamental, en absoluto. Esta vacio.

Si eso parece un poco sospechosamente fácil, considere cómo se reduce el contenido de la información con cada especificación o distinción que eliminamos. Tome la Biblioteca de Babel de Borges, que contiene todos los libros posibles escritos con un alfabeto de 25 caracteres. Para especificar completamente los contenidos de la biblioteca, también tendríamos que especificar las letras y, para mantener las cosas finitas, podemos agregar un límite superior a la longitud de los libros.

Estas pocas palabras especifican una enorme cantidad de textos. Es probable que cada volumen individual dentro de la biblioteca requiera mucha más información para especificar (excluyendo rarezas, como un libro que solo contiene la letra ‘a’ repetida cien mil veces). Ahora, considere cómo podemos reducir la cantidad de libros al incluir especificaciones adicionales: Digamos, cada libro posible de la longitud dada escrita en el alfabeto dado que comienza con la letra ‘q’.

Hemos aumentado el contenido total de información de la biblioteca, ya que ahora se necesita una descripción más larga para especificarla por completo, pero al mismo tiempo, hemos disminuido el número total de libros que contiene. Esto se debe a que agregamos una única distinción adicional: que los libros deben comenzar con una letra determinada.

Por el contrario, eliminar las distinciones disminuye aún más el contenido de información total, al tiempo que aumenta la biblioteca en sí misma; por ejemplo, eliminamos nuestro requisito de que todos los libros se escriban con los mismos 25 caracteres, permitiendo en su lugar conjuntos de caracteres arbitrarios, o eliminamos el requisito de que sean libros, permitiendo todo tipo de textos escritos, o cualquier objeto en absoluto.

Esto introduce un procedimiento limitante: con cada distinción eliminada, el contenido de la biblioteca se especifica de manera menos estricta y, por lo tanto, aumenta el número de elementos que contiene. Llevado a su conclusión lógica, nos queda una ‘biblioteca’ que contiene todos los objetos, sin tener ningún contenido de información, ya que si quedara algún contenido de información, podríamos borrar esa distinción final, agregando los objetos previamente excluidos por él a nuestro ‘biblioteca’.

Esto se vincula con las enseñanzas budistas de dos maneras más. El mundo, en su conjunto, no contiene distinciones: en cuanto a cada distinción, adquiriría contenido de información y, en consecuencia, una naturaleza fundamental. Esto se remonta a la naturaleza no dicotómica de la realidad en el pensamiento budista: no hay distinciones fundamentales entre uno mismo y el otro, o entre las cosas dentro del mundo (después de todo, tampoco hay naturalezas fundamentales sobre las cuales estas distinciones puedan superponerse).

Además, los objetos individuales surgen del mundo al establecer una distinción: la distinción entre el fragmento y el resto de la esfera de cristal, por ejemplo. Así como, en el arte, con la figura, surge el terreno, surgen fenómenos en la interdependencia mutua. Esto lleva a la doctrina del origen dependiente (sánscrito: pratītyasamutpāda, Pāli: paṭiccasamuppāda), que establece que nada existe independientemente, por su propio poder, por así decirlo, en contraste con la noción occidental de sustancia, que existe puramente por sí misma. acuerdo.

Lo anterior debe leerse en el espíritu de la metáfora explicativa, como a menudo se ofrece en los textos budistas. Compare el siguiente pasaje del famoso discurso » Gavillas de juncos «:

Es como si dos gavillas de juncos estuvieran apoyadas una contra la otra. (…) Si uno retirara una de esas gavillas de cañas, la otra se caería; Si uno alejara al otro, el primero se caería.

Es decir, las características (ya sea que caiga o se sostenga) de cada gavilla surgen de manera dependiente de las de la otra. Solo al quitar alguna parte se pone de manifiesto el carácter de lo que queda, como lo es con el contenido de información de un sistema parcial.

Desde este punto de vista, la naturaleza fundamental que vemos en el mundo es, por lo tanto, una consecuencia de la comprensión limitada de nuestros modelos y, por lo tanto, de su contenido de información distinto de cero. Podemos pensar en la descripción más corta de un modelo dado como sus axiomas, que son suficientes para derivar todos los hechos verdaderos dentro del modelo; Estos axiomas (como ‘todo es agua’) caracterizan el mundo según el modelo.

4 El yo homuncular

A primera vista, es pura conveniencia lo que limita el alcance de nuestros modelos. Es mucho más útil modelar mi entorno inmediato que modelar todo el universo en su conjunto. Sin embargo, de hecho, existen limitaciones intrínsecas al modelado, que aseguran que cada modelo solo pueda ser parcial. Por lo tanto, todo razonamiento basado en modelos por necesidad ve implícitamente que el mundo tiene un cierto tipo de naturaleza fundamental.

Una de esas limitaciones del modelado se aplica al modelado en sí. ¿Cómo usamos, por ejemplo, un planetario para modelar el sistema solar? ¿O un mapa para modelar el terreno que planeamos explorar? Al tomar configuraciones del planetario y convertirlas, de alguna manera, en arreglos planetarios. Esto hace uso de una asignación de partes del planetario a partes del sistema solar. Para un mapa, esta asignación viene dada por su leyenda: un triángulo denota la cima de una montaña, las áreas de color verde son bosques, parches azules y lagos.

Pero, la leyenda en el mapa es, ante todo, solo un conjunto de marcas, objetos físicos, en papel. ¿Cómo sabemos el significado de estas marcas? Bueno, de nuevo: necesitamos algún tipo de asociación de estas marcas con lo que significan. Esto define, entonces, una especie de leyenda de orden superior, utilizada para explicar la primera. ¿Pero entonces necesitamos otra leyenda de tercer orden para explicar esta? ¿Y un cuarto, y así sucesivamente?

Nos hemos topado con lo que se conoce como el problema del homúnculo en la filosofía de la mente: dirigir una capacidad en sí mismo para formar una explicación de sí mismo colapsa en un retroceso infinito. Esto se encuentra con mayor frecuencia en la teoría de la visión: la idea aquí es que para ver, generamos una representación interna de nuestro mundo externo. ¿Pero quién contempla esta representación interna? ¿Y esta misteriosa agencia, el homúnculo o ‘pequeño hombre’, necesita formar su propia representación interna para que su homúnculo la vea, y así sucesivamente?

La capacidad de modelar se derrumba en este punto, y debe ir en espiral hacia el infinito, o «empapelar» la laguna en su imagen del mundo con algún marcador de posición inanalizable que proclama «aquí hay dragones». El modelado siempre debe al menos perder ese punto en el que el mundo se mapea sobre sí mismo. Podemos pensar en este punto de la siguiente manera. Considera una isla. Pon un mapa de esa isla en algún lugar de la isla misma. Si el mapa es suficientemente detallado, entonces debe contener una representación de sí mismo dentro de sí mismo, y dentro de esa representación otra, y así sucesivamente.

No importa en qué nivel modelemos la regresión, siempre nos parecerá que la representación simbólica se acaba de entender. Si pensamos en el mapa, entendemos que se refiere a montañas, bosques, ciudades y carreteras, en lugar de líneas en papel. Si nos damos cuenta del hecho de que necesitamos usar alguna forma de traducción para interpretar el mapa, si tenemos que consultar la leyenda, entonces esa leyenda, a su vez, parece comprendida de inmediato. Al preguntarnos cómo entendemos la leyenda, el lenguaje en que está escrito parece inteligible. Y así sucesivamente: en cada nivel de la jerarquía, la representación parece ya entendida por un observador separado que acecha más allá del modelo, en el siguiente peldaño más alto.

Este punto fijo, en lugar de ser representado en toda su vertiginosa infinitud, simplemente se etiqueta como «el yo». El yo es entonces solo el homúnculo que usa el mapa para navegar por el mundo, llenando el vacío dejado por lo que de otra manera sería una torre infinita de representaciones. Forma nuestro propio núcleo misterioso; algo inefable (es decir, inaccesible al razonamiento basado en modelos) que, sin embargo, se encuentra en nuestro centro, que, como autoridad central, parece ser para lo que sirven todas las demás cosas. Es la pequeña flecha en el mapa, etiquetada «estás aquí».

Los modelos, por necesidad, contienen un núcleo fundamental e inmutable (los ‘axiomas’), así como un ‘pequeño hombre’ sentado en el centro, contemplando el modelo, usándolo para aprehender el mundo (el ‘yo’). Estos surgen, como proclama el pensamiento budista, en dependencia mutua: exactamente porque hay un ser central inanalizable dentro de cada modelo, el modelo en sí está incompleto y, por lo tanto, contiene una cantidad de información fundamental distinta de cero. La dicotomía entre sujeto y objeto, entre uno mismo y el otro es, por lo tanto, una consecuencia necesaria del razonamiento basado en modelos, y nuestra creencia de que este dualismo es fundamental para el mundo nuevamente es un caso de mapa y territorio confusos.

Mientras tomemos el pensamiento basado en modelos para una representación fiel del mundo, consideraremos que el mundo tiene un carácter fundamental inmutable, y que nosotros mismos también tenemos un ser interno definido. Así confundidos sobre la verdadera naturaleza del mundo, nos atascamos en nuestros antojos, lo que, debido a la naturaleza insatisfactoria del mundo, conduce al sufrimiento.

Sin embargo, no sería suficiente considerar al yo como una ilusión. Después de todo, ese punto en el que el mapa se mapea realmente es que su existencia depende del mapa, no del territorio que representa. Es un elemento de verdad convencional, pero la verdad de todos modos, siempre y cuando no lo tomemos como un elemento del mundo como tal. Sin embargo, con todo el razonamiento basado en modelos, esto parece imposible: el yo está integrado en todo ese razonamiento, por lo que no podemos razonar para salir de él. La ignorancia que está en la raíz del sufrimiento en el pensamiento budista, por lo tanto, no se puede curar simplemente diciéndole cómo son realmente las cosas, como puede ser la ignorancia sobre el nombre de la tercera montaña más alta del mundo (Kangchenjunga, si se preguntaba).

Entonces, ¿cuál es la salida? La solución, a primera vista, parece simple: arroje los modelos por la borda y, en su lugar, confíe en el Sistema 1. ¡Vaya con sus instintos! ¡Sigue tus instintos! ¡Deje que su red neuronal interna haga todo el trabajo!

Sin embargo, esto parece poco probable que funcione. Si voy con mis entrañas, comeré todo el chocolate ahora, y me sentiré mal más tarde cuando mire las escamas. El sistema 1 a menudo se preocupa por la satisfacción inmediata, en oposición a la planificación a largo plazo.

5 La meditación como un tipo diferente de ‘aprendizaje profundo’

Pero el pensamiento budista es más sutil que eso. A través de acciones pasadas informadas por una percepción errónea del mundo, hemos capacitado a nuestro Sistema 1 para que ceda ante los antojos. Hemos acumulado mal karma: las acciones pasadas egoístas nos han entrenado para buscar la gratificación instantánea. Sugiero que esta capacitación se puede entender exactamente de la misma manera que la de una red neuronal: alimenta una cantidad de datos lo suficientemente grande, se ajusta a las regularidades en esos datos y los emula: así es como las redes neuronales logran el hazañas impresionantes de las que son capaces. Sin embargo, dependiendo de los datos de entrenamiento, esto puede conducir a resultados que van desde lo hilarante hasta lo ofensivo, como con el bot de Twitter de Microsoft, Tay, que tuvo que cerrarse después de comenzar a decir una retórica odiosa y racista. Por lo tanto, los malos datos de entrenamiento conducen a malos resultados de comportamiento.

Seguir estos hábitos arraigados es poco probable que conduzca a la liberación del sufrimiento; de hecho, logrará todo lo contrario. La solución, en la tradición budista, es reentrenar nuestras redes neuronales internas: alimentarlos con mejores datos, a fin de permitirles tomar mejores decisiones no gobernadas por la falsa percepción del mundo.

Este entrenamiento está en el centro del Noble Óctuple Sendero. Veamos brevemente dos métodos de entrenamiento en particular: la práctica de la meditación y el estudio de los kōans que son parte integral del budismo zen.

Enfatizar la práctica sobre la teoría no es, en sí mismo, un enfoque particularmente impactante. No puedes aprender a tocar la guitarra leyendo un libro sobre tocar la guitarra; en realidad tienes que practicar tocar la guitarra, repetidamente, hasta que esperes mejorar. La transmisión de habilidades, por lo tanto, no se logra por la simple transmisión de conocimiento: hay algunas cosas que los libros no pueden enseñar, pero solo pueden decirle cómo aprender.

Pero echemos un vistazo a cómo funciona el aprendizaje, en este caso. Te dan un conjunto de instrucciones a seguir: un modelo, en otras palabras. A través de la práctica diligente, las instrucciones se ‘arraigan’, hasta que llegas a un punto en el que ya no tienes que contemplar activamente lo que estás haciendo, sino simplemente actuar. La guitarrista experimentada no tiene que pensar dónde colocar los dedos para tocar un acorde determinado, ni necesita prestar mucha atención a su rasgueo.

Al practicar las instrucciones que se te dan en forma de modelo, siguiendo el estilo del Sistema 2 paso a paso, eventualmente puedes transferir una habilidad al dominio del Sistema 1, hasta que se vuelva completamente automático y sin esfuerzo.

Tal entrenamiento basado en modelos es una de las características de los futuros sistemas de IA de tercera ola. Cuando una IA de segunda ola (red neuronal) pueda necesitar conjuntos de datos con miles de ejemplos para realizar incluso tareas relativamente simples, como el reconocimiento de escritura a mano, de manera confiable, si se aumenta con un modelo de cómo se producen los diferentes caracteres, se puede lograr un rendimiento comparable con mucho conjuntos de datos más pequeños.

La intención de la práctica meditativa es, entonces, volver a entrenar la mente: deshacer el entrenamiento que el Sistema 1 ha recibido por años de razonamiento basado en modelos, aceptando que el mundo tiene una naturaleza fundamental permanente y la realidad del ser. La meditación, por lo tanto, incluye un esfuerzo por silenciar el pensamiento discursivo. Un camino hacia esto es aprender a enfocar la atención, en lugar de dejar que deambule sin rumbo, y así, gradualmente, construir una conciencia de nuestro contenido mental.

Quizás este tipo de entrenamiento se pueda comparar con convertirse en un enófilo experimentado, un conocedor del vino: al estudiar repetidamente una experiencia en circunstancias controladas, como la degustación de vino, uno desarrolla una apreciación por sus aspectos más sutiles, ya que el Sistema 1 acumula datos de entrenamiento permitiéndole hacer distinciones cada vez más finas. Por lo tanto, un meditador experto se ha convertido en un conocedor de su propia mente, capaz de apreciar más plenamente los procesos de modelado en cualquier momento y, por lo tanto, reconocerlos como algo separado de simplemente apreciar el mundo tal como es.

La parte impactante es esta. Podemos salir de nuestra percepción errónea del mundo no solo adquiriendo el tipo correcto de conocimiento, leyendo el tipo correcto de libros, escuchando a los maestros correctos. No importa lo que se transporte de esta manera, contribuirá al pensamiento basado en modelos y nos mantendrá atrapados en la verdad convencional.

Más bien, conocer el mundo de la manera correcta implica el tipo correcto de práctica: hacer las cosas de la manera correcta, no solo conocer el tipo correcto de cosas. Para un físico, esto es familiar y profundamente desorientador: las matemáticas necesarias para comprender las teorías físicas modernas no se pueden dominar simplemente leyendo libros de matemáticas, sino que se deben practicar diligentemente, hasta que los conceptos abstractos se hayan vuelto innatos. Esto es, creo, lo que el gran polímato John von Neumann quiso decir cuando dijo: “En matemáticas, no entiendes las cosas. Sólo te acostumbras a ellos.»

Pero las matemáticas son simplemente una herramienta para la construcción de modelos. Permite al alumno aprender los modelos que describen el mundo físico, en todos sus detalles sangrientos. Si lo anterior es correcto, sin embargo, no existe tal modelo. Más bien, conocer el mundo libre de ilusiones significa saltarse los modelos y adoptar la capacitación y la práctica diligente. Por lo tanto, el objetivo no es producir una comprensión explícita del mundo en su conjunto, eso es inútil, sino, más modestamente, liberarse de los errores introducidos al tergiversar el mundo.
Este objetivo también se persigue en la práctica de kōan. Tome el que tal vez sea el ejemplo más (in) famoso, debido al gran maestro zen Hakuin Ekaku:

“Dos manos aplauden y hay un sonido. ¿Cuál es el sonido de una mano?

Uno puede leer esto como presentar primero un modelo y luego deshacerlo. Un sonido se origina en la reunión de ambas manos, ya que el impacto envía ondas de choque acústicas a través del aire. Pero con solo una mano, no puede producirse ningún impacto y, por lo tanto, no se produce sonido. Esto lleva el razonamiento basado en modelos a sus límites.

Sin embargo, una red neuronal no necesariamente tendría el mismo problema. No le importa el modelo subyacente. De hecho, las historias producidas por las redes neuronales a menudo tienen una cierta calidad de kōan, ya que carecen de coherencia interna. Ningún modelo se ajusta a la historia, al igual que ningún modelo se ajusta al kōan. Por lo tanto, un kōan puede introducir datos de entrenamiento al Sistema 1, sin presentarle al Sistema 2 nada de lo que pueda tener sentido, ayudándolo a liberarse de la influencia de las percepciones erróneas basadas en el modelo. El kōan apunta más allá de sí mismo, proporcionando alimento no para el motor de verdad convencional basado en modelos del Sistema 2, sino que interactúa directamente con el Sistema 1, entrenándolo para superar los años de impresiones equivocadas del mundo.

Esto habla de la naturaleza entrelazada de la verdad convencional y última en el análisis budista. No podemos liberarnos de nuestra percepción errónea simplemente usando solo el razonamiento convencional; sin embargo, se necesita un pensamiento conceptual para darse cuenta de su propia insuficiencia. En consecuencia, este ensayo no puede hacer más que proporcionarle un modelo que, para que tenga algún significado, debe, como el kōan o el dedo dirigido hacia la luna, apuntar más allá de sí mismo, indicando que No se puede decir directamente. Al igual que la escalera de Wittgenstein, solo puede indicar en la medida en que indique que debe superarse. Como lo expresó el gran filósofo budista Nāgārjuna, «quienquiera que tenga una visión filosófica del vacío está realmente perdido» – en la imagen memorable del comentarista de Nāgārjuna Candrakīrti, sería como si,

La verdad convencional y última se originan de manera dependiente: es solo porque los modelos son siempre incompletos que surge su distinción. Finalmente, (la doctrina de) el vacío está en sí mismo vacío.

Does a Neural Net have Buddha Nature? The science of AI “sentience” and what it can tell us about our Buddha Nature and minds: a theoretical physicist view

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.