Hoy estamos en una época muy diferente a la que vi por primera vez en una copia impresa de una computadora en 1965. La información, la desinformación y el “infoshum” (o “ruido de información” que apunta a maximizar la capacidad de hacer clic mientras minimiza la información real) se generan y difunden en un momento mental en nuestras computadoras portátiles y teléfonos celulares.
Estamos en una carrera global en torno al desarrollo y despliegue de tecnologías de IA, impulsada en gran medida por intereses capitalistas y ávidos de poder, así como por nuestra propia mentalidad inherentemente competitiva; los mayores beneficios recaen en el individuo, corporación o país que domina la carrera por el poder político, militar, económico o egoísta.
Algunos titulares también preguntan sobre otra carrera. Un artículo reciente de Harvard International Review comienza con el titular: “Una carrera hacia la extinción: cómo la competencia entre grandes potencias está haciendo que la inteligencia artificial sea existencialmente peligrosa”. En medio de varias prisas por adoptar una tecnología floreciente, un crítico incluso ha preguntado: “¿cómo podemos llenar las reservas agotadas de confianza y razón en nuestro mundo mientras vemos el impacto debilitante del mundo digital en nuestra psique individual y colectiva? «
Para muchos de nosotros está claro que tenemos la responsabilidad moral de comprender e informarnos en la medida de lo posible sobre los beneficios y las cargas de la IA . Como muchos señalan, la tecnología persuasiva está degradando rápidamente nuestra soberanía, mercantilizando nuestras identidades y obstaculizando aún más la acción de la llamada “clase inútil”.
Básicamente, la IA es un arma de doble filo. Por ejemplo, Marc Andreessen, en su manifiesto sobre IA , parece estar seguro de que la IA es la panacea para todo, desde el cuidado infantil hasta la guerra. Por otro lado, varios líderes en el campo de la IA [han estado advirtiendo que la IA podría marcar el comienzo del fin de la raza humana tal como la conocemos].
Ambos podrían tener razón, con deepfakes, violaciones de la privacidad, sesgos algorítmicos raciales y sexistas, IA que favorece la volatilidad del mercado, armas autónomas, fraude y desinformación, vigilancia y manipulación social, y mercantilización de la identidad. Las alucinaciones de la IA pueden atraer a uno a la madriguera de una irrealidad potencialmente peligrosa y engañosa.
La resbaladiza inteligencia artificial apunta a una interesante perspectiva budista: la naturaleza ilusoria del mundo fenoménico.
La IA también tiene beneficios extraordinarios, incluido el diagnóstico preciso de diversas enfermedades, la protección de la biodiversidad, el tratamiento de cuestiones relacionadas con el cambio climático, la predicción de la propagación de enfermedades infecciosas, la detección de armas en las escuelas, la ayuda a hablar a los que se quedan sin palabras, la reducción del consumo de energía y más.
En resumen, nos encontramos en un nuevo panorama informativo impulsado en parte por datos humanamente defectuosos , agravados por intereses económicos extractivos y fomentado por el impulso adolescente, sin pensar mucho en los daños sociales, ambientales, morales y éticos que estamos experimentando actualmente. y que seguramente serán aún más problemáticos en un futuro próximo y lejano.
A mediados de la década de 1980, vi una sorprendente entrevista con un alto general del ejército estadounidense. Se trataba de la deposición de residuos nucleares. En el segmento, dejó claro que, desde los albores de la adopción de la energía y los materiales nucleares por parte de Estados Unidos, nunca hubo un plan sobre cómo deshacerse de los desechos radiactivos. Hoy en día, la mayoría de nosotros sabemos que los desechos nucleares se están acumulando en todo el mundo con consecuencias que son realmente aterradoras de considerar.
Mi sensación es que no estamos en una situación diferente con la IA, en cuanto a cómo lidiar con la acumulación exponencial y generalizada de desperdicio de confianza fracturada que está contaminando nuestra sociedad y nuestra psique. No parece haber un plan claro para recuperar la confianza rota causada por la IA, y hay mucho en riesgo. Sin embargo, todavía podemos cambiar esta narrativa antes de que sea demasiado tarde.
Quizás te preguntes, ¿qué tiene que ver la IA con el budismo? Curiosamente, la resbaladiza inteligencia artificial apunta a una interesante perspectiva budista: la naturaleza ilusoria del mundo fenoménico. Después de todo, ¿en qué podemos creer realmente? ¿Qué es realmente real? Del Sutra del Diamante :
“Así pensarás en todo este mundo fugaz: una estrella al amanecer, una burbuja en un arroyo; un relámpago en una nube de verano, una lámpara parpadeante, un fantasma y un sueño”.
Sin embargo, la mayoría de nosotros necesitamos pensar que lo que experimentamos no es enteramente un sueño para poder funcionar adecuadamente en nuestra sociedad. Imaginar el mundo fijo nos hace sentir seguros, aunque, desde una perspectiva budista, la realidad parece ser tan resbaladiza como la IA. En medio de esta resbaladiza, sin embargo, quedan en paz cuestiones relacionadas con daños graves y sufrimiento profundo.
Tengo que preguntarme: ¿pueden realmente las enseñanzas budistas servir para mitigar los daños generados por la IA? ¿Puede ayudar la meditación? ¿Estamos demasiado lejos? ¿Será este simplemente el paisaje donde practicamos en el osario en el futuro, siendo los osarios un lugar donde los cuerpos se dejan sobre el suelo para pudrirse, y aquí es donde practicamos?
Ha habido algunas sugerencias budistas de que podríamos mitigar el daño causado por la IA introduciendo en ella el espíritu inspirado en el voto del bodhisattva de despertar y poner fin al sufrimiento. Algunos incluso han propuesto el lema “inteligencia como cuidado” para intentar revisar la definición actual de inteligencia y señalar un mejor camino a seguir.
Me pregunto: ¿puede existir algo llamado sabiduría artificial o compasión artificial? Tal vez sí tal vez no. En caso afirmativo, entonces tal vez se podría crear IA para incluir dentro de su marco una ética budista de la virtud. Francamente, creo que no, y la idea de replantear la inteligencia como cuidado podría considerarse demasiado poca y demasiado tarde.
Otra perspectiva budista que me viene a la mente es el término “appamada”, que generalmente se traduce como vigilancia o escrupulosidad. Stephen Batchelor lo traduce como cuidado. Appamada significa vivir según el voto de no hacer daño, ser diligente en este compromiso y estar atento cuando causamos daño y elegimos corregir el rumbo. ¿Se podría entrenar a appamada en sistemas de inteligencia artificial? ¿O appamada depende de nosotros? ¿Podemos incorporar el espíritu de apamada, vigilancia, escrupulosidad y cuidado en la forma en que abordamos la IA como desarrolladores y consumidores? También hay que preguntarse: ¿cómo? Creo que esto es lo que Tristan Harris y su equipo en el Centro de Tecnología Humana se están esforzando por hacer: informarnos para que podamos tomar decisiones informadas y sensatas y ser proveedores y consumidores responsables de la tecnología.
Desde la perspectiva del filósofo y neurocientífico Francisco Varela sobre la visión enactiva, la IA ya está integrada en el contexto de nuestra experiencia vivida; es coextensivo en todos los aspectos de nuestras vidas, ya sea que accedamos a la tecnología o no. De hecho, no se trata tanto de que accedamos a él: él ha accedido a nosotros. Ahora es parte de nuestro bioma psicosocial, lo sepamos o no, nos guste o no. Para decirlo más claramente, en palabras de Thich Nhat Hanh , desde el punto de vista del surgimiento codependiente, inter-estamos con la IA; nuestras opiniones lo han colonizado y él nos está colonizando a nosotros.
¿Qué podría ofrecer el budismo en medio del tsunami del desarrollo de la IA? Lo que tenemos para ofrecer es sutil pero importante. Aprecio lo que Roshi Norman Fischer ha llamado la “actitud del bodhisattva”, una actitud inquebrantable de claridad que refleja nuestro propio carácter; ésta es nuestra postura, nuestro punto de vista, es la atmósfera interna que colorea nuestra manera de ver el mundo, de ver la realidad: es una actitud saturada de appamada, de escrupulosidad y de compasión. Como ciudadanos globales y consumidores preocupados, tenemos una tarea importante por delante. En medio del bombardeo de distracciones persuasivas en nuestros dispositivos móviles y en otros lugares, estamos llamados a prestar atención a lo que estamos haciendo y a preguntarnos realmente por qué lo estamos haciendo y cómo esto permite el interés propio capitalista y extractivo que está impulsando el desarrollo generalizado. de IA.
También debemos recordar que la evolución nos ha dotado de nuevas competencias cerebrales que pueden mejorar nuestra capacidad de ser intencionales a medida que nos enfrentamos a las complejidades de nuestro mundo. Podemos ser deliberados acerca de nuestras acciones; podemos elegir actuar concienzudamente y podemos fortalecer aquellas capacidades dentro de nosotros que nos permiten relacionarnos con nuestro mundo con integridad fundamental.
Podemos causar muchos problemas, y deberíamos hacerlo; no deberíamos esperar.
Es importante recordar por qué estamos realmente aquí, que no se trata de un “lavado de atención plena” o un “lavado de sabiduría” para parecer que somos súper conscientes y altruistas en lugar de ser genuinamente conscientes y éticos. Creo que es imperativo que fortalezcamos las condiciones que hacen visibles nuestras motivaciones reales y cultivemos deliberadamente una intención libre de interés propio y fundamentalmente no transaccional. Esto implica sensibilidad a lo que está presente, la capacidad de percibir las circunstancias presentes con claridad y la voluntad y la sabiduría para considerar los efectos más profundos, o lo que en el budismo llamamos karma.
Con mucha frecuencia vemos que las preferencias personales, el egocentrismo, la codicia, el miedo y la distracción distorsionan nuestra percepción de la realidad, y esto influye en nuestros valores, motivaciones, intenciones y comportamientos. Desde la perspectiva budista, la intención es un factor mental direccional y deliberado. Nuestra motivación, por otro lado, puede que no sea del todo consciente para nosotros. En pocas palabras, nuestras llamadas buenas intenciones pueden estar impulsadas por motivaciones inconscientes, basadas en el ego y egoístas, y carecer de integridad fundamental. Una cuestión relacionada es comprender que nuestras motivaciones inconscientes pueden ser la causa de un sufrimiento moral preconsciente, incluido un daño moral, o una sensación de vergüenza sutil pero perniciosa o de un profundo arrepentimiento.
Por favor, comprenda que solo soy un maestro budista, que en este momento está inundado de artículos de IA que predicen la perdición o la liberación. Quizás ninguno de nosotros, incluidos los desarrolladores de la IA, pueda saber plenamente cuáles serán los efectos posteriores de la IA. Pero sí sabemos que la velocidad del desarrollo de la IA es asombrosa, y las opiniones son numerosas con respecto a esta poderosa herramienta que tiene entretejida nuestra inteligencia social y culturalmente sesgada mientras aparentemente carece de sabiduría real.
Podría marcar una diferencia significativa si tanto los desarrolladores como los consumidores abordaran el desarrollo de la IA con la actitud del bodhisattva, con vigilancia y escrupulosidad (appamada), estando deliberadamente libres del egoísmo capitalista y de la curiosidad hedonista. También tenemos que ser más exigentes y responsables sobre qué y cómo se entrega la información y, como consumidores de información, tener la conciencia de reconocer que hay intentos de engañarnos, manipularnos, socavarnos y secuestrar nuestra fe y confianza fundamentales. .
Tal como están las cosas ahora, la capacidad de resistir los daños de la IA es mayoritariamente accesible para los más privilegiados entre nosotros. Desde el punto de vista del budismo socialmente comprometido, el privilegio confiere responsabilidad, la responsabilidad de elevar a los llamados menos privilegiados, pero más importante aún, de deconstruir los mismos sistemas que confieren privilegios.
Al final, si la IA afirma o niega la vida depende de todos nosotros. Parafraseando a Thich Nhat Hanh, nosotros, como desarrolladores y consumidores de IA, deberíamos utilizar las tecnologías blandas de la práctica de autocorrección y desarrollar comunidades saludables y transparentes como instrumentos cuerdos con los que experimentamos con la verdad. Ambos lados de esta ecuación deben actualizar la appamada (es decir, vigilancia, escrupulosidad y cuidado) en la forma en que implementamos y utilizamos estas tecnologías emergentes. Si estamos en una institución que está desarrollando IA, podemos traer “fricción inteligente” a estas instituciones para descentrar y descolonizar el arraigo de la IA en una visión del mundo capitalista eurocéntrica. También podemos abogar, con el consentimiento indígena, por que diversos sistemas de conocimiento sean una parte fundamental del panorama de la IA, según el trabajo de Sabelo Mhlambi . Podemos pedir legalmente la desmercantilización de nuestras propias identidades. Podemos comprometernos aún más a alterar los sistemas que fomentan la violencia estructural reflejada en los sistemas de IA. En otras palabras: podemos crear buenos problemas, y deberíamos hacerlo; no deberíamos esperar. En última instancia, ¿podemos fomentar un panorama de IA que no sólo sea aparentemente racional sino también genuinamente relacional y rehumanizado, donde se valoren la dignidad, los derechos humanos y los derechos de la naturaleza?
Y tenemos que ser absolutamente honestos al embarcarnos en este profundo viaje hacia el desarrollo de nuevas formas de inteligencia. En lugar de dejar el desperdicio de confianza fracturada para más adelante, abordémoslo ahora. Facebook actuó como una gran tabacalera en sus años de formación, sembrando conscientemente desconfianza social y trauma psicológico en los jóvenes, mientras lo negaba todo el tiempo. No podemos permitirnos a nosotros mismos ni a nuestros amigos actuar con tan mala fe esta vez.
Deberíamos asegurarnos de que estos mamíferos con cerebros grandes que están impulsando el desarrollo de la IA formen una relación de cooperación y ética similar a la del CERN para garantizar que la IA contribuya positivamente a un futuro sano y posible. Y, lo más importante, todos debemos esforzarnos por vivir según los valores y votos relacionados con poner fin al daño a través de la tecnología.
Con gratitud a Abeba Birhane, Randy Fernando, Sensei Kozan Palevsky y Soren Gordhamer por su ayuda en la revisión de este artículo.