Los últimos dos años han regresado a los creyentes de Ucrania y Palestina a aquella pregunta del santo Job: ¿Por qué la pasan cosas malas a las personas buenas? Esta década de pandemia, genocidios y extremos políticos contra las personas más desamparadas también es la de un desarrollo masivo de las inteligencias artificiales. Pensando en esta relación de hechos, es y no es extraño que un servicio ulterior de este desarrollo sea el de “chatbots” en línea entrenados para conversar relacionando contenidos religiosos, por ejemplo, frases de los textos sagrados de las grandes tradiciones o tratados y homilías de teólogos muy influyentes como Martín Lutero. Algunos de estos chatbots son “Bible.Ai”, “Gita GPT”, “Buddhabot” y “Paul AI”, basados en la Torah y los Evangelios, la Bhagavad-gītā, sūtras del Buda y las epístolas paulinas respectivamente. Este fenómeno ha despertado el interés y la participación de internautas creyentes o de pequeñas comunidades religiosas que ya han empezado a adoptar estas herramientas. Por supuesto que también críticas reaccionarias o reflexivas.
Un caso que ejemplifica muy bien ambos caminos de opinión es el del desarrollador Raihan Khan, un estudiante universitario residente en Calcuta y que practica el Islam. Poco antes de ir a dormir y de la medianoche del inicio del mes de Ramadán del 2023, un día martes 22 de marzo: anunció vía LinkedIn el lanzamiento de QuranGPT, un chatbot diseñado para resolver preguntas y brindar consejos utilizando las suras del Corán. Cuando Raihan se despertó siete horas más tarde, el anunció sobre su inteligencia artificial se estrelló por la magnitud de visualizaciones y comentarios, algunos muy positivos, pero otros abiertamente amenazadores sin rastro de duda. QuranGPT ya ha sido probado por cerca de 230.000 personas de todo el mundo, dentro y fuera de países con mayoría musulmana.
En general, los desarrolladores de chatbots religiosos descartan que los actuales “LLM” o modelos de lenguaje de sus aplicaciones sean capaces de resolver enigmas teológicos. Solo pueden identificar patrones lingüísticos sutiles dentro de texto grandes, proporcionando respuestas a las indicaciones del usuario que emulan los discursos propios de una u otra fe. Este procesamiento del lenguaje natural humano o “PNL” solo puede sintetizar ideas espirituales a partir de un asunto dado, y sus creadores dicen estar ofreciendo un servicio de ahorro de tiempo y energía para los creyentes, respuestas a pedido que son coherentes con los textos de referencia, a falta de un sheij, un gurú, un bonzo, un rabino o un cura.
En opinión de Ilia Delio, catedrática de teología de la Universidad de Villanova y una autora reconocida en el tema de la superposición entre religión y ciencia: los chatbots de este tipo podrían calificarse sin más como “atajos hacia Dios”, ya que no podrían remplazar los beneficios espirituales de un compromiso directo con los textos de las grandes religiones o con la instrucción progresiva de un maestro que trasmite una tradición. Hay de por medio un malentendido fundamental de esta tecnología con probables efectos no deseados ni por estas religiones ni por personas como Raihan. Las inteligencias artificiales no experimentan los dilemas de la vida de los creyentes, por lo que no participan de una convivencialidad o de un proceso creativo. No pueden ser objetivas en el sentido de que no pueden plantearse el problema de la objetividad, y tampoco advierten ninguna tensión subjetiva. No crean significados, sino que copian y pegan significantes, por lo que no podría decirse que acompañan a ningún creyente. Son el mismo hecho que buscar en un libro de citas seleccionadas sobre un tema teológico o moral específico.
Identificar patrones lingüísticos hace parte del trabajo de un filólogo humano, por ejemplo, para reconocer la autenticidad de un texto, la características de una traducción o ciertos tropos relacionados con maneras de crear significado y apelar a uno u otro grupo de creyentes históricos. Sin embargo, si bien estos chatbots podrían utilizarse como una herramienta para ahorrar esfuerzos en el caso de las tareas propias de un especialista, estos solo recuperan y ordenan información para emular una respuesta esperada, es decir, responden a una intencionalidad, pero no pueden identificarla por lo que es. Y quizá lo más importante es que no realizan un ejercicio hermenéutico, solo extrapolan contenido de un acervo de frases que reformulan como respuestas a preguntas. Job requirió no tanto o no tan solo de información sobre qué es lo que se ha dicho sobre el bien y el dolor de la existencia. Necesitó también ir a la nada para reunirse con su Señor o para crear a Adonai. Debió plantearse qué del conocimiento sobre sí mismo no era una visión de Job, y qué de la experiencia de lo divino era su propia experiencia. Quiso saber por qué y no solo decir por qué.
https://pijamasurf.com/2024/04/puede_una_inteligencia_artificial_dar_consejos_religiosos_de_un_ser_humano/