El auge de la inteligencia artificial (IA) plantea interrogantes no solo sobre la tecnología y la gran cantidad de posibilidades que trae consigo, sino también sobre la moral, la ética y la filosofía. La introducción de esta nueva tecnología tiene implicaciones para la salud, el derecho, el ejército, la naturaleza del trabajo, la política e incluso nuestra propia identidad: qué nos hace humanos y cómo logramos nuestro sentido de identidad.
«AI Morality» (Oxford University Press, 2024), editado por el filósofo británico David Edmonds , es una colección de ensayos de un «grupo de trabajo filosófico» que explora cómo la IA revolucionará nuestras vidas y los dilemas morales que desencadenará, pintando un cuadro inmersivo de las razones para estar alegres y las razones para preocuparse. En este extracto, Muriel Leuenberger , investigadora postdoctoral en ética de la tecnología e IA en la Universidad de Zúrich, se centra en cómo la IA ya está dando forma a nuestras identidades.
Su ensayo, titulado «¿Deberíamos dejar que la IA nos diga quién somos y qué debemos hacer?», explica cómo los algoritmos de aprendizaje automático que dominan las plataformas digitales actuales (desde las redes sociales hasta las aplicaciones de citas) pueden saber más sobre nosotros que nosotros mismos. Pero, plantea, ¿podemos confiar en que tomen las mejores decisiones para nosotros? ¿Qué significa eso para nuestra agencia?
Tu teléfono y sus aplicaciones saben mucho sobre ti: con quién hablas y con quién pasas el tiempo, adónde vas, qué música, juegos y películas te gustan, cómo te ves, qué artículos de noticias lees, quién te resulta atractivo, qué compras con tu tarjeta de crédito y cuántos pasos das. Esta información ya se está explotando para vendernos productos, servicios o políticos. Los rastros en línea permiten a empresas como Google o Facebook inferir tus opiniones políticas, tus preferencias de consumo, si eres un amante de las emociones fuertes, un amante de las mascotas o un pequeño empresario, qué probabilidades hay de que pronto seas padre o madre, o incluso si es probable que sufras depresión o insomnio.
Con el uso de la inteligencia artificial y la mayor digitalización de la vida humana, ya no es impensable que la IA llegue a conocernos mejor que nosotros mismos. Los perfiles personales de usuario que generan los sistemas de IA podrían llegar a ser más precisos a la hora de describir sus valores, intereses, rasgos de carácter, prejuicios o trastornos mentales que el propio usuario. La tecnología ya puede proporcionar información personal que los individuos no conocían sobre sí mismos. Yuval Harari exagera, pero hace una observación similar cuando afirma que será racional y natural elegir las parejas, los amigos, los trabajos, las fiestas y los hogares sugeridos por la IA. La IA podrá combinar la vasta información personal sobre nosotros con información general sobre psicología, relaciones, empleo, política y geografía, y será mejor a la hora de simular posibles escenarios relacionados con esas elecciones.
De modo que podría parecer que una IA que nos permita saber quiénes somos y qué debemos hacer sería genial, no sólo en casos extremos, como en el caso de Harari, sino de manera más prosaica para los sistemas de recomendación habituales y la elaboración de perfiles digitales. Quiero plantear dos razones por las que no lo es.
Confianza
¿Cómo sabes si puedes confiar en un sistema de IA? ¿Cómo puedes estar seguro de que realmente te conoce y te hace buenas recomendaciones? Imagina que un amigo te dice que deberías salir con su primo Alex porque los dos serían una pareja perfecta. Al decidir si quedar con Alex, reflexionas sobre lo confiable que es tu amigo. Puedes considerar la fiabilidad de tu amigo (¿está borracho y no piensa con claridad?), su competencia (¿qué tan bien te conoce a ti y a Alex, qué tan bueno es para juzgar la compatibilidad romántica?) y sus intenciones (¿quiere que seas feliz, te engaña o deja a su aburrido primo por una noche?). Para ver si debes seguir el consejo de tu amigo, puedes interrogarlo suavemente: ¿por qué cree que te gustaría Alex?, ¿qué cree que tenéis en común?
Esto es bastante complicado, pero juzgar la confianza en la IA es aún más complicado. Es difícil entender lo que una IA sabe realmente sobre ti y cuán confiable es su información. Muchos sistemas de IA han resultado ser sesgados (por ejemplo, han reproducido sesgos raciales y sexistas a partir de sus datos de entrenamiento), por lo que sería mejor no confiar ciegamente en ellos. Por lo general, no podemos pedirle a una IA una explicación de su recomendación, y es difícil evaluar su confiabilidad, competencia y las intenciones del desarrollador. Los algoritmos detrás de las predicciones, caracterizaciones y decisiones de la IA suelen ser propiedad de la empresa y no son accesibles para el usuario. E incluso si esta información estuviera disponible, se requeriría un alto grado de experiencia para comprenderla. ¿Cómo se traducen esos registros de compras y publicaciones en las redes sociales en rasgos de carácter y preferencias políticas? Debido a la muy discutida opacidad, o naturaleza de «caja negra» de algunos sistemas de IA, incluso aquellos competentes en informática pueden no ser capaces de entender un sistema de IA por completo. El proceso mediante el cual la IA genera un resultado es en gran medida autodirigido (lo que significa que genera sus propias estrategias sin seguir reglas estrictas diseñadas por los desarrolladores) y es difícil o casi imposible de interpretar.
¡Créate a ti mismo!
Incluso si tuviéramos una IA razonablemente confiable, quedaría una segunda preocupación ética. Una IA que te dice quién eres y qué deberías hacer se basa en la idea de que tu identidad es algo que puedes descubrir: información a la que tú o una IA pueden acceder. Quién eres realmente y qué deberías hacer con tu vida es accesible a través de análisis estadísticos, algunos datos personales y hechos sobre psicología, instituciones sociales, relaciones, biología y economía. Pero esta visión pasa por alto un punto importante: también elegimos quiénes somos. No eres un sujeto pasivo de tu identidad: es algo que creas activa y dinámicamente. Desarrollas, nutres y moldeas tu identidad. Esta faceta autocreacionista de la identidad ha sido el centro de la filosofía existencialista, como lo ejemplificó Jean-Paul Sartre. Los existencialistas niegan que los humanos estén definidos por una naturaleza o «esencia» predeterminada. Existir sin esencia es siempre convertirse en algo distinto de lo que eres hoy. Estamos continuamente creándonos a nosotros mismos y deberíamos hacerlo libre e independientemente. Dentro de los límites de ciertos hechos (dónde naciste, qué altura tienes, qué le dijiste a tu amigo ayer), eres radicalmente libre y tienes la obligación moral de construir tu propia identidad y definir lo que tiene sentido para ti. Fundamentalmente, el objetivo no es descubrir la única manera correcta de ser, sino elegir tu propia identidad individual y responsabilizarte de ella.
La IA puede darte una perspectiva externa y cuantificada que puede actuar como un espejo y sugerirte cursos de acción, pero debes mantener el control y asegurarte de asumir la responsabilidad de quién eres y cómo vives tu vida. Una IA puede revelar muchos datos sobre ti, pero es tu trabajo descubrir qué significan para ti y cómo permites que te definan. Lo mismo ocurre con las acciones. Tus acciones no son solo una forma de buscar el bienestar. A través de ellas, eliges qué tipo de persona eres. Seguir ciegamente a la IA implica renunciar a la libertad de crearte a ti mismo y a tu responsabilidad por quién eres. Esto equivaldría a un fracaso moral.
En definitiva, confiar en la IA para que te diga quién eres y qué debes hacer puede atrofiar las habilidades necesarias para la autocreación independiente. Si utilizas constantemente una IA para encontrar la música, la carrera o el candidato político que te gusta, es posible que acabes olvidando cómo hacerlo tú mismo. La IA puede deshabilitarte no solo en el plano profesional, sino también en la búsqueda íntimamente personal de la autocreación. Elegir bien en la vida y construir una identidad que tenga sentido y te haga feliz es un logro. Al subcontratar este poder a una IA, pierdes gradualmente la responsabilidad por tu vida y, en última instancia, por quién eres.
Una crisis de identidad muy moderna
A veces, puede que desees que alguien te diga qué hacer o quién eres, pero, como hemos visto, esto tiene un precio. Es difícil saber si confiar en los sistemas de recomendación y elaboración de perfiles de IA y cuándo hacerlo. Más importante aún, al subcontratar las decisiones a la IA, puedes dejar de cumplir con la exigencia moral de crearte a ti mismo y asumir la responsabilidad de quién eres. En el proceso, puedes perder habilidades para la autocreación, calcificar tu identidad y ceder el poder sobre tu identidad a las empresas y al gobierno. Estas preocupaciones pesan especialmente en los casos que involucran las decisiones y características más importantes de tu identidad. Pero incluso en los casos más mundanos, sería bueno dejar de lado los sistemas de recomendación de vez en cuando y ser más activo y creativo al seleccionar películas, música, libros o noticias. Esto, a su vez, exige investigación, riesgo y autorreflexión.
Por supuesto, a menudo tomamos malas decisiones, pero esto tiene un lado positivo: al exponernos a influencias y entornos que no se ajustan perfectamente a nuestra forma de ser actual, nos desarrollamos. Mudarnos a una ciudad que nos haga infelices podría alterar nuestros ritmos de vida habituales y empujarnos, por ejemplo, a buscar un nuevo pasatiempo. Depender constantemente de los sistemas de recomendación de IA podría calcificar nuestra identidad. Sin embargo, esta no es una característica necesaria de los sistemas de recomendación. En teoría, podrían estar diseñados para ampliar el horizonte del usuario, en lugar de maximizar la interacción mostrándoles lo que ya les gusta. En la práctica, no es así como funcionan.
Este efecto calcificador se refuerza cuando la creación de perfiles por parte de la IA se convierte en una profecía autocumplida. Puede convertirte lentamente en lo que la IA predijo que serías y perpetuar las características que la IA haya detectado. Al recomendar productos y mostrar anuncios, noticias y otros contenidos, es más probable que consumas, pienses y actúes de la manera que el sistema de IA consideró inicialmente adecuada para ti. La tecnología puede influir gradualmente en ti de modo que evoluciones hasta convertirte en quien originalmente te llevó a ser.