¿Quién manda aquí, los humanos o la inteligencia artificial?

La tecnología llega a nuestras vidas en forma de olas, algunas suaves y tranquilas, otras de varios metros de altura y con toda la fuerza que la naturaleza les da. No siempre somos capaces de verlas venir y no siempre somos capaces de poderlas absorber. La historia de la humanidad se explica por la constante e imprevisible llegada de estas olas que redibujan la línea de la costa. La rueda, el fuego, la imprenta o el vapor han sido olas que han permitido escribir nuestra historia, que han redibujado nuestras formar de producir bienes, que han modificado nuestros comportamientos y relaciones, que han creado y evolucionado sociedades. Y estamos ahora mismo ante una de esas olas, fuerte, grande y seguramente indomable (al menos en el corto plazo): la inteligencia artificial.

Escribía, recientemente, una responsable de Meta que es inútil oponerse a estos cambios porque explican la evolución de la humanidad y marcan nuestro avance como especie. Aunque olvida, en su afirmación, que el avance no debería ser a cualquier precio.

Y es que este precio no tenemos claro todavía cual será, aunque un liberalismo salvaje en su uso quizás nos lleve a darnos cuenta del enrome poder de influencia que puede tener o, más bien, que ya tiene hoy en día entre nosotros. Poder que se manifiesta a través de los sesgos, pero, sobre todo, a través de la transferencia de la IA hacia los humanos.

El primero de estos poderes son los sesgos, es decir, cómo las desigualdades o los prejuicios que tenemos los humanos se filtran en los algoritmos de inteligencia artificial produciendo, a su vez, resultados finales que según el punto de vista con que los miramos consideramos incorrectos.

Los algoritmos de IA tienen dos características: están creados por humanos y usan una gran cantidad de datos para ser entrenados. Y aquí aparecen los sesgos. En cuanto a los humanos, incorporamos en nuestro bagaje el resultado de múltiples interacciones con nuestro entorno, nuestra familia, el ámbito geográfico, educativo y, ¿por qué no?, también social (dónde y cómo hemos crecido). Hemos incorporado un conjunto de filtros con los que nos relacionamos con el mundo, filtros que, por supuesto, incluyen miradas parciales y no iguales por parte de todos. Y a esto le añadimos los datos a partir de los cuales estos algoritmos son entrenados, datos que pueden incluir prejuicios, desigualdades.

La tecnología no es neutral, los algoritmos no tienen vida propia, son el resultado del entorno en que han sido creados, programados y entrenados

Solo a modo de ejemplo, en un análisis de más de 5.000 imágenes de IA, Bloomberg descubrió que las imágenes asociadas a puestos de trabajo mejor pagados mostraban a personas con tonos de piel más claros, y que en los resultados de la mayoría de los puestos profesionales predominaban los hombres.

La tecnología no es neutral, los algoritmos no tienen vida propia, son el resultado del entorno en que han sido creados, programados y entrenados, son el reflejo del contexto social en el que se desarrollan.

Aunque seguramente hasta aquí no hay mucha sorpresa. Los algoritmos reproducen los sesgos con los que convivimos, las desigualdades que impregnan nuestra sociedad.

Pero, ¿y el viaje inverso? ¿Podría ser que en vez de que un algoritmo incorpore los sesgos que los humanos tenemos, seamos los humanos los que incorporemos los sesgos que resultan del uso de algoritmos de IA? Aquí aparece el segundo de los grandes poderes de influencia de la IA.

La respuesta parece evidente en cuanto que consumimos resultados fruto del uso de algoritmos de IA (recomendaciones de productos en Amazon, series o películas que Netflix nos indica que nos gustan, artículos que producimos con ChatGPT o fotografías que colocamos en nuestras presentaciones creadas por MidJourney), resultados que pocas veces cuestionamos y que, seguramente, ni nos planteamos que puedan incluir sesgos. Sobre todo, cuando estos sesgos son casi transparentes por estar alineados con nuestros valores, pensamientos o filtros con los que vemos el mundo (le pedimos a un algoritmo que nos cree la imagen de un doctor y su género será masculino; o si la imagen es de una mujer, con alta probabilidad será de piel blanca).

Le pedimos a un algoritmo que nos cree la imagen de un doctor y su género será masculino; o si la imagen es de una mujer, con alta probabilidad será de piel blanca

Pero más allá de esta evidente transferencia de sesgos desde la IA hacia los humanos, es interesante entender por qué lo hacemos. Vivimos en una sociedad consciente de la existencia y proliferación de fake news, convivimos con las defensas en estado de alerta evitando que nos cuelen noticias falsas y, en cambio, aceptamos casi sin pestañear esta transferencia de sesgos.

Afirma Celeste Kidd, profesora adjunta de psicología en la Universidad de California en Berkeley, que «el grado de influencia de una fuente de información depende de lo inteligente que se la considere».

Interesante afirmación que nos ayuda, quizás, a obtener más luz acerca de los motivos de esta transferencia de sesgos, la rápida adopción que como especie humana hacemos de la inteligencia artificial, como herramienta comodina que sirve para cualquier finalidad, que, aun siendo una profunda caja negra en cuanto a la generación de resultados, asumimos como (casi) verdad absoluta.

En el entorno educativo hablamos de las competencias duraderas como aquellas competencias profesionales que adquirimos y que son transferibles entre ámbitos y contextos, con independencia de la evolución tecnológica y/o sectorial (las conocidas también como hard skills). Pensamiento crítico, toma de decisiones o habilidades en la comunicación serían tres de sus máximos exponentes. Y aquí podemos encontrar la solución que nos ayude, al menos, a tomar consciencia de esta transferencia y de nuestra necesidad como especie humana de cuestionarla.

La IA es, efectivamente, una gran ola tecnológica, con una capacidad de modificar todo aquello que cubre, pero debería seguir siendo el pensamiento humano –nuestra capacidad de mirar de forma crítica nuestro entorno y nuestro sentido común– el que nos ayude a dibujar las líneas de interacción con la IA. ¿Quién tiene el poder?


Marc Cortés es director Executive Master Digital Business Esade

¿Quién manda aquí, los humanos o la inteligencia artificial?

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.