Algunas escrituras como la latina, griega antigua, incluso la escritura egipcia y sus jeroglíficos son bien conocidas. Pero la escritura fenicio-púnica, centrada en los siglos V al III a. C, es bastante desconocida. Apenas se han encontrado textos en dos lápidas que se conservan en el Museo Arqueológico de Ibiza y Formentera. Una escritura con muchos misterios, como ocurre con los algoritmos, con la diferencia de que estos últimos están en todos los sitios.
A finales de marzo de este año Instagram volvió al orden cronológico. Youtube cambió sus preferencias para la promoción de un video u otro. Google con más de dos millones de páginas en su web funciona con ecuaciones más complejas, aunque con consecuencias muy visibles, por ejemplo, mientras escribo este artículo y hago un par de consultas, me aparece un banner con los cuatro libros que he referenciado esta semana.
A diferencia de los algoritmos convencionales, trazados en fórmulas matemáticas elementales, los que utilizan Google, Facebook y Amazon, resuelven tareas mientras procesan datos
Los algoritmos son básicamente una serie de reglas abstractas para transformar los datos. O sea, lo que siempre se han llamado fórmulas. Cuando no se conocen esas reglas, hablamos de “caja negra”, porque no sabemos cómo funcionan, ni los criterios de su diseño, ni los fines con los que se construyeron. A diferencia de los algoritmos convencionales, trazados en fórmulas matemáticas elementales, los que utilizan Google, Facebook y Amazon, resuelven tareas mientras procesan datos, así se convierten en plataformas que ofrecen información personalizada, de interés para cada usuario.
Estos trozos de código, son instrucciones comprensibles para la máquina, son precisos e inequívocos. Instrucciones contenidas en el código de programación que son finitas, y garantizan los mismos resultados en diferentes condiciones. Cuando Netflix decidió producir sus propias series, analizó los hábitos de consumo de sus millones de abonados. Rápidamente, el algoritmo respondió con tres componentes: Kevin Spacey, David Fincher y los dramas políticos de la BBC. Parece que la cosa (House of Cards) funcionó, su algoritmo de aprendizaje revisa y recalcula el perfil de recomendaciones de más de 250 millones de usuarios cada 24 horas.
Ni los algoritmos son equitativos ni las fuentes elegidas para construir su base de datos están libres de sesgos y prejuicios
Con frecuencia señalamos a los algoritmos cuando lo que importa es identificar a sus diseñadores y sus intenciones. Estas fórmulas no nacen de un ente neutral, ni tampoco maquiavélico, por lo que el análisis de los efectos (y también interpretaciones) del algoritmo en el ámbito de las interfaces, requiere cuestionar la práctica de aquellas personas y organizaciones que participan en la producción y diseño, por consiguiente, siempre consecuencia del factor humano. La neutralidad se ha convertido en un atributo que acompaña “per se” a la tecnología, cuando solo es una consecuencia de la ingenuidad o del desconocimiento. Ni los algoritmos son equitativos, pues siempre hay alguien que crea y define su funcionamiento, así como sus resultados, ni las fuentes elegidas para construir su base de datos están libres de sesgos y prejuicios.
Por poner solo dos ejemplos. Es conocido el estudio de la profesora de la Harvard, Latanya Sweeney, que examinó los anuncios de AdSense mostrados en búsquedas de nombres, relacionados con bebés blancos y bebés afroamericanos. El estudio concluye que los anuncios con la palabra detención, aparecen relacionados en el 80% con la búsqueda de nombres afroamericanos. Los algoritmos utilizados por McDonalds o Gap para administrar a sus empleados, están optimizados para que éstos “no tengan trabajos de tiempo completo, de modo que haya que pagarles los beneficios”, marcados por ley.
¿Puede influir un programa de ordenador en el modo de entender la historia del arte y sus cánones? ¿Podría un algoritmo de inteligencia artificial sustituir a un experto en arte? Sabemos que la clasificación de obras de arte es muy compleja. El examen de una pintura por un experto puede identificar su estilo, género, autor y período. Si el historiador también quiere conocer las influencias con otras corrientes, estilos y autores, todo se complica bastante más. Babak Saleh y su equipo de la Universidad de Rutgers en Nueva Jersey, seleccionó 1700 pinturas de 66 artistas desde el siglo XIX hasta finales del XX, se sirvió de una computadora que clasifica pinturas y encuentra las conexiones en un momento. Incluso han podido descubrir influencias entre artistas que los historiadores del arte nunca han reconocido hasta ahora.
“Todo lo que la gente hace y ve en la web es producto de algoritmos”, detalla un informe de expertos en el Pew Research Center. Por tanto, los algoritmos no solo están presentes en todos y cada uno de los ámbitos cotidianos que nos rodean, también nos invitan a relajarnos con tareas mecánicas o complejas, invitan a que confiemos cada vez más en unos sistemas cuyos resultados mejoran a medida que los alimentamos con más datos. Tan evidente es la eficiencia de la inteligencia artificial, como que sus algoritmos colonizan el hábitat cotidiano y procesan nuestra información, aunque seamos poco conscientes, y sus procedimientos permanezcan invisibles. Adam Greenfieldse suma a la larga lista de autores que describe una sociedad tecno-dependiente de los dispositivos móviles, hipnotizada a las brillantes pantallas.
Parece que después de Blade Runner la realidad está invertida, somos los humanos quienes tenemos que comprobar cada día que no somos un producto artificial
Parece que después de Blade Runner la realidad está invertida, somos los humanos quienes tenemos que comprobar cada día que no somos un producto artificial. Así lo comprobamos en la tercera versión de reCaptcha, el sistema creado por Google para identificar si el usuario es real o se trata de un bot. Lo más excitante es que no necesitamos demostrar que somos humanos, ya lo sabe el sistema según nuestras interacciones con el sitio web.
Pero también tienen sus debilidades, bien porque funcionan como no debieran, bien por los datos que recogen, o por el modo en que se procesan e interpretan. Algunas empresas como IBM han presentado un servicio de software que detecta automáticamente los sesgos de los algoritmos. El software Fairness 360 Kit, explica la toma de decisiones y detecta el sesgo en los modelos de IA en tiempo de ejecución, a su vez captura los resultados potencialmente sesgados a medida que ocurren. El tiempo demostrará la efectividad de estas medidas, asistimos a una nueva oleada de responsabilidad social corporativa en las grandes empresas, cuyo objetivo es dar credibilidad a lo invisible.
Foto: Película Blade Runner 2049, de Denis Villeneuve