El software de inteligencia artificial y análisis facial se está volviendo común en las entrevistas de trabajo. La tecnología, desarrollada por la compañía estadounidense HireVue, analiza el idioma y el tono de la voz de un candidato y registra sus expresiones faciales mientras se graban en video respondiendo preguntas idénticas.
Fue utilizado en el Reino Unido por primera vez en septiembre, pero se ha utilizado en todo el mundo durante varios años. Unas 700 empresas, incluidas Vodafone, Hilton y Urban Outfitters, lo han probado .
Ciertamente, se pueden obtener importantes beneficios de esto. HireVue dice que acelera el proceso de contratación en un 90% gracias a la velocidad del procesamiento de la información. Pero hay riesgos importantes de los que debemos tener cuidado cuando subcontratamos entrevistas de trabajo a AI.
La IA se basa en algoritmos que evalúan a los solicitantes en su base de datos de aproximadamente 25,000 piezas de información facial y lingüística. Estos se compilan de entrevistas previas de «contrataciones exitosas», aquellos que han llegado a ser buenos en el trabajo. Los 350 elementos lingüísticos incluyen criterios como el tono de voz de un candidato, su uso de palabras pasivas o activas, la duración de la oración y la velocidad con la que hablan. Los miles de rasgos faciales analizados incluyen fruncir el ceño, levantar cejas, la cantidad de ojos que se abren o cierran, apretar los labios, levantar la barbilla y sonreír.
El problema fundamental con esto, como a menudo señalan los críticos de la IA, es que esta tecnología no nace en una sociedad perfecta . Se crea dentro de nuestra sociedad existente, marcada por una amplia gama de diferentes tipos de prejuicios, prejuicios, desigualdades y discriminación.Los datos sobre los cuales los algoritmos «aprenden» a juzgar a los candidatos contienen estos conjuntos de creencias existentes.
Como la profesora de UCLA, Safya Noble, demuestra en su libro Algorithms of Oppression , algunas búsquedas simples en Google muestran que esto está sucediendo. Por ejemplo, cuando busca el término «estilo de profesor», Google Images devuelve exclusivamente hombres blancos de mediana edad. Obtiene resultados similares para una búsqueda de «gerente exitoso». Por el contrario, una búsqueda de «limpieza» muestra imágenes de mujeres.
Esto refleja cómo los algoritmos han «aprendido» que los profesores y gerentes son en su mayoría hombres blancos, mientras que los que realizan tareas domésticas son mujeres. Y al entregar estos resultados, los algoritmos necesariamente contribuyen a la consolidación, perpetuación y potencialmente incluso a la amplificación de las creencias y prejuicios existentes. Por esta misma razón, debemos cuestionar la inteligencia de la IA. Las soluciones que proporciona son necesariamente conservadoras, dejando poco espacio para la innovación y el progreso social.
‘Capital simbólico’
Como el sociólogo francés Pierre Bourdieu enfatizó en su trabajo sobre la forma en que se reproducen las desigualdades, todos tenemos un capital económico y cultural muy diferente. El entorno en el que crecemos, la calidad de la enseñanza que tuvimos, la presencia o ausencia de actividades extracurriculares y una variedad de otros factores, tienen un impacto decisivo en nuestras habilidades y fortalezas intelectuales. Esto también tiene un gran impacto en la forma en que nos percibimos a nosotros mismos: nuestros niveles de autoconfianza, los objetivos que nos fijamos y nuestras oportunidades en la vida.
Otro famoso sociólogo, Erving Goffman , lo llamó un «sentido del lugar de uno». Es este sentido arraigado de cómo debemos actuar lo que lleva a las personas con menos capital cultural (generalmente de entornos menos privilegiados) a mantener su lugar «ordinario». Esto también se refleja en nuestro lenguaje corporal y la forma en que hablamos.Entonces, hay quienes, desde una edad temprana, tienen una mayor confianza en sus habilidades y conocimientos. Y hay muchos otros que no han estado expuestos a las mismas enseñanzas y prácticas culturales, y pueden ser más tímidos y reservados. Incluso pueden sufrir de un complejo de inferioridad.
Todo esto se verá en entrevistas de trabajo. La facilidad, la confianza, la seguridad en sí mismo y las habilidades lingüísticas se convierten en lo que Bourdieu llamó «capital simbólico». Quienes lo posean tendrán más éxito, ya sea que esas cualidades sean realmente mejores o no, o que aporten algo nuevo al trabajo.
Por supuesto, esto es algo que siempre ha sido el caso en la sociedad.Pero la inteligencia artificial solo lo reforzará, particularmente cuando la IA recibe datos de los candidatos que tuvieron éxito en el pasado. Esto significa que es probable que las empresas contraten a los mismos tipos de personas que siempre han contratado.
El gran riesgo aquí es que todas esas personas son del mismo conjunto de antecedentes. Los algoritmos dejan poco espacio para la apreciación subjetiva, para asumir riesgos o para actuar sobre el sentimiento de que una persona debería tener una oportunidad.
Además, esta tecnología puede conducir al rechazo de personas talentosas e innovadoras que simplemente no se ajustan al perfil de aquellos que sonríen en el momento adecuado o tienen el tono de voz requerido. Y esto en realidad puede ser malo para las empresas a largo plazo, ya que corren el riesgo de perder el talento que viene en formas no convencionales.
Más preocupante es que esta tecnología también puede excluir inadvertidamente a personas de diversos orígenes y dar más oportunidades a quienes provienen de personas privilegiadas. Como regla, poseen un mayor capital económico y social, lo que les permite obtener las habilidades que se convierten en capital simbólico en una entrevista.
Lo que vemos aquí es otra manifestación de los problemas más generales con la IA. La tecnología que se desarrolla utilizando datos de nuestra sociedad existente, con sus diversas desigualdades y sesgos, es probable que los reproduzca en las soluciones y decisiones que propone.
https://theconversation.com/facial-analysis-ai-is-being-used-in-job-interviews-it-will-probably-reinforce-inequality-124790