El algoritmo de la plataforma de redes sociales Instagram promociona contenido sexual para adultos, así como material sexualizado para niños, junto con anuncios de las principales empresas y marcas de Estados Unidos, según una investigación reciente de The Wall Street Journal ( WSJ ).
La investigación , que buscó determinar qué contenidos recomienda el algoritmo de la plataforma mediante la creación de cuentas de prueba, consistió en seguir a jóvenes gimnastas, porristas y otros influencers adolescentes activos.
Las cuentas de prueba fueron rápidamente bombardeadas con “contenido lascivo”, como imágenes inapropiadas de niños y “videos abiertamente sexuales para adultos”, ya sea encima o debajo de anuncios de marcas como Pizza Hut, Disney, Walmart y la aplicación de citas Bumble.
Otras imágenes recomendadas por Instagram mostraban a una joven con el rostro oscurecido digitalmente levantando su camiseta para exponer su estómago, un hombre acostado en una cama con sus brazos alrededor de lo que el título describía como una niña de 10 años, también como alguien acariciando una muñeca de látex de tamaño natural.
Peor aún, la investigación del WSJ no fue la única que descubrió esta tendencia, ya que el Centro Canadiense para la Protección Infantil realizó sus propias pruebas con resultados similares durante los últimos meses.
«Una y otra vez, hemos visto algoritmos de recomendación que impulsan a los usuarios a descubrir y luego entrar en estas comunidades de explotación infantil en línea», dijo la directora ejecutiva del centro canadiense, Lianna McDonald, quien expresó su disgusto por el hecho de que las grandes empresas estuvieran subsidiando el proceso a través de anuncios. .
En respuesta a la investigación, Meta , propietaria de Instagram, vicepresidenta del Consejo de Clientes y Relaciones Comerciales de la Industria, Samantha Stetson , dijo: «Nuestros sistemas son eficaces para reducir el contenido dañino y hemos invertido miles de millones en seguridad e idoneidad de la marca». soluciones”.