Desinformación: las empresas de tecnología están eliminando el contenido ‘dañino’ del coronavirus, pero ¿quién decide qué significa eso?

La “infodemia” de información errónea sobre el coronavirus ha dificultado la distinción entre información precisa y consejos falsos y engañosos. Las principales empresas de tecnología han respondido a este desafío adoptando la medida sin precedentes de trabajar juntas para combatir la información errónea sobre COVID-19.

Parte de esta iniciativa implica promover contenido de agencias gubernamentales de atención médica y otras fuentes autorizadas, e introducir medidas para identificar y eliminar contenido que podría causar daño. Por ejemplo, Twitter ha ampliado su definición de daño para abordar el contenido que contradice la orientación de fuentes autorizadas de información de salud pública.

Facebook ha contratado servicios adicionales de verificación de datos para eliminar la información errónea que podría provocar un daño físico inminente . YouTube ha publicado una Política de desinformación médica COVID-19 que no permite «contenido sobre COVID-19 que presente un riesgo grave de daño atroz».

El problema con este enfoque es que no existe un entendimiento común de lo que constituye un daño. Las diferentes formas en que estas empresas definen el daño pueden producir resultados muy diferentes, lo que socava la confianza pública en la capacidad de las empresas de tecnología para moderar la información sanitaria. Como argumentamos en un artículo de investigación reciente , para abordar este problema, estas empresas deben ser más consistentes en la forma en que definen el daño y más transparentes en la forma en que responden a él.

La ciencia está sujeta a cambios

Un problema clave al evaluar la información errónea sobre la salud durante la pandemia ha sido la novedad del virus. Todavía hay mucho que no sabemos sobre COVID-19, y es probable que mucho de lo que creemos que sabemos cambie en función de los hallazgos emergentes y los nuevos descubrimientos. Esto tiene un impacto directo sobre qué contenido se considera perjudicial.

La presión para que los científicos produzcan y compartan sus hallazgos durante la pandemia también puede socavar la calidad de la investigación científica. Los servidores de preimpresión permiten a los científicos publicar rápidamente la investigación antes de que sea revisada. Los ensayos controlados aleatorios de alta calidad llevan tiempo. Varios artículos en revistas revisadas por pares se han retirado debido a fuentes de datos poco confiables.

Incluso la Organización Mundial de la Salud (OMS) ha cambiado su posición sobre la transmisión y prevención de la enfermedad. Por ejemplo, no comenzó a recomendar que las personas sanas usen máscaras faciales en público hasta el 5 de junio, «según los nuevos hallazgos científicos» .

El científico jefe de la Organización Mundial de la Salud, Soumya Swaminathan, se sienta frente a los micrófonos
La Organización Mundial de la Salud ha actualizado sus recomendaciones a medida que han surgido nuevas pruebas. TEJIDO COFFRINI / EPA

Sin embargo, las principales empresas de redes sociales se han comprometido a eliminar las afirmaciones que contradicen las directrices de la OMS. Como resultado, podrían eliminar contenido que luego resulte ser preciso.

Esto destaca los límites de basar las políticas de daños en una sola fuente autorizada. El cambio es intrínseco al método científico. Incluso los consejos autorizados están sujetos a debate, modificación y revisión.

El daño es político

Evaluar el daño de esta manera tampoco tiene en cuenta las inconsistencias en los mensajes de salud pública en diferentes países. Por ejemplo, las respuestas iniciales de Suecia y Nueva Zelanda al COVID-19 fueron diametralmente opuestas, la primera basada en la “inmunidad colectiva  y la segunda con el objetivo de eliminar el virus . Sin embargo, ambos se basaron en consejos científicos autorizados. Incluso dentro de los países, las políticas de salud pública difieren a nivel estatal y nacional y existe desacuerdo entre los expertos científicos .

Exactamente lo que se considera dañino puede politizarse, como ejemplifican los debates sobre el uso de hidroxicloroquina e ibuprofeno como posibles tratamientos para el COVID-19. Además, hay algunas preguntas que la ciencia no puede responder únicamente. Por ejemplo, si se debe priorizar la salud pública o la economía. Estas son consideraciones éticas que siguen siendo muy controvertidas.

La moderación del contenido en línea implica inevitablemente arbitrar entre intereses y valores en competencia. Para responder a la velocidad y escala del contenido generado por el usuario, la moderación de las redes sociales se basa principalmente en algoritmos informáticos. Los usuarios también pueden marcar o informar sobre contenido potencialmente dañino.

A pesar de estar diseñados para reducir el daño, estos sistemas pueden ser utilizados por usuarios inteligentes para generar publicidad y desconfianza. Este es particularmente el caso de las campañas de desinformación , que buscan provocar miedo, incertidumbre y duda.

Los usuarios pueden aprovechar el lenguaje matizado sobre la prevención y los tratamientos de enfermedades. Por ejemplo, las anécdotas personales sobre dietas y suplementos que «estimulan el sistema inmunológico» pueden ser engañosas pero difíciles de verificar. Como resultado, estas afirmaciones no siempre entran dentro de la definición de daño.

De manera similar, el uso del humor y sacar el contenido de contexto ( “la armamentización del contexto” ) son estrategias comúnmente utilizadas para evitar la moderación del contenido. Los memes, las imágenes y las preguntas de Internet también han jugado un papel crucial en generar desconfianza hacia la ciencia y la política dominantes durante la pandemia y ayudaron a alimentar las teorías de la conspiración .

Transparencia y confianza

La vaguedad e inconsistencia de la moderación del contenido de las empresas de tecnología significa que algunos contenidos y cuentas de usuario se degradan o eliminan, mientras que otros contenidos posiblemente dañinos permanecen en línea. Los “informes de transparencia” publicados por Twitter y Facebook solo contienen estadísticas generales sobre las solicitudes de los países para la eliminación de contenido y pocos detalles sobre qué se elimina y por qué.

Esta falta de transparencia significa que no se puede responsabilizar adecuadamente a estas empresas por los problemas con sus intentos de abordar la desinformación, y es poco probable que la situación mejore. Por esta razón, creemos que se debería exigir a las empresas de tecnología que publiquen detalles de sus algoritmos de moderación y un registro de la información errónea de salud eliminada. Esto aumentaría la responsabilidad y permitiría el debate público cuando el contenido o las cuentas parezcan haber sido eliminados injustamente.

Además, estas empresas deben destacar las afirmaciones que pueden no ser abiertamente dañinas pero que pueden inducir a error o contradecir los consejos oficiales. Este tipo de etiquetado proporcionaría a los usuarios información creíble con la que interpretar estas afirmaciones sin suprimir el debate.

A través de una mayor consistencia y transparencia en su moderación, las empresas de tecnología proporcionarán contenido más confiable y aumentarán la confianza del público, algo que nunca ha sido más importante.

https://theconversation.com/misinformation-tech-companies-are-removing-harmful-coronavirus-content-but-who-decides-what-that-means-144534

Un comentario en “Desinformación: las empresas de tecnología están eliminando el contenido ‘dañino’ del coronavirus, pero ¿quién decide qué significa eso?

  1. ¿ Libertad o veracidad ?¿ Cuál de las dos estás dispuesto a sacrificar ?

    Es así de simple que no sencillo. Si quieres libertad tendrás que admitir la existencia de montones de basura informativa. Difusión de noticias falsas o erróneas, interesadas y tendenciosas, peligrosas y adoctrinadoras. Si quieres veracidad tendrás que admitir que algo o alguien decida qué se publica y qué no. Y confiar en sus medios y sus criterios.

    No es algo nuevo. Sólo es lo mismo que ocurre con los medios de comunicación tradicionales desde hace mucho tiempo, ahora trasladado a la red y los medios digitales. En los medios analógicos perdió primero la libertad y después la veracidad. En internet hemos tenido años de libertad sacrificando la veracidad. Ahora esto empieza a tomar una deriva clásica y convencional. ¿ Cómo acabará ? Lógicamente recorrerá el mismo camino que la información analógica. Y finalmente acabará siendo un enorme folleto comercial y una plataforma de dominio y control. Nada dura para siempre.

    Es curioso que haya tanto interés en torno a la covid 19, la tecnología 5G y demás negocietes modernos y lucrativos, y nada se haga sobre otros temas probablemente más dañinos y peligrosos.

    Hay miles de páginas sobre religiones, oficiales y particulares, sin control alguno. Miles de páginas sobre prácticas peligrosas y descabelladas que nadie cuestiona. Miles de páginas con informaciones falsas, datos manipulados e intereses oscuros que viven sin problemas.

    Lo desalentador es la certeza de que aquellos que dicen protegernos de la manipulación y la errónea información, persiguen manipularnos controlando nuestra información.

    1984

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.