¿Las leyes de seguridad en línea del gobierno para las redes sociales vendrán a costa de la libertad de expresión?

El gobierno planea cambiar la ley para que las empresas de redes sociales como Facebook y Twitter no tengan más remedio que asumir la responsabilidad de la seguridad de sus usuarios.

Los planes para imponer un deber de diligencia a los servicios en línea significan que las empresas tendrán que determinar si el contenido presenta » un riesgo razonablemente previsible de un impacto físico o psicológico adverso significativo » para todos sus usuarios.

El incumplimiento de la nueva norma del deber de cuidado podría dar lugar a sanciones de hasta 18 millones de libras esterlinas o el 10% de la facturación anual global y el bloqueo del acceso a sus servicios en el Reino Unido.

El gobierno del Reino Unido ha publicado su respuesta final a la opinión del público sobre el documento técnico sobre daños en línea que publicó en abril de 2019 en previsión de un «proyecto de ley de seguridad en línea» programado para ser presentado en 2021 .

Si bien tienen buenas intenciones, las propuestas del gobierno carecen de instrucciones claras para guiar a los reguladores y las empresas de redes sociales. Al no hacerlo, el gobierno ha creado una amenaza a la libertad de expresión en el proceso.

Un historial inconsistente

Según las propuestas, las empresas deberán tomar medidas para limitar la propagación de contenido dañino, en proporción a su gravedad y escala .

Actualmente, las empresas de redes sociales solo están obligadas a eliminar el contenido generado por el usuario alojado en sus servicios en circunstancias muy específicas (si el contenido es ilegal, por ejemplo). Por lo general, son libres de decidir qué contenido debe limitarse o prohibirse. Solo necesitan adherirse a los estándares de su propia comunidad, con resultados a veces mixtos.

Persona mirando Facebook en su teléfono y en su computadora portátil con una taza de café junto a ellos
Las empresas de redes sociales no pueden alcanzar un objetivo si no saben cuál es. PK Studio / Shutterstock

Como informó Facebook en su informe de cumplimiento de los estándares comunitarios , durante el primer trimestre de 2020 solo encontró y marcó el 15,6% del contenido de «intimidación y acoso» antes de que los usuarios lo informaran. Por el contrario, la empresa detectó de forma preventiva el 99% de todo el contenido «violento y gráfico» antes de que los usuarios lo denunciaran. Esta disparidad en las tasas de detección indica que los procesos utilizados para identificar el contenido «dañino» funcionan cuando los criterios son claros y bien definidos, pero, como muestra la figura del 15,6%, fallan cuando la interpretación y el contexto entran en juego.

Las empresas de redes sociales han sido criticadas por hacer cumplir de manera inconsistente las prohibiciones sobre el discurso de odio y el contenido sexista . Debido a que solo necesitan justificar las decisiones de abandonar o eliminar contenido legal pero potencialmente dañino según los estándares de su propia comunidad, no corren el riesgo de repercusiones legales. Si no está claro si una parte del contenido viola las reglas, es decisión de la compañía si la elimina o la deja. Sin embargo, las evaluaciones de riesgo bajo el marco regulatorio establecido en las propuestas del gobierno podrían ser muy diferentes.

Falta de evidencia

Tanto en el libro blanco como en la respuesta completa, el gobierno proporciona información insuficiente sobre el impacto de los daños que busca limitar. Por ejemplo, el libro blanco establece que uno de cada cinco niños de 11 a 19 años informó haber experimentado ciberacoso en 2017, pero no demuestra cómo (y cuánto) se vieron afectados esos niños. Se asume simplemente que los tipos de contenido en el alcance son dañinos con poca justificación de por qué, o en qué medida, su regulación justifica limitar la libertad de expresión .

símbolo grande gris en con un paño rojo alrededor de la boca de la cara en el costado
Debería proporcionarse a los reguladores y empresas privadas una orientación clara sobre la evaluación de los daños en línea. Fuente de luz / Shutterstock

Como muestra el registro de Facebook, puede ser difícil interpretar el significado y el impacto potencial del contenido en casos en los que la subjetividad está involucrada. Cuando se trata de evaluar los efectos nocivos del contenido en línea, la ambigüedad es la regla, no la excepción.

A pesar de la base creciente de la investigación académica sobre los daños en línea, se pueden hacer pocas afirmaciones directas sobre las asociaciones entre los diferentes tipos de contenido y la experiencia del daño.

Por ejemplo, existe evidencia de que el contenido que favorece el trastorno alimentario puede ser perjudicial para determinadas personas vulnerables, pero no afecta a la mayoría de la población en general. Por otro lado, dicho contenido también puede actuar como un medio de apoyo para las personas que luchan contra los trastornos alimentarios. Entendiendo que dicho contenido es riesgoso para algunos y útil para otros, ¿debería ser limitado? Si es así, ¿cuánto y para quién?

La falta de evidencia disponible y rigurosa deja a las empresas de redes sociales y a los reguladores sin puntos de referencia para evaluar los peligros potenciales del contenido generado por los usuarios. Dejadas a sus propios dispositivos, las empresas de redes sociales pueden establecer los estándares que mejor sirvan a sus propios intereses.

Consecuencias para la libertad de expresión

Las empresas de redes sociales ya no logran hacer cumplir de manera constante sus propios estándares comunitarios. Según las propuestas del gobierno del Reino Unido, tendrían que respetar un deber de cuidado vagamente definido sin una explicación adecuada de cómo hacerlo. En ausencia de una guía práctica para cumplir con ese deber, es posible que simplemente continúen eligiendo el camino de menor resistencia bloqueando con celo el contenido cuestionable.

Las propuestas del gobierno no demuestran adecuadamente que los daños presentados justifiquen severas limitaciones potenciales de la libertad de expresión. Para garantizar que el proyecto de ley de seguridad en línea no dé lugar a esas restricciones injustificadas, deben proporcionarse a los reguladores y los servicios de redes sociales en cuestión una orientación más clara sobre la evaluación de los daños en línea.

https://theconversation.com/will-the-governments-online-safety-laws-for-social-media-come-at-the-cost-of-free-speech-152352

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.