Expertos: las naciones europeas deberían prohibir la puntuación del crédito social

chinasocialcredit.jpg

Los tecnócratas en la UE se inclinan por la vigilancia total y el control de las personas, pero un grupo asesor independiente de alto nivel ha advertido contra el uso de la inteligencia artificial para la vigilancia masiva y el puntaje de crédito social.

Un grupo de expertos independientes encargado de asesorar a la Comisión Europea para informar su respuesta reguladora a la inteligencia artificial, para respaldar el objetivo declarado de los legisladores de la UE de garantizar que los desarrollos de la inteligencia artificial estén “centrados en el ser humano”, ha publicado sus recomendaciones de políticas e inversiones.

Esto sigue pautas de ética anteriores para la “IA confiable”, emitida por el Grupo de expertos de alto nivel (HLEG) para la IA en abril, cuando la Comisión también pidió a los participantes que probaran el borrador de las reglas.

Las recomendaciones de política completas de AI HLEG incluyen un documento altamente detallado de 50 páginas, que se puede descargar desde esta página web. El grupo, que se creó en junio de 2018, está formado por una mezcla de expertos en inteligencia artificial de la industria, representantes de la sociedad civil, asesores políticos y expertos en política, académicos y legales.

El documento incluye advertencias sobre el uso de la inteligencia artificial para la vigilancia masiva y la calificación de los ciudadanos de la UE, como el sistema de crédito social de China, y el grupo pide una prohibición total de la “calificación de personas en escala masiva habilitada para la IA”. También insta a los gobiernos a comprometerse a no participar en la vigilancia general de las poblaciones con fines de seguridad nacional. (Así que quizás sea mejor que el Reino Unido haya votado a favor de abandonar la UE, dados los poderes de vigilancia del estado cambiante que aprobó a finales de 2016).

“Si bien puede haber una fuerte tentación para que los gobiernos  ‘aseguren una sociedad’ al construir un sistema de vigilancia generalizado basado en sistemas de inteligencia artificial, esto sería extremadamente peligroso si se lo lleva a niveles extremos”, escribe HLEG. “Los gobiernos deben comprometerse a no participar en la vigilancia masiva de individuos y a desplegar y adquirir únicamente sistemas de AI confiables, diseñados para ser respetuosos de la ley y los derechos fundamentales, alineados con los principios éticos y socio-técnicamente sólidos”.

El grupo también solicita que se “contrarreste” la vigilancia comercial de individuos y sociedades, lo que sugiere que la respuesta de la UE a la potencia y el potencial de uso indebido de las tecnologías de IA debe incluir garantizar que el seguimiento de personas en línea esté “estrictamente en línea con los derechos fundamentales, como la privacidad”, Incluido (el grupo especifica) cuando se trata de servicios ‘gratuitos’ (aunque con una ligera advertencia sobre la necesidad de considerar cómo se ven afectados los modelos de negocios).

La semana pasada, el organismo de control de protección de datos del Reino Unido disparó un tiro aún más específico a través de los lazos de la industria de publicidad de comportamiento en línea, advirtiendo que el procesamiento a gran escala de los datos personales de los usuarios de la web para orientar anuncios no cumple con las normas de privacidad de la UE. Se le dijo a la industria que sus prácticas de infracción de derechos deben cambiar, incluso si la Oficina del Comisionado de Información no está a punto de derribar el martillo todavía. Pero la advertencia de reforma fue clara.

A medida que los responsables políticos de la UE trabajan en la creación de un marco regulatorio que respete los derechos para la inteligencia artificial, la búsqueda de orientar los próximos diez años de desarrollos tecnológicos de vanguardia en la región, la atención y el control más amplios que se centrarán en las prácticas digitales y los modelos de negocios parecen listos para impulsar una limpieza de prácticas digitales problemáticas que han sido capaces de proliferar con poca o ninguna regulación de toque, antes de ahora.

El HLEG también solicita apoyo para desarrollar mecanismos para la protección de datos personales, y para que las personas “controlen y obtengan el poder de sus datos”, argumentan que abordarían “algunos aspectos de los requisitos de AI confiable”.

“Se deben desarrollar herramientas para proporcionar una implementación tecnológica del GDPR y desarrollar métodos de preservación de la privacidad mediante el diseño de los criterios, la causalidad en el procesamiento de datos personales de los sistemas de inteligencia artificial (como el aprendizaje automático federado)”, escriben.

“Apoyar el desarrollo tecnológico de técnicas de anonimización y cifrado y desarrollar estándares para el intercambio seguro de datos basado en el control de datos personales. Promover la educación del público en general en la gestión de datos personales, incluida la concienciación y el empoderamiento de los individuos en los procesos de toma de decisiones basados ​​en datos personales de AI. Crear soluciones tecnológicas para proporcionar a las personas información y control sobre la forma en que se utilizan sus datos, por ejemplo, para la investigación, la gestión del consentimiento y la transparencia a través de las fronteras europeas, así como las mejoras y resultados que se derivan de esto, y desarrollar estándares su intercambio de datos seguro basado en el control de datos personales”.

Expertos: las naciones europeas deberían prohibir la puntuación del crédito social

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.