Se presenta la primera regulación sobre inteligencia artificial, ¿por qué nos debería interesar?

© // Stock Getty Images Inteligencia Artificial

Tal parece que las películas de ciencia ficción por fin dieron frutos. La Unión Europea (UE) prepara una batería de medidas para abordar las oportunidades y desafíos de la inteligencia artificial. Es un hecho histórico, pues se trata del primer marco legal sobre esta tecnología, que además llega acompañada de otra normativa sobre maquinaria y robots. Les contamos por qué es un paso tan importante para entender nuestra relación con la tecnología.

Según la Unión Europea, tomar medidas sobre la inteligencia artificial se ha hecho necesario para «garantizar la seguridad y prevenir el riesgo que hoy ya representa el uso de estas tecnologías».

Para empezar, dentro de este primer paquete de medidas, se prohíbe el reconocimiento facial en determinadas situaciones y también establece clasificaciones de riesgo para identificar y evitar IA que manipule el comportamiento humano e incite a la violencia. Pero vamos por partes.

La Inteligencia artificial (IA)

Antes de comentar en qué consiste la regulación de la UE, es necesario recordar un par de eventos que han sido, entre otros, los que potenciaron la expectativa y creencia en la IA.

A pesar de que la noción de Inteligencia Artificial se viene discutiendo desde mediados del siglo XX, uno de los momentos más icónicos mediáticamente ocurrió en 1996, cuando vimos al entonces campeón del mundo en ajedrez Kaspárov enfrentado en una partida con el ordenador Deep Blue de IBM; por otra parte, en 2012, se empezó a escuchar el término deep learning con un sistema de Google capaz de identificar gatos en imágenes; luego, en 2015, AlphaGo fue la primera máquina que le ganó a un jugador profesional del juego chino Go.

A pesar de la promesa que supone para cambiar nuestras vidas la IA, no podemos olvidar los problemas que ha generado a sistemas tecnológicos en ámbitos económicos, de comunicación y seguridad.

Los ciberataques a grandes corporaciones; las fake news que manipulan las decisiones de las poblaciones; Cambridge analytica y su influencia en elecciones presidenciales gringas; los inconvenientes con los asistentes personales “Siri”, “Alexa” y “Okay Google” que escuchan las conversaciones de los usuarios sin su consentimiento, entre otros casos, fueron posibles, también, gracias a la IA.

De hecho, ya en 2017, la socialista luxemburguesa Mady Delvaux recalcó en la importancia de no solo regular los sistemas de IA, sino además “garantizar la compensación de las víctimas, incluso cuando la autonomía de los sistemas no permita identificar a la persona responsable del daño. También es esencial adaptar las reglas de protección de datos porque estas tecnologías precisan mucha información y puede haber conflictos con la intimidad”.

¿En qué consiste la regulación sobre la IA?

Muchas personas han sentido que la IA ha empezado a intervenir tanto en su vida profesional y personal que la idílica apuesta por la innovación y la seguridad ha afectado derechos fundamentales de algunos individuos.

La gerente del programa educativo del Montreal AI Ethics Institute, Alexandrine Roger, dice que “los científicos de datos y los científicos sociales han comenzado a señalar incidentes en los que los algoritmos violan las normas y valores sociales fundamentales. Los algoritmos pisotearon las nociones de privacidad, justicia, igualdad y se reveló que eran propensos a manipulaciones por parte de sus usuarios”.

Ese miedo a la tecnología lo ejemplifica una película como Hater (2018), en la que muestran la capacidad de manipular la visión sobre el mundo, las decisiones y acciones de los individuos por medio ciertos algoritmos en redes sociales; o también el documental de Netflix The great hack (2019), que discute las implicaciones de Cambridge Analytica en contiendas presidenciales.

Ante los casos de violación a la privacidad, de discriminación, de usos de actos de manera indiscriminada, etc., la Unión Europea considera “necesaria una actuación legislativa para garantizar el correcto funcionamiento del mercado interior de los sistemas de IA, con una ponderación adecuada de los beneficios y de los riesgos. Esto abarca aplicaciones como los sistemas de identificación biométrica o decisiones de IA que afectan a intereses personales importantes”.

Esta propuesta se aplicará a agentes públicos y privados dentro y fuera de la Unión Europea. También a proveedores y usuarios de sistemas IA. Aun así, la comisaria europea de Competencia Margrethe Vestager, enfatizó en que la nueva legislación sobre IA procederá «cuando los derechos fundamentales estén en juego», pero dejará margen para la innovación.

Una consideración problemática, pues ¿quién traza la línea entre la innovación útil y los derechos de los individuos? ¿Se puede prever el potencial daño social de una tecnología innovadora?

Por ejemplo, frente al asunto del reconocimiento facial, se prohíbe su uso en zonas públicas. Esto implica que no será posible que las autoridades lo utilicen para prevenir delitos. Aunque entre las excepciones se encuentra la búsqueda de niños desaparecidos, identificar a un sospechoso de un delito grave y prevenir una amenaza terrorista específica, llama la atención que muchos de sus usos, que también pueden resultar perjudiciales, no serán prohibidos, como mencionan desde la European Digital Rights (EDRi): “la vigilancia policial predictiva, los usos de la IA para el control de la migración, la categorización biométrica de raza, género, sexualidad y también la vigilancia de los trabajadores, que siguen siendo de «alto riesgo”

El Comité Europeo de inteligencia artificial será el encargado de dar recomendaciones sobre los sistemas de IA, generará conocimientos especializados y apoyará actividades de para fortalecer normatividades alrededor del mundo.

Se tienen pensadas sanciones y multas administrativas en los casos que se utilicen o comercialicen sistemas de IA que no cumplan los requisitos del reglamento. Asimismo, con el objetivo de proteger los derechos fundamentales se establecerán requisitos de rendición de cuentas y transparencia para el uso de sistemas de IA de alto riesgo.

Esto, sin duda, es un gran paso, ya que no existen muchas instancias de supervisión de este tipo de tecnologías.

Frente a los sesgos raciales y de género en la IA se busca que puedan favorecer la reducción de los prejuicios y la discriminación existente. Esto porque, como argumenta Safiya Umoja Noble en su libro “Algorithms of Oppression” (2018) los motores de búsqueda por internet están sesgados frente a ciertas poblaciones.

Así, “los términos asociados con las niñas negras, latinas y asiáticas en los motores de búsqueda diferían ampliamente de los relacionados con las niñas blancas. Los mejores resultados para las mujeres de color llevaron a sitios de pornografía y contenido sexualizado.

Noble sostiene “que el número limitado de motores de búsqueda, agravado por los intereses privados que manejan la página de resultados, ha llevado a sistemas de recomendación que privilegian la blancura sobre las personas de color, reforzando así las nociones racistas”.

Categorías de riesgo de la Inteligencia Artificial

Como la preocupación está en los riesgos que la IA representa para determinados sectores, hay que decir que el riesgo se comprende a partir de cuatro categorías:

Riesgo inadmisible Alto riesgo Riesgo limitado Riesgo mínimo.

En riesgo inadmisible se piensan situaciones como uso de técnicas subliminales e identificación biométrica en casos específicos, problemas de seguridad y violación de derechos humanos; en alto riesgo se concentran los problemas en relación con la salud de los individuos, los temas de educación, servicios públicos e inmigración; riesgo limitado puede ser una situación en la que hay probabilidad de manipulación como, por ejemplo, a través de robots conversacionales que se pudieran emplear para orientar las decisiones o acciones de un grupo; y riesgo mínimo, implica que los proveedores pueden, de manera voluntaria, respetar los códigos de conducta en el uso de los sistemas de IA, por ejemplo, para el caso de los videojuegos.

La categorización de los riesgos responde a la necesidad de identificar las posibles afectaciones e implicaciones negativas de los sistemas de IA. No solo los que están dirigidos a grandes invenciones en cuanto maquinaria y robótica, sino los que atraviesan la cotidianidad de los individuos por medio del uso de dispositivos móviles como celulares, tablets y computadores.

De ahí que se haga un llamado en pro de la seguridad, privacidad y hasta salud mental de los individuos que cada día se enfrentan a los cambios tecnológicos que se proponen en la sociedad.

Alexandrine Roger, menciona cómo, por ejemplo, “YouTube ha sido criticado repetidamente por no detener la multiplicación de videos de conspiración y de derecha alternativa en las listas de recomendaciones de los usuarios. Además, el algoritmo de YouTube recompensa los videos con altos niveles de participación, lo que ha popularizado contenido controvertido por personalidades de extrema derecha, convirtiéndolo en un canal para el extremismo y el odio”.

Aunque la IA nos parezca de mundos fantásticos hipervigilados por tecnología, como los que imaginaba George Orwell, hace tiempo es una realidad a la que nos enfrentamos. A pesar de que, la primera ley de la robótica dice “Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño” podemos ver cómo no se cumple el principio.

Desde el desarrollo de máquinas para la guerra, las clasificaciones a través del reconocimiento facial y guiar nuestras decisiones políticas como en los algoritmos de las redes sociales, pareciera que las prevenciones que nos hace Black Mirror no son de un futuro lejano. Por este motivo, es fundamental estar al tanto de estas nuevas reglamentaciones para poder defender nuestros derechos de mejor manera.

Juan Camilo Ospina Deaza
https://www.periodicoelnuevomundo.com/2021/07/se-presenta-la-primera-regulacion-sobre.html

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.