El mundo cambia a velocidad fulgurante y los principios y normas morales se ven actualizados por la fuerza de los hechos. Los usuarios nos desnudamos en las redes y las compañías de Inteligencia Artificial (IA) y Big Data extraen provechosas ganancias de nuestra impudicia. Sin normas, en el territorio del más fuerte, las preguntas se acumulan.
¿Por qué nos desnudamos públicamente en las redes? Quizá esta sea la pregunta de base. Imagina una reunión de amigos en la que uno tras otro, os ponéis a contaros vuestros secretos. Es probable que la mayoría sea reticente a hacerlo y solo alguno hablaría de su intimidad sin tapujos. El caso es que en las redes sociales, son millones de personas las que cuentan detalles íntimos o cuando menos personales y emiten opiniones orgullosos de hacerlo sin medir las consecuencias. Haz una prueba: elige a un conocido o una conocida. Busca en la red por su nombre. Tómate un poco de tiempo. Es probable que acabes sabiendo su edad, estudios, trabajo, familia, amigos, aficiones… Si tú puedes hacer esto, imagina lo que serán capaces de hacer las empresas o gobiernos.
No siempre ponemos nuestros datos a disposición de todo el mundo, pero prácticamente todos nosotros entregamos datos sensibles a las compañías tecnológicas, típicamente Google o Facebook. ¿Por qué lo hacemos? La respuesta es la gratuidad del servicio que nos ofrecen. Pero, ¿es de verdad el servicio gratuito? Google y Facebook viven de la publicidad. Se han convertido en un monopolio del marketing. Miles de empresas pagan millones de euros a ambas para hacer campañas publicitarias. Y esto ocurre porque tienen tus datos. Tus datos valen dinero y los datos agregados de todos los usuarios valen millones de euros.
¿Lo saben todo de ti? Obviamente no, pero saben lo suficiente para extraer valor de tu presencia en las redes. La realidad es que saben mucho. Mira tu cronología de Google. Si has permitido rastrear tu ubicación, esta empresa sabe dónde has estado en cada momento de tu vida desde que les permitiste husmear en tu vida. No es poco. Además las empresas tecnológicas saben cuáles son tus preferencias, qué compras y qué opinión política tienes.
Los algoritmos tienen importantes problemas desde el punto de vista ético. Si queremos que sean realmente útiles y eficaces, deben aprender por sí mismos; la supervisión humana genera ineficiencia. Y si aprenden solos, ¿cómo controlar lo que aprenden?
El escándalo de Cambridge Analytica demostró lo vulnerable que es nuestra privacidad. Todo comenzó por un simple test de personalidad. Responde a unas preguntas y te diremos cómo eres. Con estas preguntas y la información de Facebook, se infirieron los perfiles psicológicos de los usuarios. Más de 250.000 usuarios contestaron a este test, pero además se pidió permiso para acceder la información de la red de amigos sin permiso de estos. Como resultado, la empresa obtuvo información de más de cincuenta millones de usuarios. Lo siguiente fue enviar información selectiva y fake news para influir en el comportamiento de los usuarios en las elecciones. Si estás indeciso, te animan a cambiar y si estás convencido, te anima a quedarte en casa y no votar. El escándalo fue mayúsculo.
Los medios de recoger información pueden ser otros como los del caso Snowden. Este informático demostró cómo las agencias americanas usaban los metadatos (y a veces los datos) para elaborar una valiosa información. Cuando hablas por teléfono, aparte de la conversación en sí, se registran otros datos. Cuándo llamaste, a quién llamaste, cuánto duró la llamada, dónde estabais tú y tu interlocutor, cuántas veces hablasteis. Como te imaginas, más que suficiente para hacerse una muy buena idea de tu vida, aunque el contenido de las conversaciones permanezca privado. El poder de los metadatos es gigantesco.
El poder de los algoritmos
Las compañías tecnológicas y los gobiernos tienen mucha información sobre ti. Y la usan. Permanentemente te están llegando noticias a través de los medios tecnológicos que usas. ¿Qué noticias? Las que seleccionan los algoritmos para ti. Se supone que es bueno que no te lleguen noticias de pañales si tienes cincuenta años y que la publicidad bien segmentada es buena. Pero lo cierto es que el poder de los algoritmos es enorme. Igualmente los de recomendación. Esto lleva al llamado determinismo algorítmico: solo leo lo que quiero leer o lo que las empresas quieren que lea. Para salirme del bucle debe realizar un esfuerzo deliberado de lucha contra el algoritmo. Si me dejo llevar siempre recibiré las noticias políticas de determinada ideología, escucharé la misma música, compraré el mismo tipo de ropa y leeré las mismas novelas. Esta selección ¿es censura?
Los algoritmos tienen importantes problemas desde el punto de vista ético. Si queremos que sean realmente útiles y eficaces, deben aprender por sí mismos; la supervisión humana genera ineficiencia. Y si aprenden solos, ¿cómo controlar lo que aprenden? Los algoritmos tienden a seguir los sesgos de los datos que se les presentan y los datos se corresponden con realidades con las que no estamos conformes. Así, es común que los algoritmos aprendan a ser clasistas, sexistas y racistas. Pero lo peor es que es difícil corregirlos ya que no sabemos cómo funcionan. Conocemos el mecanismo por el que realizan su función ya que los hemos programado, pero dado que usan millones de datos y estos alteran su estado, lo cierto es que no podemos explicar por qué toman sus decisiones. Los algoritmos no pueden seguir siendo una caja negra, es esencial que tengan mecanismos de explicación de su actuación.
¿Tenemos derecho a la rectificación? Si los algoritmos trabajan de forma que nos incomode como ciudadanos, ¿podemos solicitar a las empresas que cambien su comportamiento? Y si los datos que existen en la red no nos gustan, ¿tenemos derecho al olvido? ¿Nos perseguirá siempre el comentario inapropiado o la foto desafortunada que subimos? ¿A quién recurrimos?
¿Deben ser los gobiernos proactivos en la defensa de los ciudadanos o es un acuerdo entre usuario y empresa en la que los gobiernos no deben actuar? Lo cierto es que la Unión Europea ha promulgado el Reglamento General de Protección de Datos GDPR 1. La regulación remodela fundamentalmente la forma en que los datos se manejan en todos los sectores, desde la atención médica hasta la banca.
¿Es el GDPR suficiente? Parece obvio que no. Los datos son la materia prima de la era de la información y su comercio es muy lucrativo. Estos datos alimentan las inteligencias artificiales que determinan en buena medida qué hacemos, qué compramos o a dónde vamos de vacaciones. Está claro que dejar el control de los algoritmos a las empresas que los crean es como dejar al zorro vigilando a las gallinas.
Ciberseguridad, robótica y IA
Además del control del comercio de datos existe otro enorme problema: la ciberseguridad. Por diversión, por curiosidad intelectual, por maldad, por dinero o por motivos políticos y estratégicos, miles de expertos informáticos del mundo se dedican a reventar los sistemas de seguridad de las empresas, gobiernos y usuarios. Las implicaciones son gigantescas, desde amenazas militares hasta simples ordenadores de usuarios que se infectan con virus y dejan de funcionar. Dada la complejidad de la interconexión mundial, el campo de batalla es idóneo y la lucha no parece tener fin.
En 2017, el Parlamento Europeo realizó un Informe con destino a la Comisión para que esta legisle sobre robótica, IA y sociedad. El informe es exhaustivo y recoge muchas de las preocupaciones que la robótica y la inteligencia artificial despiertan en la sociedad. A la par que enumera las ventajas de los sistemas inteligentes en una sociedad envejecida y recomienda no entorpecer la innovación en este ámbito, también se hace cargo de que “el desarrollo de máquinas inteligentes y autónomas, con capacidad de ser entrenadas para pensar y tomar decisiones de manera independiente, no solo implica ventajas económicas, sino también distintas preocupaciones relativas a sus efectos directos e indirectos en el conjunto de la sociedad”.
El vertiginoso avance de las tecnologías de la información nos obliga a mirar el futuro con un poco de sosiego, definir los problemas éticos a los que nos enfrentamos y crear unas normas de actuación que ahora no existen
Respecto de los robots (aunque los robots llaman más la atención, deberíamos de hablar de software inteligente) las preguntas se acumulan. ¿Tendrán derechos los robots? ¿Podrían adquirir algún estatus humano los robots? ¿A quién son imputables las decisiones de los robots? ¿Se deben o no crear vínculos emocionales con los robots?
Pero la mayor preocupación es la incidencia de la automatización en el mercado de trabajo. ¿Nos quitarán los robots el trabajo? ¿Quién cotizará a la seguridad social? ¿Cómo pagaremos las jubilaciones y el desempleo? ¿Cómo hacemos frente a la desigualdad que generan los robots en la distribución de la riqueza y el poder? ¿Deberíamos someter a los robots a un impuesto o un gravamen por su uso?
La irrupción de las tecnologías de la información ha supuesto un enorme avance en la calidad de vida de los ciudadanos del mundo. Vivimos más y mejor gracias a la tecnología. Pero este vertiginoso avance nos obliga a mirar el futuro con un poco de sosiego, definir los problemas éticos a los que nos enfrentamos y crear unas normas de actuación que ahora no existen. No tenemos mucho tiempo.
Artículo publicado originalmente en Telos
http://sinapsis-aom.blogspot.com/2019/09/etica-y-big-data.html