20th Century Fox
Un estudio elaborado por científicos del University College de Londres (UCL) ha analizado cuáles son los delitos más peligrosos que generará el desarrollo de la inteligencia artificial en los próximos años.
Para ello un grupo de especialistas en la materia ha analizado todos los posibles riesgos derivados de esta tecnología evaluándolos en función de criterios como su capacidad de daño, su potencial lucro o la dificultad de poder impedirlos por parte de agentes de seguridad.
Entre los mayores riesgos destacan la creación de contenido falso, el uso de drones para atacar o las mejoras en los ciberataques.
A medida que el desarrollo tecnológico evoluciona también crecen las amenazas vinculadas a él.
Científicos de la University College de Londres (UCL) han elaborado un informe en el que analizan los delitos más graves que el avance de la inteligencia artificial pueden generar en los próximos 15 años.
El listado de posibles amenazas ha sido examinado por una serie de especialistas que discutieron sobre la amenaza real que suponen cada uno de ellos para la sociedad futura.
Para ello se pidió al comité de participantes expertos que clasificaran cada uno de los delitos analizados en función de cuatro criterios: el daño que pueden causar, potencial de lucro, facilidad con la que podrían llevarse a cabo y la dificultad para poder detenerlo.
«A diferencia de muchos delitos tradicionales, los delitos en el ámbito digital pueden compartirse, repetirse e incluso comercializarse fácilmente, lo que permite comercializar técnicas delictivas y proporcionar delitos como un servicio», subraya el investigador Matthew Caldwell, principal autor del informe.
El resultado del listado puede sorprender. Los robots asesinos están más lejos de lo que podría pensarse de ser lamayor amenaza que la inteligencia artificial puede deparar al mundo del mañana.
Frente a esto, la creación de contenido falso se erige como el mayor delito que cabe esperarse derivado del avance de esta tecnología. Los ejemplos hasta ahora conocidos de los llamados deepfakes, ayudan a hacerse una idea del potencial dañino que estos vídeos falsos pueden tener, haciendo que las personas incluso deban empezar a desconfiar de lo que ven y escuchan por los medios y la red.
A continuación se enumeran los 20 delitos más peligrosos que creará la inteligencia artificial en los próximos años, según el estudio y colocados de menor a mayor gravedad.
Evento en el que se presentan partes de la décima sinfonía inconclusa de Ludwig van Beethoven que buscan completarse utilizando inteligencia artificial antes del 250 aniversario del nacimiento de Beethoven en Bonn, Alemania, el 13 de diciembre de 2019. LEON KUEGELER/ Reuters
La amenaza menos preocupante que generará la IA en los próximos años será la creación de contenido falso en ámbitos como el arte o la música que pueda ser posteriormente vendido bajo falsas pretensiones en cuanto a su autoría. Este delito ocupa el puesto más bajo de la lista en cuanto a los daños que puede ocasionar así como por sus probabilidades de éxito.
Como detalla el informe, si bien la inteligencia artificial ha mostrado capacidades para emular el estilo visual de creadores como grandes pintores, esta podría verse ampliamente limitada a la hora de abordar la creación de un objeto físico real. Por otro lado, las casas de subastas, galerías y especialistas llevan siglos luchando contra las falsificaciones, por lo que es un campo en el que cabe esperar que cuenten con prácticas defensivas adecuadas.
Acoso ayudado por inteligencia artificial
GettyImages
Por tal debe entenderse el uso de sistemas de aprendizaje capaces de monitorizar la actividad y la ubicación de un individuo a través de las redes sociales o los datos disponibles en sus dispositivos móviles.
Asimismo, el estudio también engloba aquí la provisión por parte de tecnológicas de aplicaciones capaces de hacer cumplir las normas sociales en sociedades represivas.
Si bien estos delitos pueden ser realmente dañinos, el informe considera que al tratarse de acciones sobre individuos no supondrían un alcance significativo a gran escala.
Gettyimages
Esta capacidad de generar de manera automática reseñas falsas podría utilizarse en espacios muy basados en la opinión de los usuarios, como Amazon o TripAdvisor, para ofrecer falsas impresiones sobre un producto con la intención de promoverlo o alejarlo del interés de los clientes.
Una práctica deshonesta que hoy en día ya es realizada por actores humanos.
Tecnología para eludir la detección de la inteligencia artificial
Un policía español investigando un caso de pornografía infantil en 2006.REUTERS/Policía Nacional
A medida que los asuntos policiales y de seguridad vayan dependiendo más de la inteligencia artificial y la automatización de los datos en los procesos de investigación, cabe esperar que aumenten los ataques en los que se busque eludir esta tecnología frustrando posibles descubrimientos o incluso que permitan el borrado de pruebas.
Bots ladrones
Getty Images
El desarrollo de la tecnología puede permitir la creación de pequeños robots autónomos capaces de introducirse en casas y otras instalaciones por espacios como buzones para recuperar llaves o abrir puertas y permitir que ladrones humanos entren para llevar a cabo un robo.
El estudio lo cataloga como un delito de baja amenaza ya que se trataría de robos a muy pequeña escala y que podrían detenerse fácilmente a través de dispositivos que impidan la entrada del robot por el buzón.
Getty Images
Descubrir los sesgos aprendidos de algoritmos influyentes o muy utilizados podría llevar a aprovechar esto en beneficio de intereses concretos.
La investigación indica como ejemplos las clasificaciones de Google donde poder poner en desventaja a los competidores o las recomendaciones de YouTube encaminadas a impactar en los espectadores más idóneos. Algo que de manera no legal ya se pone en práctica a través de técnicas por ejemplo de SEO, pero que el desarrollo de la IA podría potenciar en extremo.
Reuters
En el puesto más bajo dentro de las amenazas de grado medio se encuentra la manipulación de los mercados financieros o bursátiles con el objetivo de dañar a competidores, divisas o hacer colapsar sistemas económicos en su totalidad.
Aunque los daños de este delito podría ser realmente elevados, su rentabilidad es sin embargo considerada baja debido a la extrema dificultad que puede conllevar simular con precisión el comportamiento del mercado.
Engaño del reconocimiento facial
Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.REUTERS/Thomas Peter
Los sistemas de reconocimiento facial a través de la IA son cada vez más utilizados. Desde hace tiempo son incluidos como medida de seguridad para el desbloqueo de dispositivos móviles e incluso comienzan a servir a la policía en los procesos de rastreo de sospechosos en espacios públicos.
Lo cual hace que estos sistemas puedan posicionarse en el futuro como objetivo atractivo para muchos delincuentes.
Getty
El auge de las actividades online en distintos aspectos de la vida actual, desde las finanzas a las relaciones sociales, presenta un nuevo objetivo en cuanto a los ataques hacia las personas: denegar este acceso en línea a ciertos servicios esenciales.
Lo cual podría utilizarse, según el informe, para dañar a ciertos usuarios o causar el caos.
Getty Images
Según el informe cabe esperar que los drones autónomos controlados por IA permitirán una mayor complejidad y coordinación de ataques y delitos perpetrados por este tipo de dispositivos, que además dificultan la detención del atacante.
Los drones pueden ser altamemente peligrosos si se equipan con armamento y actúan en masa de «enjambres autoorganizados», remarca el estudio.
Ciberataques basados en aprendizaje
Getty Images/ Михаил Руденко
La IA en el futuro puede permitir que los ciberataques masificados sean cada vez más complejos y sofisticados sirviéndose del aprendizaje por refuerzo para poder analizar las debilidades de numerosos sistemas en paralelo antes de lanzar varios ataques de manera simultánea.
Getty
Otro de los delitos de amenaza media detectados por el estudio es la manipulación deliberada de los datos utilizados para entrenar a una inteligencia artificial, con el objetivo de introducir de manera deliberada sesgos específicos.
En este aspecto, cuanto más utilizada y fiable sea la fuente de los datos más daño podrá causar posteriormente. Entre estos el estudio contempla desde sesgos orientados a dañar a un competidor hasta aquellos pensados para alterar un discurso político.
Venta de tecnología falsa bajo la apariencia de IA
Gettyimages
Este delito se refiere a la venta de servicios o tecnologías fraudulentas que realmente no son capaces de cumplir los objetivos para los que han sido diseñados, todo ello enmascarado bajo la apariencia de IA.
El éxito de este fraude está directamente vinculado con las empresas u organismos gubernamentales a los que se dirigen estos estafadores, ya que es esencial que estas crean en las capacidades declaradas a dicha inteligencia artificial. Por lo que debería ser potencialmente fácil impedirlos.
Acceso fraudulento a robots militares
Paramount
Cabe esperar que cualquier acceso por parte de organizaciones criminales a hardware militar represente una seria amenaza, especialmente si se trata de robots autónomos destinados a utilizarse como despliegue defensivo o en campos de batalla.
Por ello el informe cataloga este acceso criminal a robots armados militares como la mayor amenaza de grado medio.
Reuters
En el puesto más bajo de las amenazas de nivel más alto se encuentran los chantajes a gran escala.
Como identifica el informe, la IA puede permitir llevar a cabo extorsiones a mayo nivel, recopilando informaciones de redes sociales o grandes conjuntos de datos personales de historiales de navegador, contenidos del disco duro o del propio móvil. También favorece la identificación de vulnerabilidades para una gran cantidad de objetivos e incluso elaborar mensajes personalizados de chantaje para cada una de las víctimas.
El estudio calificó esta amenaza de elevada en cuanto a las ganancias obtenidas así como en la dificultad de detenerlo.
Gettyimages
A medida que aumente el uso de la IA por parte de empresas, gobiernos y hogares, no solo estos sistemas se harán más esenciales, sino que cabe esperar un aumento del número de ataques que se dirigirán a ellos.
Desde el informe se señala a los sistemas vinculados con la seguridad y las transacciones financieras como los objetivos clave de estos delitos.
«En general, cuanto más complejo es un sistema de control, más difícil puede ser defenderlo por completo» asegura el estudio, subrayando la complejidad que supone poder frenar este tipo de fraudes.
Phising adaptado
Getty Images
Los ataques de phising buscan recavar información confidencial de un usuario o instalar un malware a través de mensajes falos de fuentes de confianza, como por ejemplo un banco. De esta forma se pueden conseguir por ejemplo contraseñas.
Hasta ahora estos ataques se hacen enviando mensajes genéricos a un gran número de potenciales víctimas, lo que suele conllevar tasas de éxito bajas. Pero la IA ofrece el potencial de poder mejorar el éxito de estos ataques al poder generar mensajes que parezcan más reales, por ejemplo incorporando información privada obtenida de redes sociales o utilizar el learning para entender qué mensajes funcionan mejor ante los usuarios en este tipo de fraudes.
Getty Images
Las organziaciones criminales y terroristas se han servido en numerosas ocasiones de vehículos para ser usados como armas (bien al cargarlos de explosivos o siendo dirigidos contra un objetivo, como es el caso de algunos de los últimos atentados recientes sufridos en Europa).
Estas capacidades terroristas podrían verse amplificadas, como señala el estudio, por el desarrollo de los coches con conducción autónoma al reducir la necesidad de conductores. No solo eso. Esta tecnología permitiría a su vez realizar múltiples ataques al coordinar varios vehículos al mismo tiempo.
Ante esto es de esperar que a medida que se avanza en la conducción autónoma estos coches incorporen sistemas de seguridad destinados a imposibilitar este tipo de usos. Asimismo derrotarlos podría ser posible con las mismas medidas que se utilizan con los vehículos actuales, como barreras físicas o restricciones de tráfico.
REUTERS TV
Los deepfakes son vídeos falsos generados con inteligencia artificial que permiten cambiar el rostro de una persona para que parezca que hace o dice algo que no ha hecho o dicho. Algo que más allá de la broma puntual que pueda ocasionar, supone un riesgo preocupante para las democracias, que viene a sumarse a la generación de las fake news.
La suplantación de identidad por vídeo y audio podrían utilizarse para acceso de información y contraseñas para acceso a fondos económicos o en el caso de figuras públicas para manipular su apoyo a estas.
Todos los expertos inmersos en el estudio consideraron los deepfakes como el tipo de delito más preocupante de esta tecnología, obteniendo puntuaciones elevadas en las cuatro categorías de análisis.