Qué es la IA Adversa y cuáles son los riesgos de esta ciberdelincuencia puntera

Inteligencia artificial y ciberseguridad
Gabriela Bustelo

La integración de sistemas de Inteligencia Artificial en el sector corporativo global exige no solo la solvencia de la tecnología, sino también la lealtad de las personas implicadas. La recién llegada IA Adversa pretende infiltrarse en un sector incipiente con un potencial tan colosal como aún desconocido.

Para asentar y sostener la confianza en las bondades de la Inteligencia Artificial, las empresas deben contar con unos sistemas IA accesibles, éticos, justos, responsables, fiables y respetuosos con la privacidad individual. Por añadidura y por descontado, han de ser ciberseguros.

¿Qué es la Inteligencia Artificial Adversa?

La IA Adversa es una manipulación cuyo objetivo es engañar a los modelos de aprendizaje automático para forzarlos a dar resultados incorrectos. Trampeando el funcionamiento de estas tecnologías autosuficientes, los ataques en cuestión se realizan con intenciones delictivas, a fin de comprometer la eficacia del sistema IA victimizado.

El nombre de Inteligencia Artificial Adversa procede del ciberataque enemigo o adversario que busca las vulnerabilidades de los algoritmos IA. El modus operandi es generar datos de entrada contradictorios, es decir, información inicial modificada para engañar a los sistemas de Inteligencia Artificial. Estos cambios suelen pasar inadvertidos a los seres humanos, pero pueden hacer que los sistemas de IA funcionen de manera inexacta.

Desafíos que plantea la IA Adversa

Los ataques de IA Adversa pueden servir para revelar vulnerabilidades en los sistemas de Inteligencia Artificial, de modo parecido a las simulaciones del hacking ético. Pero su utilización delictiva supone una amenaza a la integridad de toda la tecnología de la ingeniería del conocimiento. De hecho, la IA Adversa es un cibercrimen de veloz evolución cuyas tácticas sinuosas lo pueden convertir en un problema grave.

Para que se entienda el tipo de manipulación y el alcance de este tipo de ciberdelincuencia puntera, algunos ejemplos serán útiles. Un caso de IA Adversa consiste en engañar a los sistemas de reconocimiento facial mediante unas gafas trucadas, para que el algoritmo confunda a un individuo anónimo con un personaje famoso. Otra modalidad sería engañar a los algoritmos visuales de un vehículo autónomo para que no sepan distinguir las señales de stop de las que limitan la velocidad. En definitiva, donde existe un sistema de IA, se puede diseñar su ‘reverso tenebroso’ en versión IA Adversa.