Red Seguridad 106

114 red seguridad tercer trimestre 2024 opinión En 1968, una supercomputadora asesi- na llamada HAL 9000 cautivó nuestra imaginación en el thriller de ciencia fic- ción 2001: Odisea del espacio . El lado oscuro de la inteligencia artificial (IA) era intrigante, entretenido y completamente inverosímil. Hace una década, cuando se estrenó Ex Machina , parecía impensable que la IA pudiera llegar a ser lo suficien- temente avanzada como para causar es- tragos a gran escala. Pero aquí estamos, con una creciente superficie de ataque a la identidad de las máquinas de IA. Un terreno de juego que pronto será muy lu- crativo para los ciberdelincuentes. Los modelos de IA acotados, cada uno competente en una tarea particular, han logrado asombrosos avances en los últimos años. Pensemos en AlphaGo y Stockfish, programas que han derrota- do a los mejores maestros del Go y del ajedrez del mundo. Asimismo, ChatGPT, Google Gemini y herramientas similares han logrado enormes avances, pero aún se las considera modelos “emergentes”. Entonces, ¿cómo de buenos serán estos sistemas inteligentes y cómo los segui- rán utilizando los ciberdelincuentes? Porque existen numerosos ejemplos de cómo la IA generativa (GenAI) puede influir en los vectores de ataque conoci- dos y cómo estas herramientas pueden usarse para comprometer las identida- des humanas mediante la difusión de malware polimórfico altamente evasivo, estafando a los usuarios con vídeos y audios deep fake e incluso eludiendo la mayoría de los sistemas de reconoci- miento facial. Pero las identidades humanas son solo una parte del rompecabezas, pues las identidades de las máquinas son el principal impulsor del crecimiento gene- ral de las identidades en la actualidad. Por tanto, es necesario entender cómo los servicios de IA y los modelos de len- guaje de gran tamaño (LLM) pueden ser y serán atacados. Ataques dirigidos El tremendo salto en la tecnología de IA ha desencadenado una oleada de au- tomatización en todos los entornos. Los empleados están utilizando asistentes de IA para crear, editar y analizar contenido, mientras que los equipos de TI están im- plementando AIOps para desarrollar polí- ticas e identificar y solucionar problemas más rápido que nunca. A su vez, la tec- nología habilitada para IA está facilitando que los desarrolladores interactúen con repositorios de código, solucionen pro- blemas y aceleren los plazos de entrega. La confianza es la base de la automa- tización: las empresas confían en que las máquinas funcionarán como se espera, lo que les otorga acceso y privilegios a información confidencial (como bases de datos, repositorios de código y otros servicios) para realizar sus funciones. De hecho, el informe sobre el panorama de amenazas a la seguridad de la identidad de CyberArk 2024 reveló que casi tres cuartas partes (68%) de los profesionales de seguridad indicaron que hasta la mitad de todas las identidades de las máquinas en sus organizaciones tienen acceso a datos confidenciales. Una confianza que los atacantes siempre utilizan a su favor. El auge de las máquinas y la creciente superficie de ataque a la identidad A lbert B arnwell Sales Director Iberia de CyberArk Es necesario entender cómo los servicios de IA y los modelos de lenguaje de gran tamaño pueden ser y serán atacados

RkJQdWJsaXNoZXIy MTI4MzQz