Ángel Gómez de Ágreda Coronel del Ejército del Aire. Analista y divulgador

"Con la pandemia hemos visto un salto al mundo digital sin la capa de seguridad"

Ángel Gómez de Ágreda

Foto: Jesús Umbría.

Ángel Gómez de Ágreda ha dedicado casi 40 años de carrera al Ejército, donde ocupó el puesto de jefe de Cooperación del Mando Conjunto de Ciberdefensa. Pero si por algo destaca especialmente este experto es por su dedicación al análisis y la divulgación. Resultado de ese trabajo fue la publicación, el año pasado, de Mundo Orwell. Manual de supervivencia para un mundo hiperconectado, que es ya un libro imprescindible para conocer el impacto de la tecnología en nuestras vidas. Hacemos esta entrevista, precisamente, de manera virtual.

La crisis del COVID-19 ha demostrado que tenemos una dependencia tecnológica absoluta. ¿Cree que estábamos suficientemente preparados para un desafío así?

Creo que sí. La tecnología va por delante de la sociedad, el problema es que no se crean las tecnologías para las necesidades de la sociedad. Se crean, y luego la sociedad encuentra las formas de utilizarla. En las crisis y las guerras es donde se asumen más riesgos a la hora de poner en servicio las tecnologías que ya están desarrolladas. Por tanto, tecnologías ya teníamos, pero faltaba la madurez de la sociedad.

Lo que ha marcado mucho la crisis ha sido la diferencia de preparación entre países, empresas y personas. Por definición, nunca se está preparado para una crisis mundial así, pero lo mejor es hacerlo con tecnología.

¿Cuáles son las lecciones que podemos aprender de la pandemia en lo que tiene que ver con la tecnología?

La primera sería la necesidad de adecuar las organizaciones al carácter fluido y en red que tiene la tecnología. No podemos actuar en un mundo fluido con instituciones sólidas, porque vamos a ser tremendamente ineficientes.

Otra es que, ante la incertidumbre y la volatilidad, hay que ser muy ágiles a la hora de tomar decisiones y mantener activas suficientes líneas de actuación. No puedes apostar solamente por una línea de actuación y confiar en que será la que solucione todo. En un entorno tan incierto, donde hay tan poca información real de lo que está pasando, tienes que disparar un espectro de flechas para que alguna consiga su objetivo.

Los países que más han apostado por la tecnología son los que van a salir mejor de la crisis sanitaria. Aunque también ha habido países cuyas instituciones se han empeñado en no hacer uso de esas capacidades. Debemos tener en cuenta que las posibilidades que nos ofrecen tecnologías como la Inteligencia Artificial o el tratamiento masivo de datos pueden suponer la salvación de miles de vidas; aunque también son tecnologías tremendamente peligrosas porque pueden condenarnos a un mundo mucho más controlado, tanto por Estados como por empresas.

«No podemos externalizar el trabajo físico e intelectual en las máquinas y, al mismo tiempo, pretender también externalizar la responsabilidad, porque entonces nos convertiremos en títeres»

Por otro lado, hemos visto un salto al mundo digital sin una capa de seguridad. Una de las lecciones claras es que la seguridad tiene que ser una exigencia de diseño en cualquier solución que se ponga a disposición del público. No puede ser que antes de abrir una carretera se pasen todos los controles de seguridad para garantizar una cierta estabilidad en el tráfico físico y no se haga lo mismo con las estructuras digitales y con las plataformas en las que nos estamos basando.

Ángel Gómez de Ágreda. Mundo Orwell. Manual de supervivencia para un mundo hiperconectado.
Libro Mundo Orwell. Manual de supervivencia para un mundo hiperconectado.

Existe permanentemente una controversia entre la extensión de algunas tecnologías y la privacidad, y de hecho lo vemos ahora con la pandemia. ¿Cómo se puede resolver ese equilibrio para no vulnerar los derechos de las personas?

Está claro que cuanto más conocimiento y control se tenga sobre una situación, más fácil es abordarla. Pero no se puede generar inmunidad de grupo; es decir, una seguridad para la sociedad a costa de la seguridad de cada uno de sus elementos. Yo estoy convencido de que la seguridad del grupo tiene que generarse en función de la seguridad de cada uno de sus de sus distintos elementos.

Lo decía George Orwell: «lo importante, más que estar vivo, es seguir siendo humano». La forma de ser humanos es mantener nuestra individualidad dentro de la especie, nuestra capacidad para ser distintos. Lo que hacen los algoritmos es optimizar procesos, pero nosotros no tenemos que ser perfectos.

La solución perfecta para este asunto es rígida, pero no nos sirve para este mundo. Lo que tenemos que hacer es buscar soluciones que se basen precisamente en las individualidades y en la flexibilidad que te da la gente. Y para eso tenemos necesariamente que respetar la privacidad, porque de lo contrario nos convertiremos en engranajes de una maquinaria que, si falla, perdemos todos. Con lo cual, es fundamental la preservación de la privacidad.

Tenemos una dependencia absoluta de la tecnología y en el futuro parece que habrá mucha más. ¿Cómo podemos evitar convertirnos en esclavos de ella y evitar que se utilice para modificar nuestro comportamiento?

No es que estemos dejando nuestra responsabilidad en manos de la tecnología, pero lo que hemos hecho ha sido liberarnos de la responsabilidad de las decisiones, dejándole a las máquinas ese papel. El poder, la autoridad, la capacidad de decisión, la autonomía, están vinculadas a la responsabilidad. Y si tú no asumes la responsabilidad, no puedes esperar ser el que controle las decisiones. Por lo tanto, sin parar la tecnología, tenemos que conseguir que esté a nuestro servicio.

«Frente a la desinformación, hace falta educación para fomentar el espíritu crítico»

¿Cómo? Pues lo primero es aumentar nuestra formación y capacidad de juicio crítico en la medida en que avance la tecnología. Lo que no podemos es externalizar el trabajo físico e intelectual en las máquinas y, al mismo tiempo, pretender también externalizar la responsabilidad, porque entonces nos convertiremos en títeres.

En su libro Mundo Orwell afirma que la guerra cibernética es una realidad. ¿Cuáles son las armas más peligrosas en este campo de batalla? ¿Existe ya una «ciberarma de destrucción masiva», capaz de arrasar con todos los sistemas de un país?

Internet se diseñó como una plataforma distribuida lo suficientemente resiliente como para soportar ataques que pudieran ocasionar una destrucción masiva de la Red. Es decir, que siempre quedara alguna parte de la malla que nos permitiría seguir teniendo conexión. Pero, evidentemente, un ataque podría afectar al sistema energético que sustenta la infraestructura propia de Internet o podría degradar mucho las comunicaciones afectando a los cables de fibra óptica submarina. Es decir, hay formas de atacar parcialmente a la Red, pero aun así esta sigue siendo muy resiliente.

En cuanto a las armas, hay dos tipos de ataque muy peligrosos. Unos son los que afectan a la capa de la estructura misma de Internet y otros los que afectan a la capa humana de Internet, a nuestra percepción de la información. Por un lado, tendríamos los troyanos y el software malicioso, que son ahora mismo los más presentes y que más atañen a los ciudadanos. Y por otro lado, entre los ataques que afectan a la capa humana, tendríamos la desinformación.

"En unos años, veremos cómo la Inteligencia Artificial nos permite hacer cosas completamente distintas"

Usted participará como ponente en el evento Cloud & Ciber Security Expo. ¿Qué tema va a desarrollar en ese encuentro?

Voy a hablar de la ética en la inteligencia artificial. Estoy haciendo mi tesis doctoral sobre ese tema y lo enfocaré no solo hacia una ética generalista, sino también a los aspectos concretos que tenemos que implementar en las soluciones de Inteligencia Artificial para que realmente tengan una aplicación al servicio de las personas, y no que las personas estemos al servicio de las tecnologías y al ritmo que se quiere imponer.

¿Hasta qué punto puede la Inteligencia Artificial cambiar el mundo tal y como lo conocemos?

Puede cambiarlo en la medida en que le permitamos nosotros, porque somos nosotros quienes vamos a programar la Inteligencia Artificial.

A cinco o 10 años vista, vamos a ver cómo la Inteligencia Artificial nos va a permitir hacer cosas completamente distintas. No solo como herramienta, sino como complemento a nuestra propia inteligencia. Yo entiendo que hay tres tipos de inteligencia artificial: una dura, que sería la aplicada a la robótica; una blanda, que es la que vemos en los chatbots y asistentes digitales; y una biológica, que enlaza con nuestra propia inteligencia para complementarla.

Teniendo en cuenta que quienes programan esas soluciones son personas, ¿cuál es el principal problema en lo que a la ética se refiere?

Tenemos que conseguir que la Inteligencia Artificial respete dos características fundamentalmente. Por un lado, tenemos que ser capaces de comprender el funcionamiento de los algoritmos, saber en todo momento la lógica que hay detrás. Y por otro lado, tenemos que mantener el control de los procesos que se desarrollan. Si comprendemos lo que hacen y mantenemos el control, estaremos reteniendo al mismo tiempo la responsabilidad sobre sus actos. De esa manera, seguiremos ejerciendo el poder sobre las acciones que realiza la Inteligencia Artificial.

Ángel Gómez de Ágreda será uno de los ponentes destacados del evento Cloud & Ciber Security Expo, que se celebrará los días 28 y 29 de octubre, en el recinto ferial de Ifema.

¡Sigue Leyendo!

Aquí te hemos mostrado tan sólo una parte de este contenido.

¿Quieres leer el contenido completo?

Leer Completo
Contenido seleccionado de la revista digital