Caso Badajoz: vacío legal ante las apps IA que crean desnudos falsos

Móvil, tecnología, ciberseguridad
Gabriela Bustelo

La aplicación ClothOff —en español Tela Fuera o Ropa Fuera— es la que han usado 26 menores españoles de un pequeño municipio de Extremadura para ‘desnudar’ mediante un programa de IA a 21 niñas compañeras de colegio. La Inteligencia Artificial es una herramienta digital compleja, pero la aplicación que ha falsificado los desnudos de las niñas es muy fácil de usar. Puede descargarse tanto en iOS como Android.

¿A qué penas se enfrentan los responsables de los desnudos por IA de las niñas de Extremadura?

Una veintena de los responsables tienen una edad superior a 14 años, de modo que la Fiscalía puede investigar su fechoría por la vía penal. El quinteto restante lo forman menores que no pueden ser imputados por un delito de ciberacoso sancionado por el Código Penal con penas de entre uno y tres años de cárcel.

El ciberacoso o acoso digital es el acto contactar a un menor por Internet con un propósito sexual. El objetivo principal es obtener imágenes pornográficas, habitualmente mediante identidades falsas.

Si un menor sufre un caso de ciberacoso, nunca debe ceder a la presión, sino acudir a adultos de su entorno familiar y denunciar lo sucedido, puesto que el delito está el Código Penal.

¿Cómo es la app que han usado los colegiales de Almendralejo?

En España cientos de personas se preguntan cómo es el artilugio informático de IA que han usado para su ciberataque los adolescentes de Almendralejo, una ciudad de 33.600 habitantes en Badajoz, provincia de la Comunidad Autónoma de Extremadura.

Los llamativos eslóganes con los que se autodefine la app ClothOff en la web son: «¡Quita la ropa innecesaria de la foto! Desnuda a cualquiera. ¡Gratis!». Podría pensarse que las víctimas propiciatorias sean necesariamente las mujeres, pero la aplicación también sirve para desvestir a hombres.

La app regala un par de imágenes de prueba, para que se pueda valorar la calidad de lo que ofrece. A partir de ese momento, cobra al usuario por cada foto manipulada con su herramienta de Inteligencia Artificial. Cada desnudo falso o deepfake le cuesta al usuario una moneda virtual o ficha, denominada token. La app regala dos tokens de manera inmediata al completar el proceso de registro. Una vez usados estos vales gratuitos, el cliente tiene tres posibilidades: esperar tres días para conseguir más bonos de regalo, reclutar a otras personas para lograr ventajas económicas o pagar. El precio estándar es de dos dólares (1,90€) por cuatro tokens, que permiten manipular con IA cuatro imágenes.

Para tranquilizar a los usuarios, la aplicación ClothOff precisa que «No guardamos ningún dato». Pero a continuación añade que «No asumimos ninguna responsabilidad por las imágenes creadas usando el sitio web». Según han informado sus propios gestores, el número de usuarios es de 30.000 personas diarias.

El vacío legal de la Inteligencia Artificial

Las madres de las víctimas se han reunido y han llevado el caso a la Policía Nacional, denunciando que circulan imágenes falsas de sus hijas menores por las redes sociales de nuestro país. Creadas con Inteligencia Artificial sobre la base de fotos verdaderas, están alteradas para que las protagonistas parezcan estar desnudas.

La simplicidad con la que un niño puede acceder a la pornografía y a la tecnología es diametralmente opuesta a la dificultad que afrontan la Justicia y las Fuerzas de Seguridad al intentar reglamentar la Inteligencia Artificial. La ley intenta adaptarse a los cambios de la digitalización, pero la revolución informática está transformando nuestro planeta a ojos vista. Si España no tiene por ahora una normativa que supervise el uso de la IA, tampoco la tiene la Unión Europea.

Nuestros magistrados y tribunales se topan con un vacío legal que les impide pedir cuentas a los autores y dueños de las herramientas tecnológicas. La legislación digital tampoco favorece que la Policía logre vigilar ni impedir estos delitos adecuadamente.