Desde Rosalía hasta Trump: cómo nos puede afectar el deepfake y qué hacer en esos casos

Trump Deepfake

Imagen ‘deepfake’ de Donald Trump huyendo de policías que corrían a detenerle. Copyright @EliotHiggins.

Redacción

La tecnología deepfake es capaz de crear un video, una imagen o un audio falso del rostro o voz de una persona sin su consentimiento mediante el uso de Inteligencia Artificial. Ejemplos de este tipo de tecnología son las fotos de Rosalía haciendo topless o la reciente «detención policial» de Donald Trump.

Origen de la palabra

Como término, «deepfake» proviene de la combinación de las palabras «deep learning» y «fake». El Deep Learning es un apartado del Aprendizaje Automático de la Inteligencia Artificial, referente a los algoritmos que intentan emular el comportamiento del cerebro humano. Hoy al oír o leer la palabra deepfake, pensamos en una imagen falsa, quizá sin saber o sin caer en la cuenta que es el resultado de la tecnología IA.

Los famosos deepfakes de Rosalía y Trump

La artista española Rosalía fue víctima de un deepfake que manipuló dos fotografías suyas para que pareciese que tenía el torso desnudo. Además, estas imágenes tuvieron aún más repercusión cuando JC Reyes, un rapero español, decidió compartirlas en sus redes sociales a modo de burla.

Del mismo modo, Donald Trump también ha sufrido los efectos de la Inteligencia Artificial. En los primeros meses de este año varias imágenes sintéticas del expresidente estadounidense se han viralizado en las redes sociales. Creadas por el periodista británico Eliot Higgins, con tecnología de Inteligencia Artificial Midjourney v5, le falsean forcejeando y corriendo en medio de un pelotón de policías que pretenderían llevárselo detenido por haber guardado documentos oficiales en su casa. Con permiso de su creador, aparecieron en las portadas de la prensa internacional en las horas siguientes a su fecha de publicación el 20 de marzo en Twitter.

¿Cómo detectar los deepfake?

A pesar de que la Inteligencia Artificial tiene ya un nivel técnico muy avanzado, todavía es posible distinguir las imágenes falsas de las auténticas. Para ello conviene prestar atención a varios indicadores:

  1. Incongruencias en la piel: demasiado lisa o demasiado arrugada.
  2. Sombras apagadas alrededor de los ojos.
  3. Errores de deslumbramiento en las gafas.
  4. Vello facial de aspecto poco realista.
  5. Lunares faciales poco realistas.
  6. Demasiado o muy poco parpadeo.
  7. Color de los labios fuera de lugar en comparación con la cara.
  8. Movimiento poco realista de la boca.

Estos son los indicios más comunes de los videos e imágenes generados por IA, cuyos fallos suelen dejar rastros visibles.

Además, Facebook y Microsoft han creado el Deepfake Detection Challenge, un proyecto que pretende animar a los expertos del sector a crear tecnologías capaces de avisar si un video o foto es o no deepfake.

Aspectos positivos de la tecnología deepfake

Pese a que este tipo de tecnología se utiliza a menudo con fines nocivos, también existe una faceta deepfake capaz de aportar algo a la sociedad.

  • En lo que respecta al área del cine, se puede ‘resucitar’ a artistas que han fallecido o cambiar el diálogo sin necesidad de volver a grabar la escena.
  • En el campo de la promoción de las buenas causas, recordemos ejemplos como el de la agencia de publicidad Sra. Rushmore con su video de Salvador Dalí o el de Lola Flores de Ogilvy para reivindicar la diversidad. Estos dos casos españoles usaron la tecnología deepfake para enviar un mensaje positivo a la sociedad.
  • En el área de los videojuegos parece que podría dar mucho juego, pero se requiere más inversión para el desarrollo de este tipo de tecnología.

Aspectos negativos de la tecnología deepfake

Del mismo modo, la vertiente siniestra que presenta este tipo de tecnología incluye:

  • Transgresión de los derechos de intimidad y privacidad, como sucede con los videos para mayores de 18 años con rostro de celebridades.
  • Creación de noticias falsas y desinformación por medio del deepfake, sobre todo en las redes sociales.
  • Infracción de las leyes que defienden la identidad como derecho fundamental de las personas suplantadas y falseadas sin su autorización.
  • Obstáculos y falta de control para supervisar adecuadamente su expansión y para detectar si un video utiliza o no este tipo de tecnología.