La recreación virtual de Lola Flores en el anuncio de Cruzcampo / CRUZCAMPO

La recreación virtual de Lola Flores en el anuncio de Cruzcampo / CRUZCAMPO

Vida

Los ‘deepfake’ generan nuevas amenazas de suplantación de identidad

La inteligencia artificial permite recrear rostros virtuales de apariencia cada vez más real, con el consiguiente riesgo de fraude y de difusión de información falsa

19 febrero, 2021 00:00

Las tecnologías deepfake han revolucionado la industria del entretenimiento. Son estas herramientas de vídeo que imitan rostros y personas, conocidas o anónimas, las que han permitido revivir virtualmente a Lola Flores en un anuncio de Cruzcampo, llevar al Papa Francisco a El Intermedio de La Sexta o que la reina de Inglaterra hable sobre la escasez de papel higiénico durante la pandemia o haga bailes de Tik Tok en la televisión británica.

El problema es que, más allá de los “fines lúdicos”, estos programas “también se están utilizando con fines maliciosos”, advierte Fernando Anaya, responsable de la multinacional de seguridad Proofpoint en la región ibérica. “El deepfake es una tecnología razonablemente reciente que se basa en inteligencia artificial: lo que está haciendo es aprendizaje automático que permite reconstruir de forma simulada un vídeo de alguien que realmente no lo ha hecho”, sintetiza.

La reina Isabel II virtual en su mensaje alternativo de Navidad / CHANNEL 4

La reina Isabel II virtual en su "mensaje alternativo" de Navidad / CHANNEL 4

Llamadas falsas

El desarrollo de programario para falsear vídeos se está produciendo en paralelo a avances similares con voz y audio. Para ilustrar los nuevos tipos de estafas que estas imitaciones hiperrealistas hacen posibles, el directivo de Proofpoint apunta al caso, conocido hace dos años, de una compañía energética británica que fue víctima de un fraude a través de una llamada en la que se suplantaba al máximo responsable de la matriz alemana para pedir una transferencia bancaria.

“El consejero delegado tenía acento alemán, que fue reproducido mediante inteligencia artificial”, detalla Anaya. “El tono, la velocidad, el vocabulario... se pueden simular”. En ese caso, los impostores se salieron con la suya: “El botín que consiguieron fue de 220.000 euros”.

El Covid añade riesgo

La solución a este reto no es simple, pero según los expertos consultados, pasa por incrementar el control. Enrique Domínguez, director de Estrategia de la consultora Entelgy Innotec Security opina que ciertas gestiones hay que “verificarlas” y “hablarlas en persona”. “No vale con que alguien te llame, por mucho que suene como tu jefe”, señala.

Precisamente por ello, el coronavirus ha añadido un factor de riesgo adicional: “La pandemia y el teletrabajo nos lo complica todavía más”, apunta Domínguez. Algo en lo que coincide Anaya, que añade que “ahora que estamos trabajando en el entorno doméstico” es especialmente importante “revisar si te estás saltando alguna verificación”.

Una máscara 'deepfake' del presidente ruso Vladimir Putin de un programario disponible en línea / DEEPFACELAB

Una máscara 'deepfake' del presidente ruso Vladimir Putin de un programario disponible en línea / DEEPFACELAB

En “aprendizaje” continuo

Anaya también destaca que esta tecnología, al contar con aprendizaje autónomo, se vuelve cada día más avanzada. Combatirlo no es fácil, y una de las pocas formas es recurrir a los mismos métodos: “Si los cibercriminales utilizan inteligencia artificial, los que trabajamos en la industria de protección necesitamos utilizar también inteligencia artificial”.

Pero más allá de la amenaza a la identidad, a especialistas en seguridad como Luis Corrons, de Avast, les preocupa el “mal a mayor escala” que puede causar un vídeo falso que se vuelva viral: “Te puede desestabilizar un país entero”, alerta. Por ello apuesta por limitar la difusión de este tipo de contenido por la vía penal: “Habría que estudiar qué posibilidades hay a nivel legislativo; a un ciberdelincuente le dará igual, pero puede reducir parte de la gente que lo hace porque es gracioso”.

Impulsado por el porno

Una de las particularidades más curiosas del deepfake es su origen en la industria pornográfica. “La tecnología fue impulsada por el porno, que empezó a poner caras famosas en los vídeos”, explica Enrique Domínguez. De hecho, Scarlett Johansson, uno de los rostros conocidos que aparecía con frecuencia en este tipo de contenido editado, llegó a pronunciarse al respecto en 2018, cuando avanzó que no intentaría eliminar los vídeos porque la cultura de internet y las divergencias legales entre países convertían cualquier lucha contra este fenómeno en “una causa perdida”, además de no considerar que su imagen pública se viera afectada.

A medida que avanza, la tecnología deepfake ha saltado del porno a la televisión y se ha extendido hacia el fraude corporativo y las noticias falsas, entre muchos otros ámbitos --cada vez más-- que se han visto afectados. Para defendernos de esta amenaza, los expertos apuestan por contraatacar con más formación, verificación, reformas legales e inteligencia artificial, pero la vulnerabilidad cada vez es mayor, y el peligro de recibir un vídeo --o una videollamada-- engañoso está lejos de desaparecer.