Recientemente, Google ha prohibido los algoritmos de deepfake en Google Colaboratory, su servicio de computación gratuito con acceso a GPUs. El gigante tecnológico no es el único que regula los deepfakes: varios estados de EEUU cuentan con leyes que los regulan; China tiene un proyecto de ley que exige la identificación de los materiales generados por ordenador y el futuro reglamento de la UE sobre IA podría incluir una cláusula sobre esta tecnología.
Pero ¿qué son los deepfakes? Los expertos de Kaspersky responden a esta cuestión y explican por qué hay tanta controversia en torno a ellos, además de compartir algunos consejos para que los usuarios puedan protegerse:
Los "deepfakes" hacen referencia a materiales generados por ordenador con redes neuronales profundas e involucran a personas. Pueden ser vídeos, fotos o grabaciones de voz. El uso del aprendizaje profundo, en lugar de las técnicas tradicionales de edición de imágenes, reduce drásticamente el esfuerzo y habilidades necesarios para crear una falsificación convincente.
Originalmente, el término se refería a un tipo particular de software que había ganado popularidad en Reddit. El software permitía pone el rostro de una persona en un vídeo en el que aparecía otra persona. Por lo general, se utilizaba casi de forma exclusiva para crear contenidos pornográficos no consentidos con celebridades. De acuerdo con algunas estimaciones, hasta el 96% de todos los deepfakes son pornográficos, lo que pone de manifiesto la preocupación de que sean utilizados para lleva a cabo abusos, extorsiones y escarnio público.
Esta tecnología también puede ayudar a los ciberdelincuentes. En al menos dos casos, en Inglaterra y Hong Kong, se ha utilizado deepfake de voz para engañar a empresas haciéndose pasar por directivos, con el objetivo de transferir fondos a los estafadores.
Otro problema es que los deepfakes socavan la confianza en los contenidos de audio y vídeo, ya que pueden utilizarse con fines delictivos. Por ejemplo, en un caso reciente se utilizó una entrevista falsa a Elon Musk para promover una estafa con criptomonedas. Varios expertos e instituciones, como Europol, advierten de que el aumento de deepfakes puede contribuir a que crezca la desinformación en Internet.
Pero no todo son malas noticias. La manipulación de imágenes es tan antigua como las propias imágenes, y el CGI (Computer Generated Imagery, por sus siglas en inglés) existe desde hace décadas. En ambos casos, también se les ha dado usos legítimos. Por ejemplo, en un reciente vídeo de Kendrick Lamar, Heart Part 5, se utilizó la tecnología deepfake para transformar la cara del rapero en la de otros famosos, como Kanye West. En la película Top Gun: Maverick, se usó un algoritmo para poner voz al personaje de Val Kilmer después de que el actor perdiera la voz. También se utilizó deepfake para crear una serie viral de TikTok protagonizada por un falso Tom Cruise. Por su parte, algunas startups buscan ya nuevas formas de utilizar esta tecnología, por ejemplo, generando avatares metaversos de gran realismo.
Con todos los problemas de confianza que rodean a los deepfakes, los expertos de Kaspersky comparten algunos consejos para que los usuarios puedan detectarlos:
Un deepfake convincente, como el de Tom Cruise, requiere mucha experiencia y esfuerzo, y, a veces, incluso un imitador profesional. Los deepfakes utilizados para las estafas siguen siendo de baja calidad y pueden detectarse si se observan movimientos de labios poco naturales, pelo mal representado, formas de la cara que no coinciden, poco o ningún parpadeo, diferente color de la piel, etc. Los errores en la ropa o el paso de una mano por la cara también pueden delatar un deepfake amateur.
Si ves a una persona famosa hacer afirmaciones raras u ofertas demasiado buenas para ser verdad, comprueba la información con fuentes de confianza, incluso si el vídeo parece real. Ten en cuenta que los estafadores pueden codificar intencionadamente los vídeos para ocultar las deficiencias de los deepfakes, por lo que la mejor estrategia no es mirar el vídeo en busca de pistas, sino utilizar el sentido común para comprobar si el contenido es real o no.
Una solución de seguridad de confianza puede ofrecer protección si un deepfake de alta calidad convence a los usuarios para que descarguen algún archivo o programa malicioso, o para que visiten enlaces sospechosos o webs de phishing.
En caso de ser víctima de deepfake porn, los expertos recomiendan dirigirse a la página en cuestión para pedir que retiren el vídeo (muchas webs prohíben la publicación de deepfakes). Además, aconsejan acudir a un organismo policial, ya que generar deepfakes está tipificado como delito en algunas legislaciones.
"Los deepfakes son un excelente ejemplo de cómo, en ocasiones, la tecnología avanza más rápido de lo que somos capaces de comprender. Esto hace complicado gestionar los problemas que puede causar. Asimismo, supone un instrumento de desinformación que nos desafía como sociedad", concluye Vladislav Tushkanov, lead data scientist en Kaspersky.