La manipulación de vídeos, imágenes o incluso audios, a través de la inteligencia artificial están a la orden del día. Cualquiera puede ser una víctima y los más jóvenes son quienes están más expuestos, ya que se encuentran en edades de formación y madurez. Es importante formar al usuario para protegerlo, sobre todo a los menores, quienes ya hacen uso de la IA. De hecho, casi un 20% accedieron a OpenAI en 2023, según el último informe de Qustodio.
No cabe duda de que la irrupción de la inteligencia artificial ha cambiado la forma en la que se usa la tecnología. Estos avances pueden suponer una ventaja, por ejemplo, en la simplificación de tareas, o una amenaza, como es en la falsificación de información.
Entre algunas de las preocupaciones sobre su uso están los deepfakes. Este concepto se refiere a contenido, como vídeos, imágenes o incluso audios, manipulado a través de la inteligencia artificial. La exposición a estas falsificaciones puede cambiar la percepción digital de los usuarios haciendo pasar información falsa por real. Es importante formar a las personas para protegerlas, sobre todo a los menores, quienes ya hacen uso de la IA. De hecho, casi un 20% accedió a OpenAI en 2023, según el último informe de Qustodio, plataforma líder en seguridad online y bienestar digital para familias, ‘Nacer en la era digital: La generación de la IA’.
Peligros como los deepfakes están a la orden del día. Celebridades como Taylor Swift han sido víctimas de ello a raíz de la creación de imágenes pornográficas falsas. Cualquiera puede ser una víctima y son los menores los que están más expuestos, ya que se encuentran en edades de formación y madurez. Los expertos de Qustodio recomiendan a las familias hablar con hijos de manera abierta y explicarles los peligros que el uso de la IA puede acarrear. De esta manera, tendrán todas las herramientas para acceder a la IA de manera responsable y haciendo un uso correcto.
¿Cómo se detecta un deepfake?
Aunque es complicado detectarlo, es importante tratar de conocer cuándo se está ante una información manipulada. De hecho, según una encuesta realizada por el Centro para la Gobernanza del Cambio de IE University, solo un 27% de los europeos cree que podría detectar qué contenidos se han generado a través de la inteligencia artificial.
Los más jóvenes tienen que saber que, normalmente, si se encuentran ante una noticia muy impactante o poco común, deben plantearse que quizá estén ante un deepfake. Es importante contrastar la información antes de darla como verdadera, sobre todo ante noticias inusuales. Por ello, los expertos de Qustodio ofrecen cinco detalles para poder identificarlos:
Desproporción: aunque en ocasiones puede ser complicado distinguirlo, las personas pueden presentar cierta desproporción entre la cara y el cuerpo o las extremidades, lo que da lugar a una imagen o vídeo modificado.
Lenguaje no verbal: el contenido puede presentar errores en los patrones, como la sincronización entre el sonido y los labios o los movimientos corporales.
Nitidez de la voz: si un vídeo no presenta sonido, es un primer síntoma para sospechar. Cuando lo tiene, estas herramientas utilizan voces pregrabadas por lo que pueden resultar desnaturalizadas y diferentes a las de verdad.
Número de parpadeos: puesto que estos algoritmos son todavía imprecisos, se pueden detectar errores como en el número de parpadeos, ya que suele hacerse en pocas ocasiones y de forma antinatural.
Duración del vídeo: normalmente, la manipulación de vídeos es un trabajo muy costoso, por lo que los vídeos falsos suelen durar poco tiempo.
Eduardo Cruz, CEO y co-fundador de Qustodio, destaca que "hay que entender que la IA va a formar parte del día a día de los menores, por ello, es importante que los padres les eduquen y les ayuden a entender sus beneficios y sus peligros. El problema del deepfake está, sobre todo, en el contenido, el atentar contra la dignidad de las personas como, por ejemplo, con montajes sexuales. Para poder hacerle frente tanto adultos como jóvenes debemos hacer un uso responsable y no compartir aquella información que creamos falsa".