Ciberseguridad

Los peligros del deepfake para la reputación, las finanzas y seguridad de las personas

Los expertos aconsejan mantenernos actualizados sobre las prácticas de desinformación y las técnicas para protegernos del contenido engañoso.

De noticias falsas o sacadas de contexto, fotografías alteradas hasta vídeos que simulan la imagen y la voz auténtica de un artista o funcionario. Ha sido una evolución muy rápida para una acción maliciosa conocida como desinformación, que adquiere nuevos músculos con el uso de la inteligencia artificial. Mantenerte al margen no te salva; la alternativa es permanecer alerta y seguir las recomendaciones de expertos para contrarrestar.

Entre el sector privado, los gobiernos, así como entidades sin fines de lucro y las Naciones Unidas, el consenso es que en la búsqueda de soluciones a esta problemática no cabe la discusión si sumarse o no a la inteligencia artificial, herramienta muy recurrida para el uso de la deepfake. Según la Fundación del Español Urgente (Fundeu), este término, más actual que el de fakenews, podría traducirse al español como contenido “ultrafalso”.

La idea central aquí es que cualquier individuo puede caer víctima del deepfake aunque no utilice ChatGPT y otras IA generativas.

La National Cibersecurity Aliance define deepfakes como “vídeos o clips de audio generados por inteligencia artificial que hacen parecer que alguien está diciendo o haciendo algo que nunca hizo”.

“Los deepfakes pueden utilizarse para difamar a personas y cometer fraudes. Por ejemplo, si tu identidad vocal e información sensible cayera en malas manos, un ciberdelincuente podría utilizar deepfake para contactar con tu banco”, advierte en su página web.

National Cibersecurity Aliance

También es un punto de consenso que esta distorsión de voz y de imagen, utilizada por lo general contra alguien con algún grado de fama o de incidencia pública, resulta en una práctica dañina no solo para la personalidad plagiada sino también para la colectividad, ya que las personas podrían tomar decisiones desacertadas, con base en un dato falso o situación manipulada.

De acuerdo con los resultados de una encuesta que hizo Unesco con 8,000 personas de 16 países que tuvieron o tendrán elecciones en este 2024, un 87% de los consultados consideran que la desinformación constituye una “amenaza real” y se preocupan por su impacto en los comicios.

Además, un 67% de los internautas ya se han visto confrontados a discursos de odio en línea en plataformas como Facebook, Tiktok o X.

Pero los usos y efectos pueden ir más allá. Es tan trascendental el daño de esta “ultradesinformación”, que la Unesco (Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura) ha advertido del peligro de borrar de la historia en línea (así de fuerte), la información verídica sobre el holocausto ejecutado por la Alemania Nazi.

Un informe del organismo advierte que la IA generativa no solo facilita que personas malintencionadas difundan desinformación y discursos de odio, sino que también puede crear involuntariamente contenidos falsos o engañosos sobre el Holocausto.

“Así, Chat GPT inventó por completo las campañas del ‘Holocausto por ahogamiento’, en las que los nazis ahogaban a los judíos en ríos y lagos, y Bard generó citas falsas de testigos para apoyar narraciones distorsionadas de las masacres del Holocausto”, precisa Unesco.

Unesco.

En consecuencia, el organismo advierte que, ahora que cuatro de cada cinco jóvenes de entre 10 y 24 años (el 80 %) utilizan la IA varias veces al día con fines educativos y de entretenimiento, entre otros, es necesario actuar con rapidez para establecer unos marcos éticos en esas tecnologías.

Las tecnologías deepfake pueden utilizarse para robar su identidad

Ante ese panorama, la responsabilidad de contrarrestar la desinformación y el uso del contenido ultrafalso corresponde tanto a gobiernos, plataformas digitales, el mundo de los negocios, como a cada individuo.

La National Cibersecurity Aliance ofrece algunos consejos prácticos para evitar caer víctimas de un deepfake:

  • Comparte con cuidado: Limita la cantidad de datos disponibles  como fotos y vídeos de alta calidad que compartes en línea. Puedes ajustar la configuración de las plataformas de redes sociales para que solo las personas de confianza puedan tener acceso.
  • Habilita una configuración de privacidad sólida, para controlar quién puede acceder a la información personal.
  • Usa marca de agua en las fotos y vídeos, para disuadir a los creadores de deepfakes, ya que esto hace que sus esfuerzos sean más rastreables.
  • Infórmate sobre deepfakes e IA: Estar al tanto de los últimos avances sobre el tema, cuyos alcances van cambiando rápidamente.
  • Utiliza la autenticación multifactor (o MFA, por sus siglas en inglés): Mezclar, por ejemplo, un escaneo facial, código enviado por mensaje de texto a tu teléfono o una aplicación independiente en tu dispositivo.
  • Utiliza contraseñas largas, fuertes y únicas: Se recomienda al menos 16 caracteres, una clave única para cada cuenta y contener una combinación aleatoria de mayúsculas, minúsculas, números y caracteres especiales. La mejor forma de recordar todas estas contraseñas únicas es almacenándolas en un gestor de contraseñas con la función MFA activada. 
  • Mantén tu software actualizado en tus dispositivos: El software obsoleto puede tener vulnerabilidades que los piratas informáticos pueden aprovechar para acceder a tus datos.
  • Evita el phishing: Extrema las precauciones cuando recibas correos electrónicos, mensajes directos, mensajes de texto, llamadas telefónicas u otras comunicaciones digitales si desconoces la fuente.
  • Denuncia los contenidos deepfake: Si encuentras un contenido deepfake, denúncialo a la plataforma que aloja el contenido.
  • Consulta a un asesor jurídico: Si eres víctima de un deepfake que ha dañado tu reputación, consulta con expertos legales en ciberseguridad y privacidad de datos.

Pero, para denunciar, hay que saber identificar. En la medida que avanza la tecnología para hacer las tareas cotidianas mucho más ágiles, así también las personas malintencionadas actualizan sus métodos. Sin embargo, todavía los fraudes mediante clonación de voz e imagen exponen algunos puntos débiles que ayudan a detectar alteraciones. La Plataforma de periodismo de comprobación Maldita.es ofrece aquí algunas claves:

  • Contorno de perfil: La máscara deepfake está rota, con menos detalle o mal alineada.
  • Rostro borroso: Hay una diferencia de nitidez o resolución entre la máscara y el resto del vídeo.
  • Bordes visibles: Contornos nítidos o borrosos alrededor del rostro.
  • Oclusión facial: Cuando algo pasa por delante de la cara (por ejemplo, una mano), se distorsiona la máscara o la máscara cubre el objeto.
  • Perspectiva errónea: El deepfake tiene una perspectiva diferente al resto del vídeo. El vídeo fuente y destino difieren en longitud focal.
  • Efecto de parpadeo: Hay un parpadeo entre el rostro original y el rostro deepfake. El algoritmo no puede reconocer la cara y deja de crear la máscara durante unos instantes.
  • Desajuste del color de piel: El rostro parece estar cubierto por una capa de colores y se observan bordes o manchas y contraste.

También, la web ofrece múltiples facilidades con el fin de mantenernos a salvo. Entre otras plataformas y herramientas, la Red Internacional de Periodistas recomienda TensorFlow y PyTorch herramientas gratuitas que emplean redes neuronales profundas para detectar deepfakes. Pueden utilizarse para analizar imágenes, vídeos y pistas de audio con el fin de detectar indicios de manipulación. Los usuarios solo tienen que subir ejemplos de contenidos reales y falsos para entrenar un modelo de detección que sea capaz de diferenciar entre ambos.


Explora otras publicaciones

Llevemos esto a tu bandeja de entrada

Recibe nuestro boletín con recursos como artículos, guías y videos.
Logo Asociación de Bancos Múltiples de la República Dominicana

Suscríbete a nuestro newsletter especial y recibe informaciones acerca del sector financiero y la banca múltiple

* indicates required
Selecciona tu tema de interés