Suplantación de identidad, la nueva técnica que ciberdelincuentes usan para sus estafas

Suplantación de identidad, la nueva técnica que ciberdelincuentes usan para sus estafas

Por Manuel Filomeno

¿Lionel Messi promocionando una app de juegos? ¿Elon Musk hablando sobre criptomonedas? ¿Donald Trump vendiendo comida mexicana? La suplantación de identidades mediante el uso de inteligencia artificial y otras tecnologías se ha convertido en una nueva tendencia dentro del mundo del cibercrimen. La última víctima es el astro argentino.

En pasados días, se hizo viral un video en el cual se puede ver al mejor futbolista del mundo siendo entrevistado en un programa de la televisión argentina y en el que habla acerca de cómo obtener nuevos ingresos. De pronto, el astro menciona que su equipo trabaja en una app llamada Wildcat Dive, la cual puede ayudar a las personas a ganar dinero.

“¿Cuántas fuentes de ingresos tienes?” Pregunta el entrevistador en el video. Frente a esto, el presunto Messi le responde que, además de ser futbolista, mantiene alianzas con otras marcas pero que “con su equipo, desarrolló Wildcat Dive”, la cual es su principal fuente de recursos.

Sin embargo, todo el contenido es falso y fue generado mediante el uso de herramientas de IA, entre ellas, el deepfake.

Mediante estas tecnologías, los creadores del video pudieron emular el lenguaje corporal, la imagen y hasta la voz de Messi y de su entrevistador, utilizando como base una entrevista real que el astro dio al programa “Olga”.

Messi no es la primera víctima de la suplantación de identidad mediante las nuevas tecnologías. En anteriores oportunidades, la red Youtube fue inundada por videos generados mediante IA en los cuales el magnate Elon Musk habla sobre el futuro de las criptomonedas e invita a la gente a invertir en estos activos.

En otra oportunidad, fue el exfutbolista David Beckham quien fue suplantado para promocionar productos fraudulentos.

Mal uso de la tecnología

“Las deepfakes (acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo) o manipulaciones de medios digitales utilizando inteligencia artificial para crear contenido falso y realista, plantean riesgos significativos. Por ejemplo, la manipulación de imágenes y videos genera imágenes falsas que pueden parecer auténticas, puede influir en la percepción del público sobre una personalidad, afectando su imagen y credibilidad.”, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.

El experto señala que la desinformación se materializa mediante la creación de discursos falsos, entrevistas inventadas o declaraciones ficticias, lo cual puede llevar a una desinformación masiva.

Ante esta situación, compañías como Meta, casa matriz de las redes sociales Facebook, Instagram y Threads, anunció en los pasados días que identificará y marcará todo el contenido generado con IA que sea subido a sus plataformas, esto, en prevención hacia los ataques políticos que puedan darse a través de la generación de imágenes.

El año pasado, Meta anunció que ya podía identificar el contenido creado con su propia herramienta, Meta AI; sin embargo, la identificación ahora se extenderá al contenido generado con otras plataformas como Google Bard, Midjourney o Dall-E.

El desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas (deepfakes) pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.

Suplantación de identidad, la nueva técnica que ciberdelincuentes usan para sus estafas

Recomendaciones

Ante éste y otros ataques que involucren contenido manipulado o deepfake, la plataforma de ciberseguridad ESET recomienda seguir los siguientes consejos:

  1. Verificar la fuente: antes de creer o compartir contenido en línea, es fundamental verificar la autenticidad de la fuente, investigando la reputación y la credibilidad del sitio web, la cuenta de redes sociales o la aplicación que está promoviendo el contenido.
  2. Analizar el contexto: debemos examinar el contexto en el que se presenta el contenido. ¿Coincide con el tono y el estilo habitual de la persona o la organización que se muestra en el video? Si algo parece fuera de lugar o poco probable, es posible que se trate de un deepfake.
  3. Comparar con fuentes confiables: ante dudas sobre la veracidad de un video o una noticia, es posible compararlos con fuentes confiables y verificadas como otros sitios, entrevistas o escritos para obtener una perspectiva más completa y precisa.
  4. Estar atento a las inconsistencias: detalles como movimientos faciales irregulares, errores en la sincronización labial o anomalías en la calidad del audio y el video pueden ser señales de que el contenido ha sido manipulado digitalmente.

Mantenerse informado: estar al tanto de las últimas tendencias y desarrollos en tecnologías de manipulación de medios como los deepfakes es vital para identificar y evitar la desinformación y el contenido fraudulento en línea.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *