Cómo detectar si un video o audio es real o fue generado con inteligencia artificial

Por Manuel Joao Filomeno Nuñez

En la última década, la inteligencia artificial ha revolucionado la producción audiovisual, pero también ha abierto la puerta a nuevas formas de manipulación digital. Los llamados deepfakes —videos y audios que imitan rostros y voces humanas con un realismo inquietante— se han convertido en una herramienta cada vez más utilizada para campañas de desinformación, fraudes y ataques a la reputación. 

“Los deepfakes […] plantean riesgos significativos. Por ejemplo, la manipulación de fotos y videos genera imágenes falsas que pueden parecer auténticas, influyendo en la percepción del público sobre una personalidad, afectando su imagen y credibilidad”, explica el abogado William Llanos, especialista en tecnología y docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.

Para Llanos, la desinformación ya no depende solo de rumores o noticias falsas; hoy puede tomar la forma de una entrevista nunca dada o una declaración que jamás existió, pero que visualmente luce irrefutable.

Señales para identificar un video o audio manipulado

Aunque los deepfakes se perfeccionan rápidamente, aún presentan características que permiten detectarlos. Entre las más comunes destacan:

  1. Movimientos faciales inusuales o desincronización labial

Pequeñas vibraciones en la piel, parpadeos antinaturales o desfases entre la voz y los labios pueden revelar un montaje digital.

  1. Audio con calidad irregular.

Según el material revisado, los audios creados con IA suelen presentar “cambios en el tono, el volumen o la claridad de la voz”, fluctuaciones que pueden indicar manipulación.

  1. Entonación monótona o falta de emoción

Las voces sintéticas aún tienen dificultades para reproducir la complejidad emocional de una conversación humana, especialmente en discursos largos.

  1. Respuestas incoherentes o fuera de contexto.

Un patrón frecuente son frases sin sentido lógico o reacciones que no coinciden con la situación.

  1. Evaluación del contexto.

Cuando un video contradice la conducta habitual de una persona o su estilo comunicativo, conviene dudar y verificar.

  1. Comparación con fuentes confiables.

Revisar apariciones previas, perfiles oficiales o declaraciones verificadas sigue siendo una de las herramientas más efectivas.

Para Llanos, la clave está en no asumir que un video o audio es prueba suficiente por sí mismo: 

“La desinformación se manifiesta a través de discursos falsos, entrevistas inventadas o declaraciones ficticias, lo que puede resultar en una desinformación masiva”, puntualiza el jurista .

Un caso reciente

Hacia la segunda mitad de noviembre de 2025, un video publicado en la cuenta oficial de TikTok del vicepresidente Edmand Lara se volvió viral en cuestión de minutos. El material duró poco tiempo en línea, pero fue suficiente para provocar un intenso debate.

Horas después, Lara denunció que el video era falso, que su cuenta había sido hackeada y que se había utilizado inteligencia artificial para manipular su voz e imagen. “No caigan en esa mentira”, pidió en sus redes sociales, asegurando que se trataba de un ataque digital destinado a perjudicar su reputación.

Sin embargo, algunos portales especializados afirmaron que el video parecía auténtico y que no mostraba evidencias claras de manipulación, lo que dividió la opinión pública y convirtió el caso en un ejemplo de los dilemas que plantea la era de la IA: ¿cómo demostrar que algo es falso cuando luce totalmente real? ¿Cómo demostrar que algo es real cuando se lo acusa de haber sido generado artificialmente?

Más allá del desenlace, el caso Lara ilustra la complejidad del escenario actual: figuras públicas, instituciones e incluso ciudadanos comunes pueden ser víctimas de montajes extremadamente verosímiles.

Entre el riesgo y la responsabilidad colectiva

El propio Llanos advierte sobre el impacto social de esta incertidumbre: “Si una persona puede ser fácilmente representada en un video haciendo algo que nunca hizo, ¿cómo podemos confiar en la veracidad de lo que vemos en línea?”. Para el especialista, el desafío no es solo jurídico o tecnológico: es cultural.

A medida que la IA continúa avanzando, las estrategias de verificación deberán fortalecerse. Plataformas como Meta ya desarrollan sistemas para etiquetar contenido generado por IA, pero los expertos insisten en que la educación digital es irremplazable. Identificar inconsistencias, verificar fuentes y evitar compartir contenido dudoso son hoy prácticas fundamentales. En una época donde la imagen y la voz pueden imitarse con precisión milimétrica, la capacidad crítica se convierte en una herramienta de autoprotección. Los deepfakes no solo desafían nuestra percepción de la realidad; cuestionan la forma misma en que construimos confianza en el entorno digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *