Desinformación y caos político, los peligros de la IA y el deepfake en épocas electorales

Desinformación y caos político, los peligros de la IA y el deepfake en épocas electorales

Muchas veces inofensivas, pero en otras utilizadas como armas políticas de destrucción masiva, las imágenes generadas con Inteligencia Artificial (IA) y los llamados “deepfake” (manipulaciones en las que se coloca el rostro de una persona sobre el cuerpo de otra) han vuelto a la palestra mundial, en un contexto en el que casi la mitad de la población mundial deberá acudir a las urnas.

“Las deepfakes, o manipulaciones de medios digitales utilizando inteligencia artificial para crear contenido falso y realista, plantean riesgos significativos durante los periodos electorales. Estos riesgos incluyen la desinformación, la manipulación de imágenes y videos, y el aumento de la polarización”, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.

El experto señala que la desinformación se materializa mediante la creación de discursos falsos, entrevistas inventadas o declaraciones ficticias de candidatos, lo cual puede llevar a una desinformación masiva.

“Por otra parte, la manipulación de imágenes y videos genera imágenes falsas que pueden parecer auténticas, lo cual puede influir en la percepción del público sobre un candidato, afectando su imagen y credibilidad. Por último, la difusión de deepfakes diseñados para avivar la polarización política puede exacerbar las tensiones y contribuir a la fragmentación de la sociedad”, agrega.

Ante esta situación, compañías como Meta, casa matriz de las redes sociales Facebook, Instagram y Threads, anunció en los pasados días que identificará y marcará todo el contenido generado con IA que sea subido a sus plataformas, esto, en prevención hacia los ataques políticos que puedan darse a través de la generación de imágenes.

El año pasado, Meta anunció que ya podía identificar el contenido creado con su propia herramienta, Meta AI, sin embargo, la identificación ahora se extenderá al contenido generado con otras plataformas como Google Bard, Midjourney o Dall-E.

Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas («deepfakes«) pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.

Unifranz
Estos riesgos incluyen la desinformación, la manipulación de imágenes y videos

Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero, antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.

El especialista manifiesta que el deepfake también plantea interrogantes éticos relacionados con la privacidad y la manipulación de la información. 

“Si una persona puede ser fácilmente representada en un video haciendo algo que nunca hizo, ¿cómo podemos confiar en la veracidad de lo que vemos en línea? Esto puede tener un impacto significativo en nuestra percepción de la realidad y en nuestra confianza en los medios de comunicación”, puntualiza.

La empresa californiana OpenAI, creadora de ChatGPT, también anunció, a mediados de enero, el lanzamiento de herramientas para combatir la desinformación, y afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.

«Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique» al proceso democrático, explicó OpenAI, a tiempo de advertir que su generador de imágenes DALL-E 3 contiene «salvaguardas» para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.

Unifranz
Para abordar estos riesgos, es posible implementar diversas estrategias jurídicas

Cómo abordar los riesgos

Llanos indica que este problema requiere de una solución integral, que pasa por la implementación de diversas estrategias jurídicas, como la penalización de la desinformación, la imposición de regulaciones que exijan transparencia a la propaganda, y tecnológicas, como el desarrollo de herramientas precisas para la detección de las imágenes generadas con IA, como ya lo hace Meta.

“Para abordar estos riesgos, es posible implementar diversas estrategias jurídicas. Una de ellas implica la regulación a través de legislación específica que prohíba la creación y distribución de deepfakes con la intención de influir en los procesos electorales. Asimismo, se propone la penalización de la desinformación, así como la implementación de regulaciones que exijan la transparencia en la publicidad política en línea. Además, es importante considerar la implementación de tecnologías de detección de deepfakes, las cuales permitirían identificar y mitigar la propagación de contenido manipulado, como ya vienen implementado los creadores de las grandes redes sociales”, concluye.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *