Imágenes del Papa Francisco, de Donald Trump o de Vladimir Putin en situaciones inverosímiles pero inocentes aparecen en Internet con más frecuencia, pero también aparecen otras no tan inofensivas, las cuales plantean dilemas éticos y legales.
El “deepfake” o “ultrafalso” es una tecnología que, a través de herramientas de la Inteligencia Artificial, permite crear imágenes o videos falsos que parecen auténticos, permitiendo, por ejemplo, colocar el rostro de una persona sobre el cuerpo de otra, o convertir una foto de una persona con ropa en otra sin ropa, entre otras aplicaciones.
“El deepfake utiliza inteligencia artificial para generar imágenes y videos falsos que parecen auténticos. Esto implica que se puede tomar el rostro de una persona y colocarlo en el cuerpo de otra, creando así una apariencia engañosa”, señala William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.
El experto agrega que, si bien esta tecnología puede resultar fascinante, desde el punto de vista técnico, también plantea diversos desafíos éticos y legales relacionados con el derecho a la propia imagen.
Uno de estos desafíos radica en la dificultad de establecer la autenticidad de una imagen o un video.
“Antes de la aparición de esta tecnología, las pruebas de video eran consideradas una evidencia sólida en los tribunales. Sin embargo, con la capacidad de manipular videos de manera tan convincente, se ha vuelto más complicado determinar si un video es auténtico o si ha sido alterado mediante deepfake”, argumenta.
¿Tenemos derechos sobre nuestra propia imagen?
Llanos apunta que, uno de los aspectos más preocupantes del deepfake es su potencial para el uso indebido en difamación, extorsión o incluso campañas de desinformación.
“Por ejemplo, una persona malintencionada podría crear un video falso de un político pronunciando discursos ofensivos o comprometedores, con el fin de dañar su reputación. Esto no solo afectaría la imagen de la persona involucrada, sino que también podría influir en la percepción pública y en la toma de decisiones”, dice.
En este contexto, el profesional advierte que es fundamental analizar cómo se protege el derecho a la propia imagen en relación con estas nuevas tecnologías.
“El derecho a la propia imagen es un derecho fundamental reconocido en muchos países, que garantiza a las personas el control sobre el uso de su imagen y evita su explotación sin consentimiento. Sin embargo, con la aparición del deepfake, resulta cada vez más difícil determinar la veracidad de una imagen o un video”, agrega el docente.
El especialista manifiesta que el deepfake también plantea interrogantes éticos relacionados con la privacidad y la manipulación de la información.
“Si una persona puede ser fácilmente representada en un video haciendo algo que nunca hizo, ¿cómo podemos confiar en la veracidad de lo que vemos en línea? Esto puede tener un impacto significativo en nuestra percepción de la realidad y en nuestra confianza en los medios de comunicación”, puntualiza.
¿Qué leyes protegen nuestra imagen?
En Bolivia, el artículo 21 de la Constitución Política del Estado (CPE), reconoce explícitamente el derecho a la propia imagen, junto al derecho a la intimidad y al honor. En caso de vulneración de este derecho, se prevé para la víctima el derecho a la indemnización, reparación y resarcimiento de daños y perjuicios en forma oportuna.
Por otra parte, el artículo 16 del Código Civil también resguarda el derecho a la imagen señalando que, cuando se comercie, publique, exhiba o exponga la imagen de una persona lesionando su reputación o decoro, el juez deba hacer cesar el hecho lesivo, extendiéndose este resguardo a la voz de la persona.
Sin embargo, al momento no existe legislación específica sobre el uso de las inteligencias artificiales y el deepfake en posibles delitos contra el honor y la imagen personal.
“Frente a las nuevas tecnologías, es necesario que los legisladores y los expertos en tecnología trabajen en conjunto para desarrollar regulaciones que aborden estos desafíos. Una posible solución podría ser la implementación de leyes que prohíban la creación y difusión de deepfakes sin el consentimiento de las personas involucradas. Además, también se pueden establecer mecanismos de detección de deepfakes, utilizando la misma tecnología de inteligencia artificial, para identificar y combatir su propagación”, agrega Llanos.
Por otra parte, el experto indica que es importante fomentar la educación y concientización sobre el tema. Las personas deben ser conscientes de los riesgos asociados con el deepfake y aprender a detectarlos.
“Esto implica ser críticos al consumir contenido en línea y verificar la fuente y la autenticidad de las imágenes y videos que se encuentran en Internet”, indica .
Otro punto a considerar es la necesidad de actualizar las leyes de derechos de autor y propiedad intelectual para abordar el problema del deepfake.
“Si una persona utiliza el rostro de un actor famoso en un video sin su consentimiento, ¿de quién es la propiedad intelectual de ese video? ¿Es legal utilizar el rostro de una persona sin su autorización? Éstas son preguntas difíciles de responder, ya que la legislación actual no contempla específicamente este tipo de tecnología”, finaliza el experto en Derecho Informático.