Cómo evitar ser víctima de estafas con voces clonadas por la IA

By Manuel Joao Filomeno Nuñez

En pasados días, el Ministerio de Gobierno informó sobre el desmantelamiento de una organización criminal que utilizaba inteligencia artificial para clonar la voz del ministro de Educación, Omar Véliz, y estafar a personas con la promesa de empleos falsos. Los delincuentes operaban desde la cárcel y lograron recaudar al menos Bs 5 millones de 19 víctimas.

La clonación de voz es una tecnología diseñada inicialmente para usos legítimos, como asistentes virtuales o narración de audiolibros. Sin embargo, su uso indebido se ha convertido en una preocupación creciente.

“Antes de la aparición de esta tecnología, las pruebas de video y audio eran consideradas una evidencia sólida en los tribunales. Sin embargo, con la capacidad de manipular las voces de manera tan convincente, se ha vuelto más complicado determinar si una voz es auténtica o si ha sido alterada mediante IA”​, señala William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.

Este problema no es nuevo. En Estados Unidos, la Comisión Federal de Comercio (FTC) reportó que en 2022 las estafas telefónicas con clonación de voz causaron pérdidas de hasta 11 millones de dólares, con más de 36 mil denuncias. En otro caso, un grupo de ciberdelincuentes utilizó esta tecnología para robar 35 millones de dólares a un banco​.

Sobre el caso registrado en Bolivia, el grupo criminal, compuesto por siete personas, difundía mensajes en redes sociales y usaba la voz clonada del ministro para convencer a las víctimas de pagar un monto inicial de Bs 3.500 mediante QR. Hasta ahora, se ha identificado a cinco miembros de la organización, de los cuales tres ya están presos.

Estos delincuentes son acusados de estafa, concusión, agravación por víctimas múltiples, acción delictuosa y organización criminal.

Normativa en Bolivia

Si bien la clonación de voz con IA plantea un desafío global, en Bolivia ya existen leyes que protegen la voz como parte del derecho a la propia imagen.

El artículo 21 de la Constitución Política del Estado (CPE) reconoce el derecho de cada ciudadano a su imagen y voz, garantizando medidas de indemnización y reparación en caso de vulneración​.

Además, el artículo 16 del Código Civil establece que, si la imagen o la voz de una persona son utilizadas sin su consentimiento de manera que lesionen su reputación, un juez puede ordenar el cese inmediato de dicha actividad.

No obstante, actualmente no existe una legislación específica que regule el uso de inteligencia artificial en la clonación de voz con fines delictivos. Llanos sugiere que es urgente actualizar las normativas bolivianas.

“Frente a las nuevas tecnologías, es necesario que los legisladores y los expertos en tecnología trabajen en conjunto para desarrollar regulaciones que aborden estos desafíos”​.

Una posible solución sería la prohibición de la creación y difusión de voces clonadas sin consentimiento, además del desarrollo de herramientas de detección basadas en IA para frenar su propagación.

¿Cómo identificar y protegerse de un audio falso?

Ante este creciente riesgo, es fundamental aprender a reconocer los audios generados por IA. Algunas señales de alerta incluyen:

  1. Calidad del audio

Un audio hecho con IA presenta una baja calidad de audio. Aunque las herramientas de inteligencia artificial están mejorando constantemente, aún es común notar incoherencias en la calidad de la grabación.

Es importante escuchar con atención los cambios en el tono, el volumen o la claridad de la voz. Las fluctuaciones repentinas pueden ser una señal de que el audio ha sido manipulado o generado artificialmente.

  1. Entonación de la voz

Las voces generadas por inteligencia artificial aún enfrentan desafíos para replicar con precisión la gama completa de emociones humanas. 

Si el discurso suena monótono o carece de la emotividad natural que esperarías en una conversación auténtica, podría tratarse de un audio falso. 

Es crucial prestar atención a la entonación y a las pausas inusuales en la conversación, ya que estas pueden ser indicativas de que la voz ha sido generada por una máquina.

  1. Buscar inconsistencias 

Las respuestas de audios generados por IA, a menudo, presentan inconsistencias o respuestas que no tienen sentido en el contexto de la conversación. 

Aunque las herramientas de inteligencia artificial son avanzadas, pueden cometer errores lógicos que un humano no cometería. Es común que los audios falsos contengan afirmaciones absurdas o incoherentes, lo que puede ser un indicio de intento de fraude.

  1. Confirmar la identidad

Si se recibe un audio sospechoso, siempre es buena idea verificar la fuente. Hay que corroborar una confirmación adicional utilizando otros medios de comunicación, como videollamadas o redes sociales oficiales.

Las entidades legítimas generalmente disponen de múltiples formas de contacto y estarán dispuestas a confirmar la veracidad del mensaje. La falta de disponibilidad o negación a proporcionar otras formas de verificación debería levantar una señal de alarma.

  1. Sospechar de los pedidos

Los estafadores que usan audios hechos con IA pedirán información sensible, contraseñas o pagos inmediatos a sus víctimas. Siempre se debe tener precaución ante cualquier mensaje que solicite datos personales o financieros, especialmente si viene acompañado de una presión para actuar rápidamente.

Los audios fraudulentos a menudo intentan crear una sensación de urgencia para disminuir tu capacidad de pensar críticamente. Nunca compartir información personal o financiera solo con escuchar un audio.

El caso de la clonación de la voz del ministro Véliz es un claro ejemplo de cómo la clonación de voz con IA está transformando el panorama de las estafas. La falta de conciencia sobre esta tecnología y la ausencia de regulaciones específicas aumentan el riesgo de que más personas sean víctimas.

Es fundamental que la población adopte medidas de seguridad, que las autoridades actualicen las leyes para abordar este nuevo delito y que se fomente la educación digital para reducir la vulnerabilidad ante estas amenazas tecnológicas.

“Los delincuentes 2.0 representan un desafío para la seguridad en la era digital. Es crucial desarrollar estrategias preventivas para enfrentar este tipo de crímenes”​, advierte Llanos.

Ante la creciente sofisticación de las estafas con IA, la clave para evitar ser víctima radica en la información, la prevención y la adopción de medidas de seguridad.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *