Por Manuel Filomeno
La tecnología avanza y redefine muchas cosas que antes se daban por sentado, abriendo ventanas de oportunidades, incluso, para la delincuencia, generando riesgos, sobre todo para quienes demoran en adaptarse al mundo digital, el caso de los adultos mayores.
La llegada de la inteligencia artificial (IA) ha revolucionado el mundo, pero también ha dado lugar a la proliferación de nuevas formas de estafa y de nuevos métodos de obtención de información de manera fraudulenta.
La inteligencia artificial ahora es usada para clonar voces, las cuales son empleadas en estafas, sobre todo dirigidas a adultos mayores. Mediante esta técnica, los defraudadores pueden hacerse pasar por un nieto que se ha quedado sin dinero estando de viaje y necesita, de manera urgente, que le transfieran cierta cantidad de dinero para regresar a su casa, entre otros ardides.
Los delincuentes 2.0 utilizan los medios digitales para las actividades ilícitas y representan un desafío para la seguridad en la era digital.
“Estos delincuentes emplean habilidades tecnológicas y conocimiento de Internet para cometer delitos, como el robo de identidad utilizando el deepfake (acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo) para manipular audios, lo que puede ser usado en estafas”, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.
Datos de la Comisión Federal de Comercio (FCT) de Estados Unidos señalan que las estafas telefónicas causaron la pérdida de hasta 11 millones de dólares en 2022. Por otra parte, se recibieron más de 36 mil denuncias. A finales de 2021, alguien le robó 35 millones de dólares a un banco usando esta tecnología.
A pesar del riesgo, es importante conocer algunas características de estos audios, las cuales nos permitirán identificarlos a tiempo.
- Calidad del audio
Un audio hecho con IA presenta una baja calidad de audio. Aunque las herramientas de inteligencia artificial están mejorando constantemente, aún es común notar incoherencias en la calidad de la grabación.
Es importante escuchar con atención los cambios en el tono, el volumen o la claridad de la voz. Las fluctuaciones repentinas pueden ser una señal de que el audio ha sido manipulado o generado artificialmente.
- Entonación de la voz
Las voces generadas por inteligencia artificial aún enfrentan desafíos para replicar con precisión la gama completa de emociones humanas.
Si el discurso suena monótono o carece de la emotividad natural que esperarías en una conversación auténtica, podría tratarse de un audio falso.
Es crucial prestar atención a la entonación y a las pausas inusuales en la conversación, ya que estas pueden ser indicativas de que la voz ha sido generada por una máquina.
- Buscar inconsistencias
Las respuestas de audios generados por inteligencia artificial a menudo presentan inconsistencias o respuestas que no tienen sentido en el contexto de la conversación.
Aunque las herramientas de inteligencia artificial son avanzadas, pueden cometer errores lógicos que un humano no cometería. Es común que los audios falsos contengan afirmaciones absurdas o incoherentes, lo que puede ser un indicio de intento de fraude.
- Confirmar la identidad
Si se recibe un audio sospechoso, siempre es buena idea verificar la fuente. Hay que corroborar una confirmación adicional utilizando otros medios de comunicación, como videollamadas o redes sociales oficiales.
Las entidades legítimas generalmente disponen de múltiples formas de contacto y estarán dispuestas a confirmar la veracidad del mensaje. La falta de disponibilidad o negación a proporcionar otras formas de verificación debería levantar una señal de alarma.
- Sospechar de los pedidos
Los estafadores que usan audios hechos con IA pedirán información sensible, contraseñas o pagos inmediatos a sus víctimas.
Siempre se debe tener precaución ante cualquier mensaje que solicite datos personales o financieros, especialmente si viene acompañado de una presión para actuar rápidamente.
Los audios fraudulentos a menudo intentan crear una sensación de urgencia para disminuir tu capacidad de pensar críticamente. Nunca compartir información personal o financiera solo con escuchar un audio.
Cómo protegerse
Ante el riesgo de caer en este tipo de estafas, es importante la utilización de aplicaciones de seguridad, ya que se constituyen en una capa extra a las disponibles en los teléfonos para identificar y bloquear llamadas sospechosas.
Por otra parte, es importante una adecuada comunicación a través de canales exclusivos con los miembros de la familia, para así minimizar riesgos. También mantener la calma y verificar la autenticidad de tales peticiones de ayuda financiera.
Ante una llamada de este tipo, se debe colgar y contactar directamente al familiar o amigo en cuestión por medio de líneas telefónicas o canales de comunicación previamente establecidos y confiables.
Este fenómeno refleja la creciente importancia de la educación digital en un amplio espectro de la población, especialmente en aquellos individuos que podrían no estar bien informados sobre las nuevas tecnologías.