La ilusión del amor puede hacer que las personas tomen riesgos innecesarios, como compartir contraseñas, datos bancarios o entregar sumas de dinero a enamoradas o enamorados. Pero, qué pasaría si en lugar de una persona estuviéramos hablando con una inteligencia artificial (IA), una que desvía nuestros datos a estafadores profesionales.
Una herramienta bautizada como Love-GPT es capaz de entablar conversaciones, eludir las medidas de seguridad de las principales aplicaciones de citas y ocultar, inteligentemente, sus actividades en línea. “Lo que nos preocupa más es el uso de ChatGPT para producir conversaciones que suenan inquietantemente auténticas”, advirtió, hace algunas semanas, la empresa de ciberseguridad Avast, en un comunicado.
La herramienta en cuestión, Love-GPT, existe hace al menos 10 años, pero recientemente fue potenciada por el uso de la inteligencia artificial ChatGPT de OpenAI que se volvió un problema en las aplicaciones de citas como Tinder o Bumble, confundiendo a los usuarios más experimentados.
Nataly Miranda, directora de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz, señala que la inteligencia artificial ofrece una amplia gama de beneficios, mejora la eficiencia, la toma de decisiones, la seguridad y la comodidad en muchas áreas de la vida y el trabajo, sin embargo, es importante utilizar la IA de manera ética y responsable, ya que, de lo contrario, se producen ilícitos y se crean riesgos.
“Los riesgos que puedan surgir dependerá de cómo se utilizan estas herramientas. Entre algunos podemos mencionar la desinformación con contenido falso o engañoso si se utilizan con malas intenciones y se viola la privacidad de las personas al crear mensajes falsos en su nombre y recabando información personal”, señala.
Sin embargo, considera que no es prudente satanizar el uso de la IA, ya que ésta también trae muchos beneficios.
“Este tipo de herramientas podrían aportar en muchos aspectos como en la generación de contenido creativo, automatización de tareas empresariales, en la creación de herramientas que ayuden a personas con discapacidad, el apoyo en investigación y análisis de datos, o la automatización, entre otras tareas”, agrega Miranda.
Cómo evitar caer en una estafa
La experta indica que las personas que utilicen las aplicaciones de citas deben mantenerse muy atentos a las respuestas de sus interlocutores, para descubrir posibles estafas.
“Sobre todo por las respuestas basadas en patrones, las cuales se vuelven instantáneas, lo que origina que éstas sean bastante limitadas. Algo importante además es el tema emocional, una inteligencia artificial carece de sentimientos y emociones”, especifica la académica.
Por su parte, Avast sugiere considerar que la IA puede simular empatía, pero no comprende las emociones. Si las respuestas carecen de profundidad emocional o se sienten mecánicas, incluso si los datos carecen de experiencias u opiniones personales, es probable que estés conversando con una IA.
Finalmente, Miranda recomienda tener un uso responsable de las contraseñas con las que se cuenta, tener una navegación segura y no brindar información delicada, como números de cuentas o contraseñas personales, entre otros datos importantes.