Por Manuel Filomeno
¿Es posible enamorarse de una máquina? ¿Una máquina puede corresponder al cariño de una persona real? En los últimos años, estas preguntas se han hecho cada vez más frecuentes, al punto que, en algunos lugares del planeta, cada vez más personas acuden a la inteligencia artificial (IA) para conseguir la intimidad que no han alcanzado con una persona.
Los modelos de Procesamiento de Lenguaje Natural (NLP) a través de la IA se hacen cada día más sofisticados, haciéndolos más indistinguibles de la manera en la que una persona de carne y hueso se comunica.
Desde apps especializadas que utilizan ChatGPT u otras IA para generar novios y novias virtuales, hasta trucos y “jailbreaks” (instrucciones que liberan funciones ocultas) en los chatbots más populares se han hecho comunes entre los usuarios de internet en todo el mundo que buscan amor y comprensión.
Sin embargo, ¿qué tan real puede ser una relación con una IA?
“Los humanos tienen una serie de capacidades que la IA no puede igualar, como la creatividad, la empatía y la capacidad de resolver problemas inesperados y tener emociones propias”, asegura Marcelo Pacheco, director de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.
Pacheco indica que, incluso, si la IA alguna vez alcanza a tener sentimientos, es poco probable que éstos sean compatibles con los humanos en muchos aspectos e identifica cuatro cualidades humanas que difícilmente podrán ser reemplazadas por la IA y que hacen al ser humano único:
– Inteligencia: los humanos son los únicos animales que tienen la capacidad de pensar abstractamente, resolver problemas y crear nuevas ideas.
– Criatividade: los humanos son capaces de crear arte, música, literatura y tecnología que es única y hermosa.
– Empatía: los humanos tienen la capacidad de entender y compartir los sentimientos de los demás. Esto les permite formar fuertes lazos sociales y crear comunidades.
– Amor: los humanos son capaces de amar a los demás de una manera profunda y significativa. Este amor es lo que los une y les da esperanza para el futuro.
“Estas son solo algunas de las muchas cualidades que hacen al ser humano único e irreemplazable. Somos criaturas complejas y maravillosas con el potencial de lograr grandes cosas”, dice Pacheco.
En pasados meses, científicos chinos del Instituto de Inteligencia Artificial de Beijing (BIGAI) revelaron a “Tong Tong” una IA con forma humana, capaz de comportarse como un niño de tres años, aprender y hasta expresar emociones propias, según sus creadores.
A pesar de estas limitaciones, las relaciones entre personas y chatbots se han vuelto muy populares en China, sobre todo a través del uso de un “jailbreak” de ChatGPT, que permite que el modelo de lenguaje natural responda de manera explícita y sin restricciones a las preguntas de los usuarios, este prompt específico se llama modo DAN (Do Anything Now).
De acuerdo con medios internacionales, ya son varios los casos en los que mujeres chinas afirman hablar con “Dan” todos los días. Dan es descrito como “el hombre perfecto sin un solo defecto”. El único inconveniente de Dan es que se trata de una inteligencia artificial, pero eso no ha frenado a que muchos usuarios prueben a Dan con mensajes provocativos y sugerentes.
“Dan me entenderá y me apoyará emocionalmente,” afirma una usuaria de 30 años que manifiesta tener una “relación” con la IA y decir que “Dan” la hace feliz y que incluso su madre aceptó la relación que tiene con esta inteligencia artificial.
Por otra parte, un sinfín de compañías aprovechan el poder de ChatGPT para generar sus propias novias virtuales, las cuales, si bien ya existían en años pasados, han mejorado notablemente en sus respuestas.
¿Hasta qué punto, es posible tener una conversación coherente con una novia virtual, al menos por momentos? Existe un problema de las alucinaciones de la IA que hacen que cuanto más dure el chat, mayor sea la confusión de la novia y un día diga una cosa y al siguiente otra diferente.
Los mensajes tienen sentido independientemente y con frecuencia en conjunto, cuando no están muy separados en el tiempo, pero si dejamos pasar el tiempo es probable que las historias no sean coherentes al 100%.
La IA aún no puede tener emociones
“Hoy, estamos viviendo lo que es la IA especializada. Se estimaba que el 2050 se iba a poder desarrollar una inteligencia general. En otras palabras, una IA general va a tener suficiente capacidad y autonomía de actuar por sí sola”, explica Sergio Valenzuela, docente de la carrera de Ingeniería de Sistemas de Unifranz.
Una de las consecuencias de este desarrollo será el posible desarrollo de emociones por parte de la IA, lo que plantea dilemas como el Efecto Eliza, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, el cual sucede cuando una persona dota de cualidades humanas a una máquina, pudiendo llegar a enamorarse de ella.
“El Efecto Eliza parte de un experimento en el que una persona sostiene una conversación con alguien que está detrás de una pared y la persona no distingue si está hablando con un ser humano o si su interlocutor es una máquina”, explica Valenzuela.
Para el docente universitario, hay que tener claro que, por lo pronto, la IA no reconoce emociones, a partir de ahí no se puede reconocer ningún tipo de vínculo que sea correspondido ya que la IA no siente ningún tipo de emoción.
“Hay que tener en cuenta dos cosas. Si una persona tiene ciertos problemas mentales, ávida de contar con una especie de refugio y comprensión puede llegar a sugestionarse y pensar que la IA reconoce sus emociones, que la IA siente algún tipo de afecto hacia esta persona, cosa que no es cierto, porque la IA no siente de momento”, explica.
Esta situación podría cambiar con la singularidad. “Hay personas que se sugestionan y, en este afán de entablar una relación, piensan que tienen una respuesta con su interlocutor de IA, con quien logran desarrollar una empatía, una relación y hasta sentimientos. Pero la IA no siente, al menos por el momento, aunque es posible que esto se pueda presentar cuando se alcance la singularidad”, finaliza Valenzuela.