¿Puede la IA tener emociones o sólo aparentar tenerlas?

¿Puede la IA tener emociones o sólo aparentar tenerlas?

Como si se tratara de ciencia ficción, la tecnología avanza cada día a pasos agigantados, rompiendo barreras que antes se consideraban imbatibles o cuyos plazos se prolongaban por muchos años. La prueba más fehaciente de estos avances se da con la inteligencia artificial (IA).

Empero, hay una barrera que aún no se ha podido superar. Si bien la IA puede interpretar patrones y generar contenidos en base a éstos, no puede imaginar por sí misma, no tiene la capacidad de crear o pensar como los seres humanos, ni tampoco experimentar emociones.

“Los humanos tienen una serie de capacidades que la IA no puede igualar, como la creatividad, la empatía y la capacidad de resolver problemas inesperados. Además, los humanos son necesarios para supervisar e interactuar con los sistemas de IA”, asegura Marcelo Pacheco, director de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.

Pacheco indica que, incluso, si la IA alguna vez alcanza a la generarla, es poco probable que reemplace por completo a los humanos en muchos aspectos; pero, esta situación, podría estar cambiando.

En pasados días, científicos chinos del Instituto de Inteligencia Artificial de Beijing (BIGAI) revelaron a “Tong Tong” una IA con forma humana, capaz de comportarse como un niño de tres años, aprender y hasta expresar emociones propias, según sus creadores.

BIGAI clama que el niño con IA puede asignarse tareas a sí mismo, aprender de forma autónoma y explorar su entorno; y, aunque parezca el argumento de una película de ciencia ficción, los ingenieros de Tong Tong dicen que la IA puede incluso experimentar emociones.

En un vídeo, BIGAI dice que Tong Tong «tiene su propia alegría, ira y tristeza», siendo presentado en la Exposición de Tecnologías de Inteligencia Artificial General celebrada en Pekín a finales de enero de este año.

La empresa ve el desarrollo como un gran paso hacia lograr inteligencia artificial general (IAG), un estado en el que las máquinas pueden pensar o razonar como seres humanos.

«Para avanzar hacia la inteligencia artificial general, debemos crear entidades que puedan comprender el mundo real y poseer una amplia gama de habilidades», explicó en un comunicado BIGAI.

Del otro lado de la vereda, expertos critican La falta de transparencia en la metodología utilizada para el desarrollo de Tong Tong y expresan preocupación, ya que se desconoce su exactitud y validez. Algunos expertos en inteligencia artificial señalan una falta de rigor científico en su desarrollo, cuestionando su verdadero avance en el campo de la IA y considerándola más bien como una aplicación sofisticada de tecnologías existentes.

Científicos chinos del BIGAI revelaron a “Tong Tong” una IA con forma humana, capaz de comportarse como un niño de tres años, aprender y hasta expresar emociones propias, según sus creadores.

Inteligencia artificial general

“Hoy, estamos viviendo lo que es la IA especializada. Se estimaba que el 2050 se iba a poder desarrollar una inteligencia general. En otras palabras, una IA general va a tener suficiente capacidad y autonomía de actuar por sí sola”, explica Sergio Valenzuela, docente de la carrera de Ingeniería de Sistemas de Unifranz.

Este logro es conocido como la “singularidad tecnológica”, la cual sostiene la idea de que la historia humana se está acercando a un momento en el cual los humanos serán superados por máquinas artificialmente inteligentes o inteligencia biológica cognitivamente mejorada, o ambas, según la definición del Instituto Tecnológico de Massachusetts (MIT). 

Según esta teoría, los sistemas desarrollados por los humanos ganarán la capacidad de mejorarse a sí mismos recursivamente, creando una línea de desarrollo autónoma que excedería las limitaciones del pensamiento humano.

Una de las consecuencias de la singularidad será el posible desarrollo de emociones por parte de la IA, lo que plantea otro tipo de dilemas, como el Efecto Eliza, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, el cual sucede cuando una persona dota de cualidades humanas a una máquina, pudiendo llegar a enamorarse de ella.

“El Efecto Eliza parte de un experimento en el que una persona sostiene una conversación con alguien que está detrás de una pared y la persona no distingue si está hablando con un ser humano o si su interlocutor es una máquina”, explica Valenzuela.

El experto indica que hay que tener claro que, por lo pronto, la IA no reconoce emociones, a partir de ahí no se puede reconocer ningún tipo de vínculo que sea correspondido ya que la IA no siente ningún tipo de emoción.

“Hay que tener en cuenta dos cosas. Si una persona tiene ciertos problemas mentales, ávida de contar con una especie de refugio y comprensión puede llegar a sugestionarse y pensar que la IA reconoce sus emociones, que la IA siente algún tipo de afecto hacia esta persona, cosa que no es cierto, porque la IA no siente de momento”, explica.

Esta situación podría cambiar con la singularidad. “Hay personas que se sugestionan y, en este afán de entablar una relación, piensan que tienen una respuesta con su interlocutor de IA, con quien logran desarrollar una empatía, una relación y hasta sentimientos. Pero la IA no siente, al menos por el momento, aunque es posible que esto se pueda presentar cuando se alcance la singularidad”, puntualiza.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *