Volver a ver o escuchar la voz de un ser querido que falleció es un anhelo que muchas personas comparten en todo el mundo, pero hasta hace muy poco, esta posibilidad sólo era parte de historias de magia, ocultismo o ciencia ficción.
Sin embargo, gracias a la inteligencia artificial (IA), el aprendizaje profundo (deep learning), las redes neuronales y a huellas cada vez más profundas en el mundo digital, es posible preservar la memoria de nuestros difuntos, e incluso “hablar” con ellos.
Conservar vínculos permanentes con los muertos a través de textos, imágenes y objetos es algo común; una parte normal de nuestras vidas.
Durante mucho tiempo, las personas han otorgado un valor emocional a las semejanzas con sus ancestros y a las reliquias de sus muertos como medios para mantener el vínculo.
“Con el impulso que ha desarrollado la inteligencia artificial, se utiliza lo que es el deep learning, basado específicamente en el uso de redes neuronales. Mediante estas redes se puede entrenar a la IA a partir de una cierta cantidad de datos para modelar el habla y también la escritura de una persona difunta”, explica Sergio Valenzuela, docente de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz, con un máster en Ingeniería de Software.
Incluso, antes de que ChatGPT se hiciera público a finales de 2022, un usuario ya había utilizado este modelo perteneciente a la compañía OpenAI para hablar con su novia muerta, basándose en sus textos y correos electrónicos.
Tras notar este potencial, una serie de empresas emergentes en tecnología como Here After y Replika lanzaron servicios basados en la IA para resucitar seres queridos a los dolientes.
Valenzuela indica que, con la irrupción de la IA generativa, que utiliza redes neuronales, se puede usar la huella digital de la persona fallecida para generar nuevos datos, como la voz y la manera de expresarse del difunto.
“Hay que tener en cuenta que el insumo principal de la IA moderna son los datos, si no tenemos datos, mal podemos pensar en obtener algún tipo de beneficio. Lo que se hace es que, a partir de este conjunto de datos, se entrenan modelos, mientras más, el resultado será mejor. Mientras más archivos de audio, de video, de texto se tengan se pueden delinear mejor las características de habla y escritura de la persona fallecida. Por ejemplo, si tenía alguna muletilla o si utilizaba un tono especial para referirse a algunos términos en particular, eso se podría capturar”, agrega el experto.
También hay herramientas que permiten usar la tecnología para hacer síntesis de la voz, entonces esto puede convertir el texto que genera la IA en habla y que puede sonar con un determinado tipo de voz.
“Otro tipo de técnicas que se utilizan son los análisis de sentimiento, que tienen que ver con el procesamiento del lenguaje natural y a partir de esto poder determinar el tono que una persona puede darle a una palabra, qué emoción usaban las personas cuando se expresaban, el énfasis que usaban en ciertas palabras, entre otras características”, agrega el experto.
Todas estas técnicas pueden ser utilizadas por los ingenieros de sistemas para desarrollar nuevas aplicaciones que permitan perpetuar la memoria.
Desafíos éticos
“Existen una serie de desafíos éticos en el uso de la IA para recrear la manera de expresarse, la semejanza o la voz de una persona fallecida”, explica Valenzuela.
Por una parte, señala el experto, al tratarse de una persona que ya ha fallecido, ésta no puede reclamar sobre el uso que se dé a su imagen y voz, lo que puede generar conflictos éticos, porque no hay quien otorgue el consentimiento expreso.
En la actualidad, se presentaron casos en los que, a través de técnicas como el deep fake se han “revivido” a actores y cantantes como Michael Jackson, Bruce Lee, Peter Cushing y Carrie Fisher, entre otros. En general, estas recreaciones se hicieron con el consentimiento de la familia, pero en ocasiones esto no es así.
Otro de los desafíos tiene que ver con la autenticidad del contenido generado y si éste se condice con lo que la persona fallecida diría.
“Es importante que lo que recrea la IA sea concordante con cómo se comportaría la persona o cómo se expresaría si estuviera vivo, de lo contrario sería sólo una simulación basada en los datos que se tienen disponibles y esta situación puede llevar a que se originen malos entendidos y se puedan crear falsas expectativas”.
Por ejemplo, a través del uso de la IA, personas inescrupulosas podrían manchar la honra del difunto o yendo a extremos peligrosos podrían crear un testimonio falso, el que podría ser utilizado en una declaración de herederos o un testamento.
“Estas tecnologías se pueden utilizar de una manera inapropiada, esto va a depender de la ética de las personas, de formación, de sus valores y de cómo uno puede emplear las tecnologías para darle un buen uso o un mal uso”, puntualiza el académico.
Impacto emocional
En una reciente investigación, el sociólogo y coordinador de impacto del Centro de Inteligencia Artificial de la Universidad de São Paulo (USP), Glauco Arbix, consideró que el uso de la IA para “traer de vuelta a los fallecidos” es un tema controvertido, ya sea porque plantea debate sobre los efectos psicológicos.
Al respecto, Valenzuela indica que estos debates y efectos van a depender de la persona que requiera el servicio o que busque revivir a su ser querido usando la IA.
“Va a depender mucho de la persona que requiera el servicio. Por una parte, algunas personas pueden sentir bienestar, porque pueden encontrar consuelo y pensar que están ‘hablando’ con su ser querido a partir de la recreación de su voz. Tal vez esto pueda ayudar a procesar el duelo y de paso sentir que hay una conexión continua con la persona fallecida”, explica.
Sin embargo, en contrapartida en otro tipo de personas, el uso de esta tecnología podría generar una sensación de angustia y perturbación al interactuar con una recreación del ser querido, generando malestar.
“En algunas personas puede generar expectativas irreales, aquellas personas que no quieren reconocer que la persona falleció, al utilizar una recreación pueden validar esas expectativas irreales y eso, después, puede producir una mayor angustia porque esas ilusiones no se van a cumplir”, puntualiza el experto.
Por último, está la culpa, ya que algunas personas pueden sentir culpa al interactuar con algo que no es real, sentirían que están traicionando o deshonrando la memoria del difunto para simular la conversación.
“Hay que notar que todos estos impactos dependen de una serie de factores como la relación que se tenía con el ser querido, la manera en la que se está manejando el duelo y la relación que la persona tiene con el uso de la tecnología. Hay que tomar en cuenta la parte emocional y psicológica”, concluye.