Canciones, fotografías y videos con IA, ¿cuáles son los límites éticos de esta tecnología?

Canciones, fotografías y videos con IA, ¿cuáles son los límites éticos de esta tecnología?

Por Manuel Filomeno

Imitar la voz de un cantante, combinar los estilos de sus temas en una canción nueva, producir fotomontajes casi perfectos de una celebridad, desnudar a personas digitalmente y situarlas en videos subidos de tono, todo esto es posible y está al alcance de todos gracias a la Inteligencia Artificial (IA), pero ¿dónde están los límites de esta tecnología? ¿Dónde comienzan los derechos de las personas sobre su imagen y voz?

Hace algunas semanas, el productor chileno Mauricio Bustos agitó las aguas del mundo musical con la canción ‘Demo 5: NostalgIA”, que en pocos días se convirtió en una de las 100 canciones más escuchadas en Spotify, aunque luego fue retirada.

La particularidad es que la canción contenía las voces de los artistas Bad Bunny, Daddy Yankee y Justin Bieber, pero ninguno de ellos colaboró con Bustos, sus voces fueron recreadas usando la IA.

La canción se convirtió en viral en las redes sociales y causó el enojo público del propio Bad Bunny. «Si a ustedes les gusta esa canción que está viral en TikTok, sálganse de este grupo ahora mismo. Ustedes no merecen ser mis amigos», advirtió el afamado cantante puertorriqueño, en su grupo oficial de WhatsApp.

Pero no todas las incursiones de la IA sobre las voces y las semejanzas de las personas son tan inocentes. Por ejemplo, en los primeros días de noviembre, se difundieron en redes sociales varios videos de la cantante Ángela Aguilar bailando sensualmente en provocativo top.

Sin embargo, fans de la famosa descubrieron que se trataba de una manipulación, un “deepfake” y que personas usaron grabaciones de una bailarina argentina para insertar el rostro de Ángela Aguilar, ya que supuestamente se parecen.

Gracias a la Inteligencia Artificial, se recortó el rostro de Ángela Aguilar para usarlo en el cuerpo de la modelo argentina.

Los deepfakes son generados por la IA en directo y sus formas más comunes de aplicación son en video o como filtro de realidad aumentada.

Aunque existe un mercado creciente de aplicaciones de consumo que utilizan la tecnología deepfake para el entretenimiento, como FaceSwap, a medida que la tecnología se generalice y esté disponible, se podría desplegar con fines nefastos.

Implicaciones legales

El uso de la voz de artistas y sus imágenes en creaciones con IA es solo la punta del iceberg de los desafíos que plantea la IA, explica el decano de la Facultad de Ciencias Jurídicas y Sociales de la Universidad Franz Tamayo, Luis Enrique Paez, quien indica que la propiedad del contenido generado va a depender de una serie de factores.

“La propiedad del contenido generado por una IA es un tema complejo y en evolución. No hay una respuesta única que se aplique a todos los casos, ya que depende de una serie de factores, como el tipo de contenido, el país en el que se genera y la legislación aplicable”, señala.

El jurista agrega que, es posible que la IA pueda generar contenido protegido por derechos de autor, marcas, patentes o secretos comerciales, pero donde realmente se torna complejo es cuando el usuario se vale de ella para atribuirse su creación.

“Tendríamos que entender que la aplicación de la propiedad intelectual actúa sobre el contenido generado por ella, de la misma manera que se aplica a cualquier otro tipo de contenido. Ante ello, cómo determinar quién es el titular de los derechos de propiedad intelectual. En algunos casos puede ser difícil determinar si el contenido generado es una obra original de la IA, pero definido por la idea de una persona”, señala.

En conclusión, dice Paez, la propiedad del contenido generado por una IA es un tema bastante complejo que está en continua evolución. No hay una respuesta única que se aplique a todos los casos, ya que depende de una serie de factores y variables que todavía los ordenamientos normativos y regulatorios no han podido colmar.

En ese contexto se evoca a la ética que debe circunscribir toda actividad humana, misma que ayuda a reflexionar sobre los principios que orientan la conducta humana.

Los peligros éticos

“La Inteligencia Artificial (IA) tiene el potencial de revolucionar nuestro mundo de manera que apenas podemos imaginar, como efectivamente está ocurriendo. Sin embargo, el rápido, vertiginoso desarrollo y despliegue de tecnologías de IA también ha planteado serias preocupaciones éticas. Una de las principales preocupaciones es que la IA se utilice de manera injusta, inequitativa y fraudulenta”, afirma Paez.

Por ejemplo, en varios países del mundo se ha denunciado el uso de la IA para falsear voces de políticos y utilizar estas grabaciones para realizar una guerra sucia.

Otro de los malos usos que se ha dado a las tecnologías de IA ha sido la creación de películas para adultos y la manipulación de fotografías utilizando la imagen de personalidades de la farándula, en algunos casos o de políticos, con el objeto de realizar chantajes.

Estos episodios plantean preguntas sobre los límites de esta tecnología y también cuestionamientos sobre la seguridad de nuestros datos.

Carlos Draugialis, docente de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz, señala que la pérdida de privacidad respecto al uso y aplicación de IA es otro riesgo importante.

“La recopilación y también el uso masivo de datos disponibles por parte de sistemas de IA pueden con seguridad carcomer la privacidad de las personas, lo cual termina planteando preguntas éticas sobre la seguridad de la información personal en la red y su respectivo acceso, dado que cada día se usa menos papel y se digitaliza más la información”, explica.

Para el ingeniero de sistemas, la integración de IA dentro del concepto de ética es un tema de gran importancia y relevancia en estos momentos de desarrollo de la humanidad, ya que la IA expone desafíos éticos específicos debido a muchos elementos importantes como por ejemplo la transparencia, la privacidad, la misma autonomía de las máquinas hasta la capacidad para tomar decisiones autónomas y una gran influencia que crece día a día dentro de la sociedad.

“Por todo esto es que para poder establecer estos límites se debe iniciar definiendo los principios éticos que guíen el desarrollo de la IA, como la transparencia, equidad, la privacidad, libertad, lo que se comprende por justicia, lo que es correcto, entre otros. Este trabajo se debe realizar en conjunto con distintas áreas como es la filosofía, buscando expertos que puedan trabajar en ello y no aislando este tema como algo propio de las ciencias de la computación. Se debe trabajar sobre auditorías éticas que permitan analizar el impacto de la IA en la sociedad y su relación con los principios éticos establecidos para las personas”, puntualiza el académico.

En tanto, Paez considera que las regulaciones y leyes juegan un papel importante en la definición de los límites éticos de la inteligencia artificial. Estas regulaciones y leyes pueden ayudar a garantizar que la IA se utilice de manera responsable y ética, protegiendo los derechos humanos y la seguridad pública. Previendo la comisión de sesgos, también se debe fortalecer y actualizar la normativa referente a la privacidad y control de datos y crear un protocolo para su utilización.

“Los Estados deben crear un ordenamiento jurídico sobre tecnología, y en él contemplar la protección de datos personales, la utilización fraudulenta, la privacidad, que contemple todos los aspectos en que la tecnología intervenga, por supuesto incluyendo disposiciones sobre el uso de la IA, ya que el fin pretendido es que el marco normativo pueda ayudar a garantizar que la IA y, en general, el uso de tecnologías se utilice de manera responsable y ética, y así su espíritu sea el proteger los derechos humanos y las libertades fundamentales”, concluye el jurista.

Es posible que la IA pueda generar contenido protegido por derechos de autor, marcas, patentes o secretos comerciales

Alianzas para normar la IA

En los últimos días se conoció un acuerdo sobre cómo debe regularse la inteligencia artificial en el futuro al cual arribaron Alemania, Francia e Italia.  El Parlamento Europeo por su parte presentó en junio pasado la «Ley de IA», con el objetivo de prevenir los riesgos de seguridad de las aplicaciones de inteligencia artificial y evitar efectos discriminatorios; la norma no quiere frenar el poder innovador de esta nueva tecnología simplemente regular para que se maneje en el marco ético.

Y en el marco de la 4ª Asamblea Europea de la Alianza de Inteligencia artificial el Consejo de la Unión Europea (UE), bajo la presidencia española, se promovió una declaración suscrita por Argentina, Colombia, Chile, México, Uruguay, Panamá, República Dominicana, Alemania, Eslovenia, Estonia, Bélgica y España que busca avanzar en la cooperación en Inteligencia Artificial con países de Europa, Latinoamérica y del Caribe.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *