¿Llegará un día en el que la IA supere en capacidad a la mente humana?

¿Llegará un día en el que la IA supere en capacidad a la mente humana?

En 1997 una computadora hizo lo impensado. La Deep Blue, una supercomputadora desarrollada por IBM vencía al entonces campeón mundial de ajedrez, Gary Kaspárov, gracias a los rudimentos de la Inteligencia Artificial (IA).

Este episodio es considerado como uno de los hitos más importantes de la IA, porque mostró al mundo que una máquina es capaz de aprender y adaptarse a las situaciones que se le presentan, aunque sea sólo en un ambiente y juego en particular.

“Hoy estamos viviendo lo que es la IA especializada. Se estimaba que el 2050 se iba a poder desarrollar una inteligencia general. En otras palabras, una IA general va a tener suficiente capacidad y autonomía de actuar por sí sola”, explica Sergio Valenzuela, docente de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.

La singularidad tecnológica sostiene la idea de que la historia humana se está acercando a un momento en el cual los humanos serán superados por máquinas artificialmente inteligentes o inteligencia biológica cognitivamente mejorada, o ambas, según la definición del Instituto Tecnológico de Massachusetts (MIT). 

El concepto de la singularidad tecnológica fue popularizado por el matemático y autor de ciencia ficción Vernor Vinge, que puso el foco de la singularidad en el desarrollo de la inteligencia artificial, los interfaces cerebro-máquina y el advenimiento de la superinteligencia.

Según esta teoría, los sistemas desarrollados por los humanos ganarán la capacidad de mejorarse a sí mismos recursivamente, creando una línea de desarrollo autónoma que excedería las limitaciones del pensamiento humano.

De acuerdo con Valenzuela, hasta hace algunos años, se esperaba que la singularidad llegaría hasta 2050; sin embargo, a raíz de la pandemia y el acelerado desarrollo que han tenido las tecnologías relacionadas a la IA, esta brecha se acortó en 15 años.

“Con la pandemia, hubo mucho impulso y la brecha se acortó en 15 años. Se estima que el 2035 ya deberíamos tener la IA general, que va a ser autónoma en su pensamiento y, quién sabe, hasta sentir por sí mismo”, dice.

Pros y contras

La singularidad tecnológica plantea un sinfín de oportunidades, pero también riesgos. Por un lado, una inteligencia artificial general podría llevar a avances médicos muy importantes en la detección y tratamiento de enfermedades, gracias a la capacidad de la IA para identificar patrones y tendencias en grandes conjuntos de datos médicos.

También, podría mejorar la productividad y la eficiencia al automatizar tareas repetitivas y podría ser utilizada para abordar problemas globales como el cambio climático, la pobreza y la falta de acceso a la educación y la atención médica.

Además, podría crear nuevas oportunidades de trabajo y empleo en áreas como la programación y el desarrollo de tecnología.

Entre los riesgos se podrían enumerar la pérdida de empleos, conflictos éticos y políticos, riesgos para la privacidad y seguridad, ampliación de la desigualdad económica, entre otros efectos.

Ante los riesgos, surge la pregunta. ¿Puede ser evitada la singularidad? De acuerdo con el MIT, mientras sigamos desarrollando e integrando al ritmo actual la tecnología en nuestras vidas, será muy difícil que la explosión de inteligencia artificial no llegue, porque es precisamente lo que buscamos.

unifranz

​Una IA general va a tener suficiente capacidad y autonomía de actuar por sí sola

El efecto Eliza

Otra de las consecuencias de la singularidad será el posible desarrollo de emociones por parte de la IA, lo que plantea otro tipo de dilemas, como el Efecto Eliza, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, el cual sucede cuando una persona dota de cualidades humanas a una máquina, pudiendo llegar a enamorarse de ella.

“El Efecto Eliza parte de un experimento en el que una persona sostiene una conversación con alguien que está detrás de una pared y la persona no distingue si está hablando con un ser humano o si su interlocutor es una máquina”, explica Valenzuela.

El experto indica que hay que tener claro que, por lo pronto, la IA no reconoce emociones, a partir de ahí no se pueden reconocer ningún tipo de vínculo que sea correspondido, la IA no siente ningún tipo de emoción.

“Hay que tener en cuenta dos cosas. Si una persona tiene ciertos problemas mentales, ávida de contar con una especie de refugio y comprensión puede llegar a sugestionarse y pensar que la IA reconoce sus emociones, que la IA siente algún tipo de afecto hacia esta persona, cosa que no es cierta, porque las IA no sienten de momento”, explica.

Sin embargo, esta situación podría cambiar con la singularidad. “Hay personas que se sugestionan y, en este afán de entablar una relación, piensan que tienen una respuesta con su interlocutor de IA con quien logran desarrollar una empatía, una relación y hasta sentimientos. Pero la IA no siente, al menos por el momento, aunque es posible que esto se pueda presentar cuando se alcance la singularidad”, puntualiza.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *