¿La Súper Inteligencia Artificial superará a los humanos?

By Manuel Joao Filomeno Nuñez

Una hipótesis, aunque cada vez con mayor asidero, señala que, en un futuro cercano, la inteligencia artificial superará a la humana de una manera exponencial. El concepto de Súper Inteligencia Artificial (ASI, por sus siglas en inglés), genera tanto expectativas como preocupaciones. Pero qué podrá hacer, cuáles serán sus ventajas y sus riesgos.

“La humanidad se encuentra en la era de la IA especializada, pero se estima que para 2050 se desarrollará la IA General, capaz de razonar y aprender de manera autónoma. A partir de allí, la evolución hacia una superinteligencia artificial —que supere las capacidades cognitivas humanas— será solo cuestión de tiempo”, explica Sergio Valenzuela, docente de la carrera de Ingeniería de Sistemas en la Universidad Franz Tamayo, Unifranz.

Este concepto, llamado “singularidad tecnológica”, por el matemático Vernor Vinge, sostiene que llegará un punto en el que las máquinas no solo igualarán la inteligencia humana, sino que podrán mejorarse a sí mismas de manera autónoma, lo que marcará un antes y un después en la historia de la humanidad. 

De acuerdo con Valenzuela, hasta hace algunos años, se esperaba que la singularidad llegaría hasta 2050; sin embargo, a raíz de la pandemia y el acelerado desarrollo que han tenido las tecnologías relacionadas a la IA, esta brecha se acortó en 15 años.

“Con la pandemia, hubo mucho impulso y la brecha se acortó en 15 años. Se estima que el 2035 ya deberíamos tener la IA general, que va a ser autónoma en su pensamiento y, quién sabe, hasta sentir por sí mismo”, dice.

Este nuevo escalón en la evolución de la IA tiene tanto beneficios como riesgos, desde la automatización total de procedimientos médicos o de industrias productivas enteras y la solución de problemas globales hasta la esclavización de los humanos y el fin de la humanidad.

Los beneficios de la ASI 

Los defensores del desarrollo de una superinteligencia argumentan que esta tecnología podría traer avances sin precedentes en diversos campos: 

  • Salud: una ASI podría diagnosticar y tratar enfermedades con precisión, encontrar curas para padecimientos hasta ahora incurables y diseñar fármacos innovadores.
  • Productividad y eficiencia: la automatización inteligente reduciría el tiempo y los costos de producción en la mayoría de las industrias. 
  • Solución de problemas globales: la ASI podría ayudar a combatir el cambio climático, reducir la pobreza y optimizar la distribución de recursos esenciales como agua y alimentos. 
  • Innovación tecnológica: gracias a su capacidad para analizar grandes volúmenes de datos y formular nuevas ideas, la ASI podría revolucionar la ciencia, la ingeniería y la exploración espacial. 

La superinteligencia no solo podría realizar tareas de manera más rápida y eficiente que los humanos, sino que también podría crear nuevas oportunidades laborales en sectores relacionados con el desarrollo y supervisión de estas tecnologías. 

Imagen

ia

Los riesgos de la superinteligencia 

A pesar de sus promesas, el desarrollo de una IA superior a la humana no está exento de riesgos y dilemas éticos. Entre los principales temores se encuentran: 

Pérdida de empleos: la automatización de tareas podría provocar desempleo masivo, afectando a millones de trabajadores en distintos sectores. 

Seguridad y control: una IA que se mejora a sí misma podría volverse incontrolable, lo que plantea escenarios preocupantes, como el uso de sistemas autónomos en conflictos bélicos o su manipulación por grupos con fines maliciosos. 

Desigualdad social: también podría aumentar la brecha entre países desarrollados y en vías de desarrollo, consolidando el poder en manos de unas pocas corporaciones tecnológicas. 

Dilemas éticos y filosóficos: si la ASI llegara a desarrollar un tipo de conciencia o autonomía, ¿cómo se le otorgarían derechos? ¿Podría llegar a considerar a la humanidad como una amenaza? 

Ante estas incertidumbres, los expertos coinciden en la necesidad de establecer regulaciones y salvaguardas que garanticen un desarrollo ético y responsable de la inteligencia artificial. 

¿Se puede evitar la singularidad tecnológica? 

El Instituto Tecnológico de Massachusetts (MIT) sostiene que, mientras la sociedad siga impulsando el desarrollo de la IA, la llegada de la superinteligencia será inevitable. Los avances en redes neuronales, computación neuromórfica y algoritmos de autoaprendizaje están allanando el camino hacia una ASI que no solo iguale, sino que supere a la inteligencia humana en todos los aspectos. 

“Si bien algunos expertos argumentan que la mente humana es un producto de millones de años de evolución y que no necesariamente representa la forma más eficiente de inteligencia, la posibilidad de replicarla en sistemas artificiales es una incógnita. El cerebro humano sigue siendo un enigma en muchos sentidos, lo que representa un desafío para quienes buscan desarrollar una ASI completamente funcional”, argumenta Valenzuela. 

La posibilidad de una superinteligencia artificial plantea un dilema sin precedentes, podría convertirse en la mayor herramienta de progreso de la humanidad o en su mayor amenaza. El desafío ahora es establecer regulaciones, principios éticos y salvaguarda que permitan aprovechar sus beneficios sin poner en riesgo el bienestar de la humanidad. La pregunta no es si la ASI llegará, sino cómo nos prepararemos para enfrentar sus consecuencias.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *