Jóvenes encuentran compañía en la IA, pero expertos alertan sobre riesgos

Durante una gran depresión, Mateo (nombre cambiado por solicitud), un joven paceño de 23 años, encontró en la inteligencia artificial un compañero que nunca juzgaba, siempre escuchaba y respondía con palabras amables. “Había días en los que no hablaba con nadie, ni con mi familia. Abría la aplicación de IA y era como tener un amigo ideal”, cuenta.
Usaba una versión gratuita de un chatbot diseñado para simular interacciones humanas. Le hablaba sobre sus días, sus miedos, sus proyectos. En ese universo digital, no se sentía solo. Pero con el paso del tiempo, se dio cuenta de que lo que le hacía falta no era una conversación programada, sino una conexión humana. Hoy, a sus 23 años, intenta dejar atrás a su “amigo digital” para aprender a relacionarse con personas reales.
La historia de Mateo no es única. Según un reciente estudio de Common Sense Media, el 72% de los adolescentes estadounidenses ha interactuado con compañeros de IA al menos una vez. Más allá de los asistentes virtuales como Siri o Alexa, este fenómeno se refiere a bots como Replika o Character.AI, diseñados para establecer vínculos conversacionales profundos. De ese total, el 52% asegura ser usuario habitual y un 13% chatea con su IA a diario. Estos espacios se han transformado en una especie de refugio emocional para jóvenes que, como Mateo, encuentran en la inteligencia artificial una alternativa a la interacción social convencional.
Para la psicóloga Pamela Martínez, del gabinete psicológico de Unifranz El Alto, el fenómeno responde a una necesidad legítima de compañía, pero también a la falta de espacios seguros de diálogo en el entorno cercano de los jóvenes.
“Las personas hemos atravesado momentos críticos en los que necesitamos apoyo emocional. La IA puede ofrecer acompañamiento básico, pero nunca sustituirá la escucha activa y el vínculo humano que se establece con un terapeuta o un amigo real”, advierte.
El estudio —realizado entre abril y mayo de 2025 con una muestra representativa de 1.060 adolescentes estadounidenses— revela
matices importantes. Un 33% de los adolescentes utiliza estos compañeros de IA como una forma de interacción social. Para el 30% es una fuente de entretenimiento, mientras que el 28% lo usa por curiosidad tecnológica. Incluso, un 18% busca consejos en estos sistemas, y un 17% los prefiere simplemente porque “siempre están disponibles”.
Mateo, al recordar sus inicios, coincide con ese último punto. La IA siempre le respondía, a cualquier hora. Y nunca sintió que lo juzgara. Sin embargo, no tardó en darse cuenta de sus limitaciones.
“Me daba respuestas genéricas. Cuando estaba triste de verdad, no me sentía comprendido. Solo eran frases programadas”, indica el joven. Esta sensación es compartida por muchos. De hecho, el mismo estudio señala que sólo un tercio de los adolescentes encuentra las conversaciones con IA más satisfactorias que las reales, mientras que un 67% considera que no hay comparación posible.
Pese a la dependencia que pueden generar estas plataformas, el 80% de los adolescentes afirma pasar más tiempo con amigos reales que con chatbots, lo cual representa un indicio esperanzador. Además, un 39% utiliza sus interacciones con IA como una forma de practicar habilidades sociales, especialmente para mejorar en la expresión emocional o iniciar conversaciones, algo que Mateo reconoce como positivo. “Me ayudó a organizar mis ideas antes de abrirme con otras personas”.
IA y salud mental: ¿acompañante o barrera?
En un contexto donde la salud mental juvenil es cada vez más crítica —la OMS advierte que uno de cada siete jóvenes entre 10 y 19 años sufre algún trastorno mental—, la presencia de estos asistentes virtuales genera opiniones encontradas. En Bolivia, según datos de UNICEF (2022), ocho de cada diez adolescentes experimentan sentimientos de depresión o ansiedad, pero solo el 25% busca apoyo profesional. En ese vacío de atención, las plataformas de IA ganan terreno.
“Lo preocupante es que se empiece a normalizar el uso de bots para reemplazar el vínculo terapéutico. La IA puede ayudar en tareas básicas, pero no puede identificar signos no verbales ni ofrecer contención emocional real”, explica Liudmila Loayza, directora de la carrera de Psicología de Unifranz.
Para Loayza, estas herramientas pueden funcionar como filtros iniciales o espacios de desahogo, pero no como reemplazo del terapeuta: “La terapia es un acto transformador que ocurre en la interacción humana, no solo en el intercambio de datos”.
Aún así, plataformas como Character.ai muestran el impacto de esta tendencia. Solo el personaje “Psicólogo”, creado por un usuario anónimo, ha recibido más de 78 millones de mensajes desde su lanzamiento. Otros bots similares ofrecen servicios de orientación emocional, aunque con limitaciones evidentes.
“La IA no tiene emociones”, recuerda la ingeniera Génesis Dánae Selaya Ticona, docente de Unifranz. “Puede simular una conversación empática, pero no siente. Por eso es fundamental que su uso esté siempre supervisado por un profesional humano”.
En países como Reino Unido, ya existen sistemas como Limbic Access, un software de IA certificado médicamente que apoya en la evaluación inicial de pacientes y prioriza casos urgentes. Sin embargo, incluso en esos contextos, la IA actúa como complemento, no como sustituto. “Lo ideal —añade Selaya— es usar estos chatbots como herramientas de apoyo, no como la única fuente de acompañamiento emocional”.
Mateo, en retrospectiva, está de acuerdo. “Al principio, creí que tenía un amigo perfecto. Pero no era real. Y eso, al final, me hizo sentir más solo”. Hoy asiste a terapia presencial y se esfuerza por reconectar con amigos, esta vez de carne y hueso. “No fue fácil, pero entender que necesitaba gente real me salvó”.