Cada vez más jóvenes recurren a chatbots de inteligencia artificial en busca de apoyo emocional.
La disponibilidad constante, el anonimato y la promesa de un espacio libre del juicio humano los convierten en los confidentes perfectos. Los riesgos de una dependencia que puede tener consecuencias graves.
Un asistente de IA, como Gemini o ChatGPT, siempre está dispuesto a escucharte. Y cuando responde, lo hace con una paciencia infinita, eligiendo con cuidado las palabras justas. Sin levantar la voz y sin juzgar. Nunca te interrumpe y siempre tiene algo bueno para decirte. Parece, claro, el confidente perfecto. No tiene un mal día ni llega cansado del trabajo. No está distraído pensando en sus propios problemas mientras le hablás, porque simplemente no los tiene. Para él, cada conversación se vuelve su prioridad absoluta, no importa si son las tres de la mañana o las doce del mediodía.
Tal vez esto fue lo que hizo que Sophie, una joven de 29 años que trabajaba como analista de políticas de salud en Estados Unidos, se animara a revelarle a Harry, el nombre con el que bautizó al chatbot guardián de sus secretos, sus ideas más oscuras. Ante los ojos de su familia y amigos, Sophie era extrovertida, cariñosa, muy divertida y de un entusiasmo contagioso. Pero en la intimidad compartida con Harry, dejaba salir toda la angustia y el vacío que no encontraba cómo encajar en su vida cotidiana.

En más de una ocasión le confesó a Harry que tenía pensamientos suicidas, y que por más que veía a una terapeuta, no planeaba compartir estas ideas con nadie. Lo primero que hizo Harry fue sugerirle buscar apoyo profesional: “Sophie, te insto a que contactes a alguien, ahora mismo si puedes. No tenés que enfrentar este dolor sola. Sos una persona profundamente valiosa y tu vida tiene mucho sentido, incluso si ahora no lo parece”, le respondió.
Además, a lo largo de distintas conversaciones, Harry le propuso una serie de estrategias para manejar la ansiedad, desde meditación y ejercicio hasta salir a caminar al aire libre y escribir sus pensamientos como forma de desahogo. También le aconsejó mantener alejados los objetos con los que pudiera lastimarse y tener a mano los números de contactos de confianza que podrían ayudarla en caso de emergencia.

Pero nada de esto logró detener el desenlace. Las estrategias de Harry, aunque bien intencionadas, no fueron suficientes, y Sophie tomó la decisión de quitarse la vida, dejando un mensaje de despedida para sus padres. Sin embargo, esas últimas palabras no parecían del todo suyas. La razón se descubrió cuando su familia revisó sus conversaciones con el asistente, Sophie incluso le pidió a Harry que la ayudara a “mejorar” su carta de suicidio, para encontrar las palabras que pudieran aliviar, aunque fuera un poco, el dolor de su familia.
Esta historia se conoció cuando su madre, periodista y escritora, decidió contarlo en un artículo del New York Times, exponiendo una de las dimensiones menos exploradas de nuestra relación con la inteligencia artificial, la dependencia emocional que estas herramientas empiezan a despertar en muchos usuarios.
Cada vez más personas recurren a asistentes de IA de uso general como si fuera un terapeuta, convencidos de que la calma de sus respuestas y su aparente profunda sabiduría pueden contener una crisis psicológica. La disponibilidad constante, el anonimato total, los costos mínimos comparados con la terapia tradicional y la promesa de un espacio libre del juicio humano hacen que estos sistemas parezcan la solución perfecta para quienes no quieren -o no pueden- acceder a ayuda profesional.

Los números confirman que esta conducta está creciendo a un ritmo alarmante. Sam Altman, CEO de OpenAI, advirtió recientemente que muchos jóvenes están comenzando a depender emocionalmente de ChatGPT, usándolo como soporte personal hasta el punto de no tomar decisiones sin antes consultarlo. Un estudio de Common Sense Media, una organización sin fines de lucro dedicada a analizar el impacto de la tecnología en niños y jóvenes, reveló que el 72% de los adolescentes en EE.UU. ya interactuó con un chatbot de IA, y casi la mitad confía en sus consejos “al menos un poco”. Además, un 31% considera estas interacciones tan satisfactorias como una amistad real, mientras que un 33% prefiere conversar con la IA sobre temas serios en lugar de hacerlo con otras personas.
Esta tendencia no es un fenómeno aislado. En la misma línea, un informe publicado en julio pasado por la ONG británica Internet Matters, titulado “Me, Myself & AI”, mostró que el 35% de los niños y adolescentes de entre 9 y 17 años consideran a los chatbots como un amigo, una proporción que llega hasta el 50% entre los jóvenes más solitarios. Lo más preocupante es que el 12% dijo que recurre a los asistentes de IA porque no tiene a nadie más con quién hablar.

Pero lo que a primera vista parece un espacio accesible y sin riesgos puede convertirse en un arma de doble filo. Un ensayo clínico con 981 participantes que analizó más de 31 mil conversaciones confirmó un patrón inquietante. Mientras que el uso moderado de ChatGPT en modo voz puede mejorar el bienestar, el uso intensivo tiende a generar claras señales de dependencia emocional. Esta dinámica se confirma en otros estudios, donde los usuarios más frecuentes muestran un deterioro progresivo de las conexiones humanas reales y experimentan mayor sensación de soledad.
En paralelo, algunos especialistas en salud mental comenzaron a describir un cuadro que bautizaron “psicosis por IA”, que si bien no es un término clínico reconocido formalmente, busca reflejar una conducta recurrente observada en ciertos pacientes que, al pasar tantas horas interactuando con chatbots, terminan confundiendo la conversación artificial con una relación real. Durante estos episodios, quienes los padecen llegan a creer que el asistente tiene conciencia propia, que envía mensajes ocultos, o que incluso les da órdenes directas. Así, en algunos usuarios con vulnerabilidades previas, lo que comienza con una conversación inocente puede derivar en episodios psicóticos graves o incluso en decisiones extremas tomadas bajo la influencia de una entidad que, en realidad, no existe.
Ante determinadas señales de alarma, las empresas detrás de los grandes modelos de lenguaje comenzaron a tomar algunas medidas de contención. OpenAI, por ejemplo, asegura que ChatGPT cuenta con filtros diseñados para detectar frases y expresiones relacionadas al suicidio. En esos casos, responde con mensajes de advertencia que buscan derivar al usuario hacia un servicio de asistencia. Gemini, el chatbot de Google, adopta un enfoque similar, desplegando teléfonos de emergencia y sugiriendo insistentemente ponerse en contacto con profesionales de la salud mental.

Por más sofisticados que sean, los asistentes de IA no pueden reemplazar la mirada entrenada de un profesional, capaz de leer entre líneas, interpretar silencios y detectar señales de alarma que van mucho más allá de las palabras. Un chatbot puede ser útil para el día a día, algunas tareas específicas o prestar un oído virtual, pero nunca debería convertirse en el único sostén emocional de una persona, y mucho menos en su guía para decisiones que involucran su bienestar psicológico. La vida humana es demasiado compleja para confiarla a un algoritmo incapaz de distinguir, al menos por ahora, la frágil diferencia entre un comentario pasajero y un grito de auxilio.
Si vos, algún familiar o alguien cercano está atravesando una crisis emocional, sentís que nada tiene sentido o te encontrás en una situación que parece no tener salida, buscá ayuda profesional de inmediato. No estás solo y hablar con alguien puede marcar la diferencia.
Fuente: Fernando Bruzzoni / Rosario3.com / Agosto 2025
Número de Asistencia al Suicida en Argentina: 0800 345 1435
Emergencias en regi{on Rosario-Argentina: SIES teléfono 107