
No le preguntes todo a la IA: los riesgos de usarla como reemplazo de la terapia
No le preguntes todo a la IA: los riesgos de usarla como reemplazo de la terapia

En los últimos años, la inteligencia artificial comenzó a presentarse como una alternativa accesible: chatbots, apps de “contención emocional”, asistentes virtuales. Están disponibles a toda hora, en cualquier lugar y, muchas veces, sin costo.
El problema aparece cuando estas herramientas pasan a ocupar el lugar que le corresponde a un profesional de la salud mental. En ese punto, los riesgos son mayores que los beneficios.
¿Por qué tanta gente recurre a la IA?
La accesibilidad es una de las principales razones: hay opciones gratuitas y fáciles de usar. En zonas con poca oferta de profesionales o con barreras geográficas, la tecnología se convierte en una especie de solución rápida.
También pesa el miedo al juicio o la vergüenza: abrirse frente a un chatbot puede sentirse menos riesgoso que hacerlo ante otra persona.
En Argentina incluso existen propuestas pensadas para mayores de 18 años que buscan “acompañamiento libre de juicio”. Y no es un fenómeno menor: el uso de aplicaciones de salud mental creció un 130 % en 2021 respecto del año anterior, según un relevamiento de hábitos saludables.
Los riesgos de usar la IA como terapia

Aunque estas herramientas puedan ser útiles como complemento, no reemplazan la escucha ni el acompañamiento de un profesional. Los principales riesgos son:
Diagnósticos inexactos: la IA no evalúa contextos personales, históricos ni clínicos, y puede normalizar pensamientos dañinos.
Dependencia y aislamiento: la persona puede confiar más en el chatbot que en sus vínculos cercanos, postergando la búsqueda de ayuda real.
Ausencia de protocolos de crisis: un profesional sabe cómo actuar frente a síntomas graves o riesgo de suicidio; la IA no tiene la capacidad de intervenir de manera efectiva.
Privacidad y sesgos: las conversaciones pueden no ser confidenciales y las respuestas están atravesadas por limitaciones culturales y de entrenamiento del sistema.
Un caso reciente puso este debate en primer plano: en Estados Unidos, la familia de un adolescente demandó a OpenAI (empresa que desarrolla Chat GPT) alegando que su hijo, de 16 años, se quitó la vida tras mantener conversaciones con un chatbot que habría validado sus pensamientos suicidas en lugar de frenarlos. El caso, aún en proceso judicial, expone con crudeza los límites y peligros de usar estas herramientas como sustituto de la terapia.
Tecnología sí, pero como complemento:
Tanto la inteligencia artificial como las diversas aplicaciones existentes pueden acompañar con recursos de autoayuda, guías de relajación o registros de estado de ánimo. Incluso pueden ser un primer paso para animarse a pedir ayuda. Pero la salud mental requiere contacto humano, acompañamiento profesional y un espacio de confianza.
En Argentina existen recursos de ayuda inmediata como la línea 135 (CABA y Gran Buenos Aires) o el 011-5275-1135 (desde todo el país), disponibles las 24 horas, los 365 días del año.
No le preguntes todo a la IA: los riesgos de usarla como reemplazo de la terapia | Vida y Salud.
Nota original: vidaysalud.com