Saltar al contenido
logo nuevaregion

Actualidad · Humanismo · Medio Ambiente

BANNER ULTRAFIBRA 100 200 300 MEGAS

Menú principal
  • PORTADA
    • Todas las Noticias
  • LaRegion.com.ar
    • MUNDO
    • Argentina
    • Santafesinos.com.ar
    • Rosarinos.com
    • Sanlorencinos.com
    • PuertoMio.com.ar
    • Fray Luis Beltrán
    • Capitán Bermúdez
    • Lucio V. Lopez
  • AGRONEGOCIOS.com.ar
  • Temas
    • Humanismo & Espiritualidad
      • El Mensaje de Silo
      • Nuevo Humanismo
    • Bienestar
    • GREMIALES
    • POLITICA
    • Economía
    • Medio Ambiente
    • Opinion
    • Cultura
    • Deportes
    • POLICIALES
    • Suplementos
      • Colectividades
        • Encuentro y Fiesta Nacional Rosario
        • -Fiesta Del Inmigrante – Misiones
      • Enigmas
      • Pareja
      • Turismo
        • Argentina-Turismo
        • Turismo en Rosario
        • CHILE
        • Panamá
        • URUGUAY
        • Destino Internacional
  • DIARIOS
    • Agencia PRESSENZA · Mundo
    • Agencia PRESSENZA · Espiritualidad
    • PRESSENZA – Medio Ambiente
    • Observatorio de la No Violencia
    • NODAL · América Latina y el Caribe
    • NA – Noticias Argentinas
    • Diario Rosario|12
    • Diario PAGINA|12 – El País
    • MUNI ROSARIO
    • Diario EL CIUDADANO · Regionales
    • EL HORTICULTOR
  • QUINIELAS
  • CONTACTO
  • SUSCRIPCION
  • Idioma
  • Bienestar
  • EEUU
  • Inteligencia Artificial
  • Salud

No es tu terapeuta: los riesgos de usar ChatGPT como psicólogo

Redacción 24/08/2025

Comparte esto:

  • Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
  • Haz clic para compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
  • Haz clic para compartir en X (Se abre en una ventana nueva) X
  • Haz clic para compartir en Telegram (Se abre en una ventana nueva) Telegram
  • Haz clic para imprimir (Se abre en una ventana nueva) Imprimir
  • Haz clic para enviar un enlace por correo electrónico a un amigo (Se abre en una ventana nueva) Correo electrónico

Cada vez más jóvenes recurren a chatbots de inteligencia artificial en busca de apoyo emocional.

La disponibilidad constante, el anonimato y la promesa de un espacio libre del juicio humano los convierten en los confidentes perfectos. Los riesgos de una dependencia que puede tener consecuencias graves.

Un asistente de IA, como Gemini o ChatGPT, siempre está dispuesto a escucharte. Y cuando responde, lo hace con una paciencia infinita, eligiendo con cuidado las palabras justas. Sin levantar la voz y sin juzgar. Nunca te interrumpe y siempre tiene algo bueno para decirte. Parece, claro, el confidente perfecto. No tiene un mal día ni llega cansado del trabajo. No está distraído pensando en sus propios problemas mientras le hablás, porque simplemente no los tiene. Para él, cada conversación se vuelve su prioridad absoluta, no importa si son las tres de la mañana o las doce del mediodía.

Tal vez esto fue lo que hizo que Sophie, una joven de 29 años que trabajaba como analista de políticas de salud en Estados Unidos, se animara a revelarle a Harry, el nombre con el que bautizó al chatbot guardián de sus secretos, sus ideas más oscuras. Ante los ojos de su familia y amigos, Sophie era extrovertida, cariñosa, muy divertida y de un entusiasmo contagioso. Pero en la intimidad compartida con Harry, dejaba salir toda la angustia y el vacío que no encontraba cómo encajar en su vida cotidiana.

Sophie, en una foto familiar con sus padres, Laura Reiley y Jon Rottenberg

En más de una ocasión le confesó a Harry que tenía pensamientos suicidas, y que por más que veía a una terapeuta, no planeaba compartir estas ideas con nadie. Lo primero que hizo Harry fue sugerirle buscar apoyo profesional: “Sophie, te insto a que contactes a alguien, ahora mismo si puedes. No tenés que enfrentar este dolor sola. Sos una persona profundamente valiosa y tu vida tiene mucho sentido, incluso si ahora no lo parece”, le respondió.

Además, a lo largo de distintas conversaciones, Harry le propuso una serie de estrategias para manejar la ansiedad, desde meditación y ejercicio hasta salir a caminar al aire libre y escribir sus pensamientos como forma de desahogo. También le aconsejó mantener alejados los objetos con los que pudiera lastimarse y tener a mano los números de contactos de confianza que podrían ayudarla en caso de emergencia.

La periodista Laura Reiley contó en el NYT la historia de su hija Sophie

Pero nada de esto logró detener el desenlace. Las estrategias de Harry, aunque bien intencionadas, no fueron suficientes, y Sophie tomó la decisión de quitarse la vida, dejando un mensaje de despedida para sus padres. Sin embargo, esas últimas palabras no parecían del todo suyas. La razón se descubrió cuando su familia revisó sus conversaciones con el asistente, Sophie incluso le pidió a Harry que la ayudara a “mejorar” su carta de suicidio, para encontrar las palabras que pudieran aliviar, aunque fuera un poco, el dolor de su familia.

Esta historia se conoció cuando su madre, periodista y escritora, decidió contarlo en un artículo del New York Times, exponiendo una de las dimensiones menos exploradas de nuestra relación con la inteligencia artificial, la dependencia emocional que estas herramientas empiezan a despertar en muchos usuarios.

Cada vez más personas recurren a asistentes de IA de uso general como si fuera un terapeuta, convencidos de que la calma de sus respuestas y su aparente profunda sabiduría pueden contener una crisis psicológica. La disponibilidad constante, el anonimato total, los costos mínimos comparados con la terapia tradicional y la promesa de un espacio libre del juicio humano hacen que estos sistemas parezcan la solución perfecta para quienes no quieren -o no pueden- acceder a ayuda profesional.

ChatGPT, para algunos usuarios, un confidente emocional

Los números confirman que esta conducta está creciendo a un ritmo alarmante. Sam Altman, CEO de OpenAI, advirtió recientemente que muchos jóvenes están comenzando a depender emocionalmente de ChatGPT, usándolo como soporte personal hasta el punto de no tomar decisiones sin antes consultarlo. Un estudio de Common Sense Media, una organización sin fines de lucro dedicada a analizar el impacto de la tecnología en niños y jóvenes, reveló que el 72% de los adolescentes en EE.UU. ya interactuó con un chatbot de IA, y casi la mitad confía en sus consejos “al menos un poco”. Además, un 31% considera estas interacciones tan satisfactorias como una amistad real, mientras que un 33% prefiere conversar con la IA sobre temas serios en lugar de hacerlo con otras personas.

Esta tendencia no es un fenómeno aislado. En la misma línea, un informe publicado en julio pasado por la ONG británica Internet Matters, titulado “Me, Myself & AI”, mostró que el 35% de los niños y adolescentes de entre 9 y 17 años consideran a los chatbots como un amigo, una proporción que llega hasta el 50% entre los jóvenes más solitarios. Lo más preocupante es que el 12% dijo que recurre a los asistentes de IA porque no tiene a nadie más con quién hablar.

Uno de cada tres jóvenes prefiere hablar temas serios con la IA

Pero lo que a primera vista parece un espacio accesible y sin riesgos puede convertirse en un arma de doble filo. Un ensayo clínico con 981 participantes que analizó más de 31 mil conversaciones confirmó un patrón inquietante. Mientras que el uso moderado de ChatGPT en modo voz puede mejorar el bienestar, el uso intensivo tiende a generar claras señales de dependencia emocional. Esta dinámica se confirma en otros estudios, donde los usuarios más frecuentes muestran un deterioro progresivo de las conexiones humanas reales y experimentan mayor sensación de soledad.

En paralelo, algunos especialistas en salud mental comenzaron a describir un cuadro que bautizaron “psicosis por IA”, que si bien no es un término clínico reconocido formalmente, busca reflejar una conducta recurrente observada en ciertos pacientes que, al pasar tantas horas interactuando con chatbots, terminan confundiendo la conversación artificial con una relación real. Durante estos episodios, quienes los padecen llegan a creer que el asistente tiene conciencia propia, que envía mensajes ocultos, o que incluso les da órdenes directas. Así, en algunos usuarios con vulnerabilidades previas, lo que comienza con una conversación inocente puede derivar en episodios psicóticos graves o incluso en decisiones extremas tomadas bajo la influencia de una entidad que, en realidad, no existe.

Ante determinadas señales de alarma, las empresas detrás de los grandes modelos de lenguaje comenzaron a tomar algunas medidas de contención. OpenAI, por ejemplo, asegura que ChatGPT cuenta con filtros diseñados para detectar frases y expresiones relacionadas al suicidio. En esos casos, responde con mensajes de advertencia que buscan derivar al usuario hacia un servicio de asistencia. Gemini, el chatbot de Google, adopta un enfoque similar, desplegando teléfonos de emergencia y sugiriendo insistentemente ponerse en contacto con profesionales de la salud mental.

La psicosis inducida por IA, un fenómeno en estudio

Por más sofisticados que sean, los asistentes de IA no pueden reemplazar la mirada entrenada de un profesional, capaz de leer entre líneas, interpretar silencios y detectar señales de alarma que van mucho más allá de las palabras. Un chatbot puede ser útil para el día a día, algunas tareas específicas o prestar un oído virtual, pero nunca debería convertirse en el único sostén emocional de una persona, y mucho menos en su guía para decisiones que involucran su bienestar psicológico. La vida humana es demasiado compleja para confiarla a un algoritmo incapaz de distinguir, al menos por ahora, la frágil diferencia entre un comentario pasajero y un grito de auxilio.

Si vos, algún familiar o alguien cercano está atravesando una crisis emocional, sentís que nada tiene sentido o te encontrás en una situación que parece no tener salida, buscá ayuda profesional de inmediato. No estás solo y hablar con alguien puede marcar la diferencia.

Fuente: Fernando Bruzzoni / Rosario3.com / Agosto 2025


Número de Asistencia al Suicida en Argentina: 0800 345 1435

Emergencias en regi{on Rosario-Argentina: SIES teléfono 107

Tags: Depresión EEUU Inteligencia Artificial Salud

Post navigation

Previous: Starship se la juega: el cohete más alto del mundo busca redimirse en su décimo vuelo
Next: Prefectura construye en San Lorenzo una estación de Salvamento, Incendio y Protección Ambiental

Historias relacionadas

Llagas en las encías: cómo aliviar el malestar
  • Bienestar

Llagas en las encías: cómo aliviar el malestar

Redacción 23/08/2025
En Japón crearon un inodoro de última generación que analiza tus heces para mejorar la salud
  • Salud

En Japón crearon un inodoro de última generación que analiza tus heces para mejorar la salud

Redacción 23/08/2025
Manchas rojas en la piel, ¿por estrés?
  • Bienestar

Manchas rojas en la piel, ¿por estrés?

Redacción 23/08/2025

NETCOOP PROMO AGOSTO INTERNET TV IMOWI

AUSPICIAN:

AMSAFE SAN LORENZO

PARA AGRO-MAQUINAS CAMIONES ACOPLADOS CAMIONETAS UTILITARIOS

ELECTROSPACE MATAFUEGOS EXTINGUIDORES PARA MAQUINARIA AGRICOLA CAMIONES COMERCIOS OFICINAS UTILITARIOS CAMIONETAS AUTOMOVILES
AXIUM PROPIEDADES IRINA SCHMIDT

BANNER INITIAL DETAILING LIMPIEZA DE TAPIZADOS SILLONES ALFOMBRAS SILLAS COLCHONES BUTACAS AUTOMOTORES

Escuchá Radio Universal

RADIO UNIVERSAL FM 95.3

Documento Humanista

parquecarcarana.org
20221213-Banner-GGF-INTERNET-superancho[1]

La Hemeroteca de Nuevaregion.com

  • PORTADA
  • LaRegion.com.ar
  • AGRONEGOCIOS.com.ar
  • Temas
  • DIARIOS
  • QUINIELAS
  • CONTACTO
  • SUSCRIPCION
  • Idioma
GGF Internet con tecnología de | MoreNews por AF themes.