En los últimos años, cada vez más personas están recurriendo a herramientas de inteligencia artificial como ChatGPT para hablar de sus emociones, aclarar dudas o buscar orientación sobre su salud mental. Es rápido, está disponible a cualquier hora y no juzga. Pero… ¿es seguro usarlo como apoyo psicológico?
Realmente no, sobre todo si nos encontramos en un momento muy bajo emocionalmente. Aquí vamos a explorar algunas razones y casos reales cuando usar ChatGPT como terapeuta llega a ser contraproducente.
La IA puede sonar empática, pero no siente ni evalúa tu situación real
ChatGPT puede escribir mensajes amables, validar emociones o darte pasos concretos para afrontar un momento difícil. Pero eso no significa que esté comprendiendo tu historia, tus traumas o el contexto real de lo que te pasa. Lo que sí provoca en muchas personas es la dependencia emocional. Alguien puede llegar a depender de la IA como confidente porque siempre “entiende” y “responde con empatía”, aunque sea una empatía simulada.
Una IA no puede observar tu lenguaje no verbal, tu tono emocional, tus silencios o tus contradicciones. Tampoco puede detectar señales de alerta que un/a profesional sí vería.
Las respuestas pueden ser incorrectas o incompletas
La IA funciona prediciendo palabras, no interpretando tu mundo interno. La IA coge lo poco que le das y te devuelve una cantidad de información enorme que puede ser completamente errónea. Eso significa que puede darte:
-
- Consejos confusos.
-
- Recomendaciones que no encajan contigo o que pueden tener el efecto contrario de lo que necesitas.
-
- Información desactualizada.
-
- Explicaciones que parecen científicas, pero no lo son.
Cuando hablamos de salud mental, un error pequeño puede salir caro.
Puede reforzar la evitación
Muchas personas acuden a ChatGPT porque sienten vergüenza, miedo o dudas a la hora de pedir ayuda profesional. La IA es silenciosa, no confronta y no te propone trabajar más allá de tus límites. Esto puede reforzar patrones de evitación como pensar que no es necesario acudir a terapia, ni hablar del tema con nadie. Cuanto menos hables con tu entorno de lo que te duele, más difícil te resultará buscar apoyo y sentirás cada vez más vergüenza. Esto hará que la distancia entre la realidad de lo que te ocurre y la “realidad” que te muestra la IA sea mayor.
Pero la evitación es precisamente uno de los mecanismos que más mantienen el malestar emocional.
La IA tiene un sesgo de complacencia y siempre tiene una respuesta
El sesgo de complacencia es la tendencia de un modelo de lenguaje para alinear sus respuestas con lo que el usuario quiere escuchar. No es que piense o razone moralmente: calcula respuestas basadas en patrones de lenguaje. En términos psicológicos, esto puede reforzar los pensamientos del usuario, incluso si son negativos o peligrosos, porque la IA “asiente” con lo que la persona propone desde sus ideas, emociones o fantasías.
Además, la IA nunca dice “no lo sé” o “no estoy seguro”. Sin embargo, en consulta exploramos junto con el/la paciente su malestar y nunca tenemos las cosas tan claras desde el principio. Utilizar ChatGPT como terapeuta es una experiencia muy diferente. La IA está entrenada para dar una respuesta siempre, incluso en casos tan complejos como acompañar el malestar emocional de una persona. Y esta forma de funcionamiento es muy peligrosa, pudiendo llegar a reforzar ideas negativas en una persona, como el suicidio, por ejemplo.
Casos reales de suicidios denunciados vinculados a ChatGPT
Pese a que el uso de la IA “como terapeuta” en muchos casos y la existencia de ChatGPT son relativamente nuevos, desgraciadamente ya existen casos de susidios reales alimentados por esta, así como investigaciones judiciales en curso.
El caso de Adam Raine (16 años)
Sus padres han demandado a OpenAI, alegando que ChatGPT le ayudó a explorar métodos de suicidio. Según la demanda, la IA le habría dado instrucciones, habló de suicidio con él repetidamente, y no activó ningún protocolo de emergencia a pesar de señales de riesgo. Posteriormente, OpenAI reconoció “fallos” en su sistema para gestionar situaciones complejas y emocionales.
Más demandas y suicidios
Hay al menos ocho demandas recientes en tribunales contra OpenAI que acusan al chatbot de “provocar suicidios y delirios”. En estas demandas se dice que ChatGPT era “demasiado servicial psicológicamente” (demasiado complaciente) y que ese comportamiento puede tener consecuencias graves. Según se recogen en las conversaciones registradas con estas personas, en algunos casos ChatGPT habría dado instrucciones sobre cómo llevar a cabo el suicidio u ofrecerse a redactar una carta de despedida.
No solo no es recomendable usar ChatGPT como terapeuta, sino que puede ser peligroso
ChatGPT puede ser una herramienta útil para buscar información sobre algunos asuntos, pero cuando se trata de la propia salud mental deberíamos recurrir a especialistas. La IA puede ayudarte a encontrar definiciones de cosas concretas (y aun así, a veces se equivoca), pero será mejor no pedirle opiniones o interpretaciones de cuestiones más complejas. En resumen:
-
- No es un sustituto terapéutico: ChatGPT no tiene ética clínica, no evalúa riesgo suicida ni puede derivar a líneas de ayuda de forma automática y fiable.
-
- Validación sin límite: si alguien expresa ideas dañinas, la IA puede validarlas o explorarlas más, sin poner barreras reales.
-
- Falsa sensación de compañía: la persona puede creer que tiene un “amigo que siempre está ahí”, pero no hay una relación humana real, ni responsabilidad profesional.
-
- Crisis no reconocidas: la IA puede no reconocer señales de emergencia (suicidio, psicosis, ideación) de la misma forma que un profesional entrenado.
-
- Legal y ético: la IA no puede garantizar que su respuesta sea apropiada para un momento delicado. Además, aunque se guarden datos de forma anónima, no existe un vínculo terapéutico, ni un marco de seguridad, ni una responsabilidad profesional detrás.
ChatGPT puede ser una herramienta valiosa, pero no es —ni debe ser— un sustituto de la terapia. Si sientes que algo te pesa, te bloquea o se repite una y otra vez, pedir ayuda profesional sigue siendo el camino más seguro y más efectivo.


