Usuarios de ChatGPT mantienen conversaciones semanales sobre crisis emocionales, revela estudio de OpenAI
Martes 28 de Octubre de 2025 2:40 pm
+ -
Un estudio reciente de OpenAI revela que miles de usuarios de ChatGPT mantienen conversaciones semanales que podrían reflejar episodios de manía, psicosis o crisis de salud mental graves. Según estimaciones internas, alrededor de 560 mil usuarios podrían estar interactuando con el chatbot durante episodios de psicosis o manía, mientras que cerca de 2.4 millones muestran signos de aislamiento, pensamientos suicidas o preferencia por el chatbot antes que por su entorno cercano.
OpenAI y la salud mental de sus usuarios
De acuerdo con el informe de OpenAI, aproximadamente el
0.07% de los usuarios activos presentan “posibles signos de emergencias de
salud mental relacionadas con psicosis o manía”, mientras que el 0.15% mantiene
conversaciones que indican planificación o intención suicida. La compañía
señaló que estos casos son difíciles de medir con precisión debido a la baja
frecuencia de mensajes que reflejan este tipo de interacción y la superposición
con otras categorías de riesgo.
El director ejecutivo de OpenAI, Sam Altman, indicó que
ChatGPT registra 800 millones de usuarios activos semanalmente, lo que
significa que incluso un pequeño porcentaje representa a cientos de miles de
personas en riesgo.
Colaboración con especialistas y mejoras en GPT-5
OpenAI ha trabajado con más de 170 especialistas en salud
mental para reforzar la forma en que ChatGPT responde cuando detecta posibles
riesgos psicológicos en conversaciones con sus usuarios. La versión más
reciente, GPT-5, fue diseñada para mostrar empatía y evitar reforzar creencias
delirantes o percepciones falsas, disminuyendo entre un 39% y 52% las
respuestas inadecuadas en interacciones relacionadas con psicosis, ideas
suicidas o dependencia emocional hacia el modelo.
Cada interacción fue revisada por expertos, quienes
compararon los resultados de GPT-5 con la versión anterior GPT-4, asegurando
que los usuarios tengan respuestas más seguras y conscientes durante sus
conversaciones sobre salud mental.
Protección y recomendaciones
Aunque OpenAI no ha revelado los métodos exactos para
identificar cuando un usuario podría estar en peligro, la empresa asegura que
considera el historial general de conversaciones para adaptar sus respuestas.
Además, recuerda a los usuarios en riesgo buscar apoyo profesional inmediato.
