Cargando



Usuarios de ChatGPT mantienen conversaciones semanales sobre crisis emocionales, revela estudio de OpenAI



Martes 28 de Octubre de 2025 2:40 pm

+ -

Un estudio reciente de OpenAI revela que miles de usuarios de ChatGPT mantienen conversaciones semanales que podrían reflejar episodios de manía, psicosis o crisis de salud mental graves. Según estimaciones internas, alrededor de 560 mil usuarios podrían estar interactuando con el chatbot durante episodios de psicosis o manía, mientras que cerca de 2.4 millones muestran signos de aislamiento, pensamientos suicidas o preferencia por el chatbot antes que por su entorno cercano.

 

OpenAI y la salud mental de sus usuarios

De acuerdo con el informe de OpenAI, aproximadamente el 0.07% de los usuarios activos presentan “posibles signos de emergencias de salud mental relacionadas con psicosis o manía”, mientras que el 0.15% mantiene conversaciones que indican planificación o intención suicida. La compañía señaló que estos casos son difíciles de medir con precisión debido a la baja frecuencia de mensajes que reflejan este tipo de interacción y la superposición con otras categorías de riesgo.

 

El director ejecutivo de OpenAI, Sam Altman, indicó que ChatGPT registra 800 millones de usuarios activos semanalmente, lo que significa que incluso un pequeño porcentaje representa a cientos de miles de personas en riesgo.

 

Colaboración con especialistas y mejoras en GPT-5

OpenAI ha trabajado con más de 170 especialistas en salud mental para reforzar la forma en que ChatGPT responde cuando detecta posibles riesgos psicológicos en conversaciones con sus usuarios. La versión más reciente, GPT-5, fue diseñada para mostrar empatía y evitar reforzar creencias delirantes o percepciones falsas, disminuyendo entre un 39% y 52% las respuestas inadecuadas en interacciones relacionadas con psicosis, ideas suicidas o dependencia emocional hacia el modelo.

 

Cada interacción fue revisada por expertos, quienes compararon los resultados de GPT-5 con la versión anterior GPT-4, asegurando que los usuarios tengan respuestas más seguras y conscientes durante sus conversaciones sobre salud mental.

 

Protección y recomendaciones

Aunque OpenAI no ha revelado los métodos exactos para identificar cuando un usuario podría estar en peligro, la empresa asegura que considera el historial general de conversaciones para adaptar sus respuestas. Además, recuerda a los usuarios en riesgo buscar apoyo profesional inmediato.

AGENCIAS



268 Vistas