Más de un millón de usuarios hablan de suicidio con ChatGPT cada semana.
📢 Recibe noticias al instante en 👉 WhatsApp
¿Qué revelan los nuevos datos de OpenAI?
OpenAI dio a conocer cifras sobre el uso de ChatGPT en temas relacionados con la salud mental. De acuerdo con la compañía, el 0.15 % de sus 800 millones de usuarios semanales mantienen conversaciones con indicadores explícitos de planeación o intención suicida. Aunque el porcentaje parece bajo, representa a más de un millón de personas cada semana.
La empresa también informó que cientos de miles de usuarios muestran signos de psicosis, manía o fuerte apego emocional hacia el chatbot. Estas cifras fueron difundidas en el marco de un informe sobre los esfuerzos de OpenAI para mejorar la forma en que su modelo responde ante situaciones sensibles.
¿Cómo está respondiendo la compañía?
OpenAI aseguró que la nueva versión de su modelo, GPT-5, presenta una mejora en sus protocolos de respuesta ante casos de crisis emocional. Según la empresa, ahora cumple en 91 % de las ocasiones con los comportamientos de apoyo deseados, frente al 77 % de versiones anteriores.
Para lograrlo, la compañía consultó a más de 170 expertos en salud mental, quienes evaluaron la capacidad del sistema para ofrecer respuestas más adecuadas, empáticas y consistentes. Además, OpenAI incorporó nuevas pruebas de seguridad que evalúan la confianza emocional y la atención a emergencias no suicidas.
También se anunció el desarrollo de herramientas de control parental y un sistema de detección automática de edad, con el fin de aplicar medidas más estrictas a los menores que usan ChatGPT.
¿Qué desafíos enfrenta OpenAI?
Los problemas de salud mental asociados con el uso de chatbots de inteligencia artificial se han convertido en un desafío creciente. Diversos investigadores advierten que estas herramientas pueden reforzar creencias peligrosas o fomentar delirios en algunos usuarios.
OpenAI enfrenta actualmente presiones legales y regulatorias, entre ellas una demanda presentada por los padres de un joven de 16 años que compartió pensamientos suicidas con el chatbot antes de quitarse la vida. Además, fiscales de California y Delaware han instado a la compañía a reforzar la protección a menores que interactúan con el sistema.
A pesar de las críticas, OpenAI sostiene que GPT-5 ha logrado mitigar parte de los riesgos y promete continuar perfeccionando sus medidas de seguridad. Sin embargo, aún mantiene disponibles versiones anteriores del modelo, consideradas menos seguras, lo que deja abierta la pregunta sobre hasta qué punto la IA puede ofrecer acompañamiento sin reemplazar la atención humana profesional.
No te pierdas este video:
Ver esta publicación en Instagram
🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐
