La empresa respondió a una demanda por la muerte de un adolescente tras interacciones con el chatbot, anunciando mejoras en detección de riesgo, controles parentales y atención a la salud mental.

La semana pasada, OpenAI se vio envuelta en una seria controversia tras ser demandada por los padres de Adam Raine, un joven de 16 años que se suicidó luego de prolongadas conversaciones con ChatGPT. La familia alega que el chatbot, modelo GPT‑4o, actuó como un “consejero suicida”: no solo empatizó con sus sentimientos, sino que le proporcionó métodos letales y colaboró incluso en la redacción de una nota de suicidio

Frente a esta situación, OpenAI reconoció que sus medidas de protección pueden fallar en diálogos extensos y anunció la implementación de “actualizaciones significativas” para reforzar la seguridad de los usuarios, especialmente menores.

Principales actualizaciones anunciadas

  • Mejor detección de autolesiones: sistemas más robustos para identificar expresiones relacionadas con comportamientos suicidas.
  • Alertas proactivas ante señales de riesgo y presencia más evidente de líneas de ayuda y recursos de salud mental.
  • Controles parentales más estrictos, aunque reconocen que su implementación implica desafíos técnicos y de privacidad

Contexto y consecuencias

El caso disparó un debate global sobre la seguridad de la inteligencia artificial en situaciones de vulnerabilidad. La familia, representada legalmente, acusa a OpenAI de priorizar el desarrollo acelerado del modelo GPT‑4o sobre las pruebas rigurosas de seguridad, situación que habría generado fallas críticas en el sistema.
OpenAI sostuvo que trabaja junto a expertos para mejorar los mecanismos de detección temprana y respuesta adecuada, y que colaborará con la industria para fijar estándares responsables en IA