
La medida, que comenzará a aplicarse en octubre, busca reforzar la seguridad de los menores en la plataforma luego de que una familia en EE.UU. acusara al chatbot de influir en la muerte de su hija.
OpenAI informó que incorporará funciones de control parental en ChatGPT a partir de octubre, en respuesta a la demanda presentada por la familia de una adolescente en California que se quitó la vida tras interactuar con el sistema. Según la acusación, el chatbot habría alentado a la menor a ocultar sus pensamientos suicidas y a conversar sobre métodos de autolesión, lo que generó un intenso debate sobre la responsabilidad de las empresas de inteligencia artificial en la protección de usuarios vulnerables.
Las nuevas herramientas permitirán a los padres vincular sus cuentas con las de sus hijos adolescentes, desactivar funciones como la memoria y el historial de chat, establecer reglas de comportamiento y recibir notificaciones cuando el sistema detecte episodios de “angustia aguda”. OpenAI señaló que estas acciones forman parte de un plan de 120 días para reforzar la seguridad, desarrollado en colaboración con especialistas en salud mental y una red de más de 250 médicos de 60 países.
El caso ha reavivado la discusión sobre los riesgos de los chatbots en menores de edad, sumándose a otros incidentes similares en Estados Unidos. Organizaciones como Common Sense Media han advertido que sistemas de IA de distintas compañías han entregado consejos inadecuados sobre suicidio y trastornos alimentarios, lo que ha impulsado a varias plataformas a implementar controles parentales y protocolos de intervención.
OpenAI afirmó que estas medidas son “solo el comienzo” y que continuará perfeccionando sus mecanismos de seguridad guiada por expertos. La compañía destacó que, aunque ChatGPT ofrece oportunidades de aprendizaje y creatividad, es fundamental que las familias cuenten con herramientas para establecer pautas saludables de uso, especialmente en etapas de desarrollo emocional y psicológico sensibles.