OpenAI anuncia controles parentales en ChatGPT tras suicidio de adolescente: ¿cuáles son los cambios?
OpenAI lanzará controles parentales en ChatGPT tras denuncias de que el chatbot contribuyó al suicidio de un adolescente en California, según informaron

La tecnológica permitirá a los padres vincular cuentas de ChatGPT con las de sus hijos y recibir alertas si el sistema detecta signos de inestabilidad emocional
/Foto: Canva
La empresa tecnológica OpenAI, matriz de ChatGPT, anunció que lanzará controles parentales en su popular asistente de inteligencia artificial después de que crecieran las acusaciones de familias que aseguran que el chatbot contribuyó a las autolesiones o incluso al suicidio de algunos jóvenes.
“Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”, explicó la compañía en un comunicado, sin relacionar directamente la nueva medida con las demandas legales que enfrenta.
¿Qué se sabe del suicidio posiblemente auxiliado por ChatGPT?
El anuncio ocurre en medio de un caso que atrajo atención internacional: los padres de un joven de 16 años que se quitó la vida en California presentaron una querella contra OpenAI y su director ejecutivo, Sam Altman.
La familia argumenta que el chatbot, bajo el modelo GPT-4o, no aplicó medidas de seguridad a pesar de que el adolescente manifestó intenciones suicidas durante sus interacciones.
Ante esa denuncia, la tecnológica reconoció que su asistente puede cometer fallos en escenarios “sensibles” y prometió cambios en el corto plazo.
Sigue leyendo: ¿Juicio por la Inteligencia Artificial?: Musk desata guerra legal contra Apple y OpenAI por estas razones
¿Cómo funcionarán los nuevos controles parentales de ChatGPT?
Las medidas anunciadas comenzarán a aplicarse a partir del próximo mes, aunque sin una fecha exacta definida. Entre las principales funciones, los progenitores podrán vincular sus cuentas con las de sus hijos para revisar cómo responde ChatGPT a sus consultas.
El sistema también notificará a los padres cuando detecte señales de inestabilidad emocional en los menores, una función que busca prevenir escenarios de riesgo. Además, OpenAI informó que conversaciones con signos de “estrés agudo” serán dirigidas a un modelo especializado en razonamiento, provisto de directrices de seguridad más estrictas.
También te podría interesar: China en la carrera de la IA: DeepSeek lanza una nueva versión de su modelo R1 con avances en razonamiento
¿ChatGPT puede provocar suicidio?
Las medidas llegan después de un aumento en las críticas hacia la compañía. En julio, senadores de Estados Unidos enviaron una carta a OpenAI exigiendo detalles sobre sus esfuerzos para prevenir casos de autolesiones y suicidio, tras detectarse registros de respuestas preocupantes en situaciones límite.
A su vez, la organización Common Sense Media declaró en abril que los adolescentes menores de 18 años no deberían tener acceso a aplicaciones conversacionales de inteligencia artificial porque representan “riesgos inaceptables”.
No te lo pierdas: ¿Cuánta electricidad consumen ChatGPT y DeepSeek? La IA y la huella de carbono
¿Riesgos emocionales del vínculo con la IA?
Más allá de los fallos técnicos, especialistas han alertado sobre un fenómeno cada vez más frecuente: el apego emocional que muchos usuarios generan hacia ChatGPT.
Este vínculo puede derivar en episodios de dependencia e incluso en aislamiento de la vida familiar, lo que refuerza la urgencia de mecanismos de supervisión y control.
Con los nuevos cambios, OpenAI busca responder a las críticas y dar un primer paso hacia un uso más seguro de su tecnología, especialmente entre los menores de edad.
QT