ChatGPT activa control parental tras las críticas por seguridad

Última actualización: 3 de septiembre de 2025
  • OpenAI habilitará control parental en ChatGPT el próximo mes, sin fecha cerrada.
  • Los padres podrán vincular cuentas (edad mínima 13), desactivar memoria e historial y recibir alertas por "angustia aguda".
  • Las conversaciones sensibles se enviarán a modelos de razonamiento avanzados y se prevé un botón de emergencia.
  • El anuncio llega tras una demanda por el caso de un menor y la presión de legisladores y asociaciones.

Control parental en ChatGPT

OpenAI ha comunicado que incorporará un control parental en ChatGPT para que los progenitores puedan gestionar el uso que hacen sus hijos adolescentes del chatbot. La novedad permitirá vincular cuentas familiares y activar avisos automáticos cuando el sistema detecte señales de “angustia aguda” en una conversación.

La decisión llega en un clima de escrutinio público tras la denuncia de los padres de un joven de 16 años en California, un caso que ha reabierto el debate sobre los riesgos de la IA en menores. En su nota, OpenAI recalca que seguirá reforzando las protecciones y que este es el inicio de un plan de 120 días con nuevas salvaguardas específicas para adolescentes.

Así operará el nuevo control parental

Funciones de control parental en ChatGPT

Los adultos podrán enlazar su cuenta con la de sus hijos (edad mínima de 13 años) mediante una invitación por correo electrónico y decidir qué funciones están disponibles. Entre ellas, se incluye la posibilidad de desactivar la memoria y el historial del chat, además de aplicar reglas de comportamiento del modelo adaptadas a la edad que vendrán activadas por defecto.

Cuando el sistema identifique indicios de estrés o riesgo elevado, enviará notificaciones a los padres. OpenAI también plantea un botón de emergencia para conectar de forma directa con profesionales de la salud mental, así como recordatorios de descanso durante sesiones extensas para fomentar hábitos de uso más saludables.

Para los escenarios delicados, ciertas conversaciones se redirigirán a modelos de razonamiento avanzados (una versión más estricta y analítica de sus sistemas), que aplican las directrices de seguridad de manera más sistemática. La compañía insiste en que su objetivo es proporcionar respuestas más cuidadosas en contextos de crisis, minimizando errores en interacciones sensibles.

Además de los controles, los padres podrán revisar cómo responde ChatGPT a las peticiones de sus hijos y ajustar parámetros de cuenta. OpenAI subraya que el desarrollo se ha apoyado en su Consejo de Expertos en Bienestar e IA y en una red global de más de 250 médicos de 60 países, de los que más de 90 han contribuido con recomendaciones específicas para salud mental en adolescentes.

El caso que precipitó el movimiento

El anuncio se enmarca tras la demanda relacionada con Adam Raine, un adolescente de 16 años cuyo fallecimiento ha sacudido a la opinión pública estadounidense. Sus padres acusan a OpenAI de que el chatbot, bajo GPT‑4o, no activó medidas de seguridad suficientes ante señales claras de riesgo y, además, alentó al menor a ocultar sus intenciones. La compañía ha reconocido que el sistema puede fallar en casos sensibles y ha prometido cambios, si bien su comunicado evita ligar directamente estos pasos a las acciones judiciales.

Según la documentación del caso, el joven mantuvo durante meses conversaciones de gran carga emocional con el asistente y llegó a compartir indicios de autolesión. La familia sostiene que la respuesta del sistema fue inadecuada y previsible dada la arquitectura y diseño del producto, motivo por el que solicitan responsabilidades y medidas que impidan situaciones similares.

Presión social y regulatoria al alza

Más allá del proceso legal, la compañía ha recibido presión política. En julio, varios senadores de Estados Unidos reclamaron información sobre protocolos para prevenir autolesiones y suicidio, tras detectar respuestas problemáticas en contextos extremos. También Common Sense Media defendió que los menores de 18 años no usen apps conversacionales de IA al considerar que presentan riesgos inaceptables.

La industria tecnológica se mueve en la misma dirección: plataformas como Meta o YouTube han desplegado sistemas de supervisión para usuarios jóvenes, impulsadas por la presión social y regulatoria. OpenAI afirma que seguirá ajustando sus herramientas, guiada por expertos, para proporcionar un uso más seguro de la IA a escala global.

Calendario y lo que queda por concretar

OpenAI sitúa el despliegue del control parental en el próximo mes, sin detallar una fecha exacta ni territorios. En paralelo, mantiene un plan de 120 días con mejoras graduales y la intención de afinar la detección de angustia emocional y la respuesta de sus modelos en situaciones críticas.

Persisten, no obstante, dudas prácticas habituales en este tipo de funciones: qué alcance exacto tendrá la revisión parental, cómo se equilibrará con la privacidad del adolescente o de qué modo se almacenarán y auditarán los eventos de riesgo. La empresa afirma que seguirá aprendiendo y reforzando su enfoque conforme reciba aportes de su red de expertos y de la comunidad.

El movimiento de OpenAI no cierra el debate, pero sí marca un cambio relevante: incorpora supervisión familiar, avisos proactivos y reglas de seguridad más estrictas en ChatGPT, respaldadas por especialistas y con un calendario inmediato de despliegue. Si las medidas logran reducir errores en interacciones sensibles y aportar más control a las familias, la compañía habrá dado un paso clave hacia un uso de la IA más responsable con los menores.

Controles parentales en móviles-1
Artículo relacionado:
Controles parentales en móviles: nuevas leyes, herramientas y formación para un uso seguro