ChatGPT vuelve a situarse en el centro del debate sobre el uso de la inteligencia artificial por parte de menores. La cuestión no es nueva: cómo equilibrar la libertad digital con la seguridad adolescente sigue siendo uno de los dilemas más complejos de la era tecnológica, y OpenAI empieza ahora a perfilar qué medidas tomará para responder a esa tensión, algo a lo que debe dar respuesta de manera tanto rápida como efectiva, pues su prestigio se encuentra en tela de juicio por la falta de controles en este sentido hasta este momento.
Hace dos semanas ya te adelantábamos que ChatGPT añadiría controles parentales, con vinculación de cuentas entre padres e hijos, límites de funciones según la edad, alertas ante señales de crisis emocional y un mayor control sobre memoria e historial del chat. Aquella hoja de ruta abría el marco; el movimiento actual lo perfila con más precisión y deja claro que la protección de adolescentes ocupará un lugar central en el servicio.
OpenAI describe ahora un sistema de detección de edad que sitúa a los menores de 18 años en una versión con restricciones. Ese entorno limita el acceso a temas sensibles, con especial atención a materias de carácter sexual o de autolesiones, y refuerza el uso de modelos y respuestas orientadas a la contención del riesgo. El objetivo pasa por ofrecer una experiencia útil y, al mismo tiempo, evitar que una consulta inocente derive en información que un adolescente no debería recibir sin filtros ni acompañamiento.
Para el acceso completo, la empresa deja abierta la opción de verificación por documento de identidad en usuarios adultos. No fija calendario ni describe el proceso técnico con detalle, de modo que la privacidad y el tratamiento de datos entran en primer plano. El mensaje oficial insiste en principios de protección para todos los usuarios, pero la ejecución práctica exigirá claridad sobre criterios, almacenamiento, duración y auditoría de esa verificación, porque ahí se juega la confianza del sistema.
El marco de protección contempla además avisos automáticos a los padres cuando el sistema detecta signos de angustia en un menor. Si el contacto con los progenitores resulta imposible, la compañía contempla notificaciones a autoridades competentes. La premisa aspira a ofrecer una red de seguridad adicional; la aplicación concreta —umbral de activación, revisión humana, garantías contra falsos positivos— sigue pendiente de concreción y define buena parte del impacto real de la medida.
Nada de esto ocurre en el vacío. El caso de Adam Raine y la demanda presentada por su familia han intensificado el escrutinio público y político sobre el papel de la IA en la salud mental juvenil. En ese contexto, el anuncio actual no cierra el debate, pero aporta una dirección más concreta que la del primer avance: controles parentales con alcance real, un filtro por edad que define experiencias distintas y la posibilidad de verificación para adultos, todo ello bajo un compromiso declarado con la privacidad.
Me interesa que este giro no convierta a ChatGPT en un laberinto de permisos, sino en una herramienta que ofrezca valor sin descuidar a los más vulnerables. La utilidad para adolescentes se medirá tanto por lo que evita como por lo que habilita: información clara, contención ante riesgos y caminos seguros hacia recursos de ayuda cuando haga falta. Si ese equilibrio se logra, la conversación sobre IA y menores dejará de girar en torno al miedo y pasará a una pregunta más útil: cómo aprovechar una tecnología potente sin renunciar a la protección que una sociedad madura debe garantizar.
La entrada ChatGPT da más detalles sobre controles parentales se publicó primero en MuyComputer.