OpenAI añade controles parentales a ChatGPT tras demanda por suicidio
OpenAI introduce controles parentales para ChatGPT tras una demanda de los padres de un adolescente de California que falleció por suicidio. La empresa ofrece nuevas herramientas para que las familias gestionen el uso de la inteligencia artificial por parte de menores.
Gestión familiar de la interacción con IA
Los controles permiten vincular cuentas de padres y adolescentes con consentimiento mutuo. Una vez vinculadas, los padres pueden reducir la exposición a temas sensibles, desactivar la memoria de conversaciones anteriores y excluir chats del entrenamiento de modelos de IA. También es posible deshabilitar funciones de voz y generación de imágenes o establecer «horarios silenciosos» que bloqueen el acceso en ciertos momentos.
Privacidad y alertas de seguridad
Los padres no podrán leer las transcripciones de los chats de los adolescentes. En casos excepcionales donde se detecten riesgos agudos, OpenAI enviará una alerta a los padres con solo la información esencial necesaria para apoyar la seguridad.
Escrutinio creciente sobre IA y menores
El lanzamiento se produce en medio de una mayor atención sobre cómo los sistemas de IA interactúan con menores. Legisladores estadounidenses y defensores de la seguridad infantil cuestionan si las salvaguardias actuales son suficientes. Plataformas como Meta ya anunciaron restricciones adicionales para evitar que sus funciones de IA mantengan conversaciones románticas con menores o aborden temas como autolesiones.
Antecedentes de la medida de seguridad
OpenAI implementa estos controles tras una demanda interpuesta por los padres de un adolescente de California que falleció por suicidio después de presuntamente recibir orientación perjudicial del chatbot. La empresa reconoce que las barreras de seguridad pueden degradarse durante chats largos y emocionalmente complejos.
Implicaciones para el mercado global
Estos cambios convierten promesas abstractas de seguridad en herramientas prácticas para las familias. Para países con alta adopción móvil y uso creciente de IA generativa por adolescentes, los controles transparentes y aplicables en el hogar podrían convertirse en una expectativa básica para cualquier servicio de IA dirigido al mercado masivo.