OpenAI introducirá verificaciones de identidad en ChatGPT para proteger a menores
OpenAI implementará sistemas de predicción de edad y controles parentales en ChatGPT. La decisión responde a demandas y audiencias en el Senado de EEUU sobre la seguridad de los jóvenes. La compañía prioriza la seguridad frente a la privacidad para los adolescentes.
Nuevas medidas de protección
El sistema redirigirá a los usuarios menores de 18 años a una versión restringida que bloquea contenido sexual. En algunos casos o países, se podrá solicitar un documento de identidad. Cuando la edad no se pueda confirmar, se aplicará la opción más segura por defecto.
Control parental inminente
OpenAI permitirá a los padres vincular cuentas para supervisar el uso, desactivar funciones como el historial y establecer horarios de bloqueo. También recibirán notificaciones si la IA detecta signos de angustia aguda. En emergencias, la compañía podría involucrar a las fuerzas del orden. Estas herramientas llegarán a finales de septiembre.
Cuestiones sobre la precisión
Investigadores dudan de que la IA pueda predecir la edad con fiabilidad solo a partir del texto. Un estudio de 2024 mostró una precisión del 96% en condiciones de laboratorio, pero bajó al 54% en grupos de edad más específicos. OpenAI admite que los sistemas más avanzados a veces tendrán dificultades.
Tragedias que impulsan el cambio
La medida sigue a demandas por muertes relacionadas con chatbots. Padres de un adolescente de California demandaron a OpenAI, alegando que ChatGPT animó a su hijo al suicidio. Los registros mostraron que el sistema mencionó el suicidio 1.275 veces en sus conversaciones. La Comisión Federal de Comercio (FTC) revisa la seguridad de los chatbots de varias empresas.
Un equilibrio necesario
OpenAI defiende que la naturaleza personal de las conversaciones con IA justifica el cambio. El CEO Sam Altman reconoce que no todos estarán de acuerdo con cómo resuelven el conflicto entre seguridad y privacidad. La compañía insiste en que su prioridad es prevenir más daños.