OpenAI implementa medidas de seguridad para adolescentes en ChatGPT
OpenAI desarrolla un sistema de predicción de edad para identificar menores y redirigirlos a una versión adecuada. La medida responde a preocupaciones sobre la interacción de jóvenes con inteligencia artificial.
Nuevas protecciones para usuarios jóvenes
La empresa detectaría situaciones de riesgo como posibles autolesiones. En esos casos, notificaría a los padres o autoridades si los primeros son inaccesibles. Este sistema forma parte de un esfuerzo más amplio de verificación de edad en industrias como videojuegos o contenido para adultos.
Cuestiones pendientes
La implementación plantea interrogantes sobre privacidad y criterios. Se desconoce cómo se verificará la edad, dónde se almacenarán los datos o qué se considerará «inapropiado». Surgen dudas sobre la idoneidad de notificar a progenitores en exploraciones de orientación sexual.
Repercusión en el sector tecnológico
Este anuncio coincide con grandes inversiones en infraestructura de IA en Reino Unido. Microsoft y Nvidia destinarán hasta 45.000 millones de dólares en centros de datos e investigación. Estas instalaciones enfrentan oposición por su alto consumo energético e impacto ambiental.
Antecedentes de verificación de edad
La verificación de edad se aplica actualmente en diversos sectores como pornografía o videojuegos. Las empresas abordan este requisito de forma diferente, equilibrando protección de menores y privacidad.
Impacto en el desarrollo tecnológico
Las medidas de seguridad para adolescentes representan un nuevo desafío para el desarrollo de IA. El equilibrio entre protección y privacidad marcará la evolución de estas tecnologías y su aceptación social.