OpenAI refuerza seguridad tras impacto de DeepSeek en el mercado de IA
La startup china superó a ChatGPT en descargas en enero de 2025. OpenAI acusó a DeepSeek de usar sus modelos para entrenar su IA de código abierto. Según Financial Times, la empresa de Sam Altman implementó medidas drásticas para evitar fugas.
«Blindaje interno contra el espionaje corporativo»
OpenAI ha reforzado sus protocolos de seguridad tras el incidente con DeepSeek. «El episodio motivó a OpenAI a ser mucho más riguroso», declaró una fuente cercana al equipo. Entre las medidas destacan: aislamiento de tecnología patentada, controles biométricos y una política de ‘salida denegada por defecto’ para datos críticos.
Medidas concretas
La compañía gestiona ahora parte de su tecnología en entornos fuera de línea, ha ampliado su equipo de ciberseguridad y restringe transferencias no autorizadas. Cualquier extracción de modelos requiere aprobación manual, reduciendo riesgos de filtración.
Carrera acelerada hacia GPT-5
El contexto es clave: la competencia en IA se intensifica, con empresas como Meta pagando sumas altas por talento. OpenAI prepara el lanzamiento de GPT-5, que promete mayor capacidad de razonamiento y personalización. Sam Altman lo describe como «una gran evolución», aunque sin fecha confirmada.
Un mercado que ya no es monopolio
DeepSeek demostró en enero que OpenAI ya no domina el sector en solitario. Su chatbot gratuito escaló rápidamente en la App Store estadounidense, incluso afectando al valor de NVIDIA. La startup china se convirtió en un rival inesperado.
Seguridad primero, innovación después
Las medidas de OpenAI reflejan la presión por mantener su ventaja tecnológica en un entorno más competitivo. El éxito de GPT-5 dependerá, en parte, de su capacidad para proteger su propiedad intelectual mientras avanza en desarrollo.