Anthropic lanza modelos de IA personalizados para seguridad nacional de EE.UU.
Los nuevos «Claude Gov» están diseñados para operaciones clasificadas. La empresa los desarrolló con feedback gubernamental y ya se usan en agencias de alto nivel. Su acceso está restringido a entornos clasificados.
«IA que entiende lo que antes rechazaba»
Anthropic afirma que estos modelos procesan mejor material clasificado y «rechazan menos» al interactuar con información sensible. Según la compañía, tienen «mayor comprensión de documentos de inteligencia y defensa», además de dominio avanzado de idiomas críticos para operaciones de seguridad.
Alianzas estratégicas
La empresa colabora con Palantir y AWS (de Amazon, su principal inversor) para vender su IA a clientes de defensa. En noviembre de 2024 cerraron un acuerdo en esta línea, buscando fuentes estables de ingresos.
La carrera por los contratos militares
Otras grandes tecnológicas compiten por el sector: OpenAI negocia con el Departamento de Defensa, Meta ofrece sus modelos Llama a socios castrenses y Google adapta su Gemini para entornos clasificados. Cohere, enfocada en negocios, también colabora con Palantir, según TechCrunch.
Seguridad primero, pero no sola
Anthropic asegura que los modelos pasaron los mismos tests de seguridad que sus versiones civiles. Su desarrollo responde a necesidades operativas reales, como planificación estratégica o análisis de inteligencia.
La IA se pone el uniforme
El sector de la inteligencia artificial busca consolidarse en defensa con herramientas especializadas. Los «Claude Gov» marcan un paso más en esta tendencia, priorizando el manejo de datos sensibles y contextos militares.