Microsoft prohíbe a sus empleados usar la aplicación DeepSeek
La compañía alega riesgos de seguridad y propaganda china. El veto fue anunciado por su presidente Brad Smith en una audiencia del Senado de EE.UU. el 8 de mayo. DeepSeek almacena datos en servidores chinos y censura contenidos sensibles según su política de privacidad.
«No permitimos DeepSeek por sus riesgos»
Brad Smith confirmó que Microsoft bloqueó el acceso a la aplicación de DeepSeek para sus empleados y evitó su distribución en su tienda de apps. «Los datos podrían almacenarse en China y las respuestas estar influenciadas por propaganda», declaró. Es la primera vez que la empresa hace pública esta restricción, aunque otros países ya habían limitado su uso.
Datos bajo legislación china
La política de privacidad de DeepSeek establece que la información de usuarios se guarda en servidores chinos, sujetos a leyes locales que exigen colaboración con agencias de inteligencia. Además, la herramienta censura temas considerados delicados por el gobierno de China.
Contradicción en Azure
Pese al veto, Microsoft ofreció el modelo R1 de DeepSeek en su servicio en la nube Azure tras su popularización este año. Smith afirmó que modificaron el modelo para eliminar «efectos dañinos», aunque no detalló los cambios. La compañía destacó que pasó por evaluaciones de seguridad antes de su lanzamiento en Azure.
Entre la competencia y la seguridad
DeepSeek compite directamente con Copilot, el chatbot de Microsoft, pero la empresa no prohíbe todas las alternativas en su tienda (como Perplexity). El modelo de código abierto permite descargarlo sin enviar datos a China, pero persisten riesgos como la generación de código inseguro o sesgos propagandísticos.
Un veto con precedentes
Varias organizaciones y gobiernos habían restringido DeepSeek antes, pero Microsoft no había explicitado su postura. La medida refleja la creciente tensión entre EE.UU. y China en tecnología e inteligencia artificial, especialmente en el manejo de datos sensibles.
¿Hacia más restricciones?
La decisión de Microsoft podría influir en otras empresas tecnológicas. El debate sobre la seguridad de los modelos de IA extranjeros sigue abierto, especialmente cuando operan bajo marcos legales conflictivos.