AI
OpenAI endurece el régimen de seguridad tras acusaciones de espionaje contra rivales chinos
OpenAI responde a sospechas de espionaje con acceso mediante huellas dactilares, sistemas offline y exmilitares para la seguridad de los modelos.

El pionero estadounidense de la IA, OpenAI, ha reforzado significativamente sus medidas de seguridad para proteger su propiedad intelectual frente a la creciente presión de espionaje. Uno de los desencadenantes fue la acusación de que la empresa china DeepSeek había desarrollado un modelo de competencia utilizando técnicas de “destilación” basadas en la tecnología de OpenAI.
Posteriormente, OpenAI redujo drásticamente el acceso interno a datos sensibles de proyectos. Nuevas políticas de protección de la información, denominadas internamente "Tenting", han restringido desde entonces el personal que puede participar en desarrollos de modelos individuales. Así, en el modelo o1 con el nombre de código interno "Strawberry" solo se podía hablar dentro de equipos claramente definidos.
Además de las medidas organizativas, también se aumentaron las barreras de seguridad físicas. Los escáneres de huellas dactilares regulan el acceso a áreas especialmente seguras. Parte de los pesos del modelo, es decir, los parámetros más sensibles de las redes neuronales, se almacenan ahora en sistemas completamente aislados, desconectados de Internet. Una política de salida de "denegar por defecto" evita la fuga incontrolada de datos.
El cambio de seguridad está respaldado por personal con experiencia gubernamental: Dane Stuckey, anteriormente Chief Information Security Officer en Palantir, ha estado a cargo de la ciberdefensa como CISO desde octubre. El General Paul Nakasone, exjefe del Comando Cibernético de EE.UU., ahora es miembro de la junta directiva. Además, el jefe de seguridad Matt Knight está trabajando para utilizar los propios modelos de OpenAI para mejorar la defensa contra ciberataques.
El paso se produce en el contexto de crecientes tensiones entre EE. UU. y China en el sector tecnológico. Washington había advertido repetidamente sobre intentos deliberados de actores chinos para obtener modelos y datos propietarios de empresas estadounidenses. OpenAI enfatizó que las medidas de seguridad son parte de una estrategia a largo plazo, no una reacción a un incidente específico.