OpenAI verschärft Sicherheitsregime nach Spionagevorwürfen gegen chinesische Rivalen

OpenAI reagiert auf Spionageverdacht mit Fingerabdruck-Zugang, Offline-Systemen und Ex-Militärs zur Sicherung von Modellen.

10.7.2025, 18:32
Eulerpool News 10. Juli 2025, 18:32

Der US-amerikanische KI-Pionier OpenAI hat seine Sicherheitsvorkehrungen deutlich verschärft, um sein geistiges Eigentum gegenüber wachsendem Ausspähungsdruck zu schützen. Auslöser war unter anderem der Vorwurf, dass das chinesische Unternehmen DeepSeek ein Konkurrenzmodell mithilfe sogenannter „Distillation“-Techniken auf Basis von OpenAI-Technologie entwickelt habe.

In der Folge reduzierte OpenAI den internen Zugang zu sensiblen Projektdaten drastisch. Neue Informationsschutzrichtlinien – intern als „Tenting“ bezeichnet – schränken seither den Mitarbeiterkreis ein, der an einzelnen Modellentwicklungen mitwirken darf. So durfte beim o1-Modell mit dem internen Codenamen „Strawberry“ nur innerhalb klar definierter Teams gesprochen werden.

Neben organisatorischen Maßnahmen wurden auch physische Sicherheitsbarrieren erhöht. Fingerabdruckscanner regeln den Zutritt zu besonders gesicherten Bereichen. Teile der Modellgewichte – also der sensibelsten Parameter neuronaler Netze – werden mittlerweile in vollständig isolierten, vom Internet abgekoppelten Systemen gespeichert. Eine „deny-by-default egress policy“ verhindert dabei unkontrollierte Datenabflüsse.

Unterstützt wird der Sicherheitsumbau durch Personal mit Regierungserfahrung: Dane Stuckey, früher Chief Information Security Officer bei Palantir, verantwortet seit Oktober als CISO die Cyberabwehr. General a.D. Paul Nakasone, Ex-Chef der US-Cybercommand, sitzt inzwischen im Aufsichtsrat. Zudem arbeitet Sicherheitschef Matt Knight daran, OpenAIs eigene Modelle zur Verbesserung der Abwehr gegen Cyberangriffe einzusetzen.

Der Schritt erfolgt vor dem Hintergrund wachsender Spannungen zwischen den USA und China im Technologiesektor. Washington hatte zuletzt mehrfach vor gezielten Versuchen chinesischer Akteure gewarnt, proprietäre Modelle und Daten von US-Firmen zu erlangen. OpenAI betonte, dass die Sicherheitsmaßnahmen Teil einer längerfristigen Strategie seien – nicht Reaktion auf einen konkreten Vorfall.

Professional-grade financial intelligence

20M+ securities. Real-time data. Institutional insights.

Trusted by professionals at Goldman Sachs, BlackRock, and JPMorgan

Favoriten unserer Leser