OpenAI, Anthropic und Google schließen sich zusammen, um chinesische Konkurrenten daran zu hindern, ihre fortschrittlichsten KI-Modelle zu kopieren. Diese seltene Allianz zeigt, wie ernst US-Labore den Diebstahl von Modellen mittlerweile nehmen und was sie als wachsendes Risiko für die nationale Sicherheit bezeichnen.
Warum große KI-Labore sich zusammentun
Laut einem Bloomberg-Bericht tauschen die drei Unternehmen Bedrohungsinformationen über das Frontier Model Forum aus, eine gemeinnützige Branchenorganisation, die sie 2023 gemeinsam mit Microsoft gegründet haben. Über diesen Kanal melden sie Versuche von Nutzern aus China, ihre Modelle auf eine Weise zu „destillieren“, die gegen die Nutzungsbedingungen der Plattformen verstößt.
In diesen Fällen fragen chinesische Entwickler wiederholt Systeme wie ChatGPT, Claude oder Gemini ab und nutzen die Ergebnisse dann, um billigere Nachahmermodelle zu trainieren. US-Beamte schätzen, dass diese unerlaubten Destillationsversuche den Labors im Silicon Valley jedes Jahr Gewinne in Milliardenhöhe kosten.
Distillation ist eine gängige Technik im maschinellen Lernen, bei der ein kleineres „Schüler“-Modell von den Antworten eines größeren „Lehrer“-Modells lernt und so oft ähnliche Fähigkeiten zu geringeren Kosten erlangt. OpenAI, Google und Anthropic nutzen Distillation intern, um ihre Systeme zu komprimieren, und sie erlauben eine gewisse externe Nutzung, solange diese nicht in direkten Wettbewerb tritt.
Das Problem, so sagen sie, ist die „adversarische Destillation“, bei der externe Labore US-Modelle mit automatisierten Eingaben bombardieren, um Kernverhalten und Sicherheitsforschung zu kopieren, ohne in das ursprüngliche Training zu investieren. OpenAI teilte US-Gesetzgebern mit, dass das chinesische Unternehmen DeepSeek versucht habe, „auf den von OpenAI und anderen US-Spitzenlabors entwickelten Fähigkeiten mitzufahren“. Anthropic hat zudem Unternehmen mit Verbindungen zu China, darunter DeepSeek, Moonshot und MiniMax, beschuldigt, Fähigkeiten aus seinem Claude-Modell zu extrahieren und anschließend die Sicherheitsvorkehrungen zu entfernen.
Neue Erkennungs- und Durchsetzungsstrategien
Als Reaktion darauf entwickeln die Unternehmen Technologien, um ungewöhnliche Verkehrsmuster zu erkennen, die auf Versuche des automatisierten Klonens oder Scrapings hindeuten könnten. Sie suchen nach Anzeichen dafür, dass ein Bot – und kein normaler Nutzer – versucht, das Modell nachzubauen, wie zum Beispiel umfangreiche, organisierte Suchanfragen und wiederholte Eingabeaufforderungen über verschiedene Konten hinweg.
Um das Kopieren zu erschweren, können die Unternehmen Konten sperren, IP-Bereiche blockieren oder Ratenbegrenzungen und Ausgabeformate ändern. In einem Memo an den Kongress hat OpenAI bereits seine Nutzungsbedingungen überarbeitet und die Modell-Extraktion als Sicherheits- und Wirtschaftsrisiko hervorgehoben. Nachdem Anthropic zahlreiche Scraping-Versuche identifiziert hatte, hat das Unternehmen im letzten Jahr chinesischen Unternehmen die Nutzung von Claude komplett untersagt.
WEITERLESEN: Filecoin (FIL) peilt 11,40 $ an, da sich ein Ausbruch aus dem fallenden Keil nähert