Die Biden-Administration ist bereit, eine neue Front in ihrem Bemühen zu eröffnen, die KI der USA vor China und Russland zu schützen. Sie plant, die fortschrittlichsten KI-Modelle, die Kernsoftware von Systemen der künstlichen Intelligenz wie ChatGPT, mit Leitplanken zu versehen, so Quellen.

Das Handelsministerium erwägt einen neuen regulatorischen Vorstoß, um den Export von proprietären oder Closed-Source-KI-Modellen einzuschränken, deren Software und die Daten, auf denen sie trainiert werden, unter Verschluss gehalten werden, so drei mit der Angelegenheit vertraute Personen.

Jede Maßnahme würde eine Reihe von Maßnahmen ergänzen, die in den letzten zwei Jahren eingeführt wurden, um den Export von hochentwickelten KI-Chips nach China zu blockieren, um Pekings Entwicklung der Spitzentechnologie für militärische Zwecke zu bremsen. Dennoch wird es für die Regulierungsbehörden schwer sein, mit den rasanten Entwicklungen der Branche Schritt zu halten.

Das Handelsministerium lehnte eine Stellungnahme ab, und die russische Botschaft in Washington reagierte nicht sofort auf eine Anfrage nach einem Kommentar. Die chinesische Botschaft bezeichnete den Schritt als "typischen Akt wirtschaftlicher Nötigung und einseitiger Schikane, den China entschieden ablehnt" und fügte hinzu, dass es "notwendige Maßnahmen" ergreifen werde, um seine Interessen zu schützen.

Derzeit hindert nichts US-KI-Giganten wie das von Microsoft unterstützte OpenAI, Alphabets Google DeepMind und der Konkurrent Anthropic, die einige der leistungsstärksten Closed-Source-KI-Modelle entwickelt haben, daran, diese ohne staatliche Aufsicht an fast jeden auf der Welt zu verkaufen.

Forscher der Regierung und des privaten Sektors befürchten, dass US-Gegner die Modelle, die riesige Mengen an Text und Bildern auswerten, um Informationen zusammenzufassen und Inhalte zu generieren, nutzen könnten, um aggressive Cyberangriffe durchzuführen oder sogar wirksame biologische Waffen zu entwickeln.

Eine der Quellen sagte, dass jede neue Exportkontrolle wahrscheinlich auf Russland, China, Nordkorea und den Iran abzielen würde. In einem Bericht vom Februar erklärte Microsoft, dass es Hackergruppen aufgespürt hat, die mit der chinesischen und nordkoreanischen Regierung sowie dem russischen Militärgeheimdienst und der iranischen Revolutionsgarde verbunden sind und versuchen, ihre Hacking-Kampagnen mit Hilfe großer Sprachmodelle zu perfektionieren.

RECHENLEISTUNG

Um eine Exportkontrolle für KI-Modelle zu entwickeln, könnten sich die USA den Quellen zufolge auf einen Schwellenwert stützen, der in einer im Oktober letzten Jahres erlassenen KI-Verordnung enthalten ist und auf der zum Trainieren eines Modells erforderlichen Rechenleistung basiert. Wenn dieser Schwellenwert erreicht ist, muss ein Entwickler seine Entwicklungspläne für KI-Modelle melden und dem Handelsministerium Testergebnisse vorlegen.

Dieser Schwellenwert für die Rechenleistung könnte die Grundlage für die Bestimmung der KI-Modelle werden, die Exportbeschränkungen unterliegen, so zwei US-Beamte und eine weitere Quelle, die über die Gespräche informiert ist. Sie lehnten es ab, namentlich genannt zu werden, da die Details nicht öffentlich gemacht wurden.

Wenn sie verwendet wird, würde sie wahrscheinlich nur den Export von Modellen einschränken, die noch nicht auf dem Markt sind, da noch keines den Schwellenwert erreicht hat, obwohl Googles Gemini Ultra laut EpochAI, einem Forschungsinstitut, das KI-Trends verfolgt, nahe dran sein soll.

Die Agentur ist weit davon entfernt, einen Vorschlag für eine Regelung zu machen, betonten die Quellen. Aber die Tatsache, dass ein solcher Schritt in Erwägung gezogen wird, zeigt, dass die US-Regierung versucht, Lücken in ihrem Bemühen zu schließen, Pekings KI-Ambitionen zu vereiteln, obwohl es schwierig ist, der sich schnell entwickelnden Technologie ein strenges Regelwerk aufzuerlegen.

Da sich die Regierung Biden mit dem Wettbewerb mit China und den Gefahren hochentwickelter KI befasst, sind KI-Modelle "offensichtlich eines der Werkzeuge, einer der potenziellen Hemmschuhe, über die man hier nachdenken muss", sagte Peter Harrell, ein ehemaliger Beamter des Nationalen Sicherheitsrats. "Es bleibt abzuwarten, ob man sie in der Praxis tatsächlich in einen kontrollierbaren Sperrpunkt für Exporte verwandeln kann", fügte er hinzu.

BIOWAFFEN UND CYBERANGRIFFE?

Die amerikanischen Geheimdienste, Think Tanks und Wissenschaftler sind zunehmend besorgt über die Risiken, die von ausländischen bösen Akteuren ausgehen, die Zugang zu fortgeschrittenen KI-Fähigkeiten erhalten. Forscher von Gryphon Scientific und der Rand Corporation haben festgestellt, dass fortgeschrittene KI-Modelle Informationen liefern können, die bei der Entwicklung biologischer Waffen helfen könnten.

Das Heimatschutzministerium erklärte in seiner Einschätzung der Bedrohungslage für das Jahr 2024, dass Cyber-Akteure wahrscheinlich KI nutzen werden, um "neue Werkzeuge zu entwickeln", die "Cyber-Angriffe in größerem Umfang, schneller, effizienter und ausweichender" ermöglichen.

"Die potenzielle Explosion der Nutzung und Ausbeutung von KI ist radikal, und es fällt uns sehr schwer, dem zu folgen", sagte Brian Holmes, ein Beamter des Office of the Director of National Intelligence, auf einem Exportkontrolltreffen im März und nannte Chinas Fortschritte als besonders besorgniserregend.

KI CRACKDOWN

Um diesen Bedenken zu begegnen, haben die USA Maßnahmen ergriffen, um den Fluss amerikanischer KI-Chips und der Werkzeuge zu ihrer Herstellung nach China einzudämmen.

Außerdem hat sie eine Regelung vorgeschlagen, die von US-Cloud-Unternehmen verlangt, die Regierung zu informieren, wenn ausländische Kunden ihre Dienste nutzen, um leistungsstarke KI-Modelle zu trainieren, die für Cyberangriffe verwendet werden könnten.

Aber bisher hat sie sich noch nicht mit den KI-Modellen selbst befasst. Alan Estevez, der im Handelsministerium für die US-Exportpolitik zuständig ist, sagte im Dezember, dass die Behörde Optionen für die Regulierung des Exports von Open Source Large Language Models (LLM) prüfe, bevor sie das Feedback der Industrie einhole.

Tim Fist, ein Experte für KI-Politik bei der in Washington DC ansässigen Denkfabrik CNAS, sagt, der Schwellenwert sei "eine gute vorübergehende Maßnahme, bis wir bessere Methoden zur Messung der Fähigkeiten und Risiken neuer Modelle entwickeln.

Jamil Jaffer, ein ehemaliger Beamter des Weißen Hauses und des Justizministeriums, sagte, die Regierung Biden solle keinen Schwellenwert für die Rechenleistung verwenden, sondern sich für eine Kontrolle entscheiden, die auf den Fähigkeiten und dem Verwendungszweck des Modells basiert. "Die Konzentration auf das nationale Sicherheitsrisiko und nicht auf technologische Schwellenwerte ist die bessere Lösung, weil sie nachhaltiger ist und sich auf die Bedrohung konzentriert", sagte er.

Der Schwellenwert ist nicht in Stein gemeißelt. Eine der Quellen sagte, dass Commerce am Ende eine niedrigere Untergrenze festlegen könnte, in Verbindung mit anderen Faktoren, wie der Art der Daten oder der potenziellen Verwendung des KI-Modells, z.B. der Fähigkeit, Proteine zu entwickeln, die zur Herstellung einer biologischen Waffe verwendet werden könnten.

Unabhängig vom Schwellenwert wird der Export von KI-Modellen schwer zu kontrollieren sein. Viele Modelle sind quelloffen, was bedeutet, dass sie nicht in den Geltungsbereich der in Erwägung gezogenen Exportkontrollen fallen würden.

Selbst die Auferlegung von Kontrollen für die fortschrittlicheren proprietären Modelle wird sich als schwierig erweisen, da die Regulierungsbehörden wahrscheinlich Schwierigkeiten haben werden, die richtigen Kriterien zu definieren, um zu bestimmen, welche Modelle überhaupt kontrolliert werden sollten, sagte Fist und merkte an, dass China bei der Entwicklung seiner eigenen KI-Software wahrscheinlich nur etwa zwei Jahre hinter den Vereinigten Staaten liegt.

Die in Erwägung gezogene Exportkontrolle würde sich auf den Zugang zu der Backend-Software auswirken, die einige Verbraucheranwendungen wie ChatGPT antreibt, aber den Zugang zu den nachgelagerten Anwendungen selbst nicht einschränken. (Berichterstattung von Alexandra Alper; Zusätzliche Berichterstattung von Karen Freifeld und Anna Tong; Bearbeitung von Chris Sanders und Anna Driver)