Die Vereinigten Staaten, Großbritannien und mehr als ein Dutzend anderer Länder haben am Sonntag das erste detaillierte internationale Abkommen über den Schutz künstlicher Intelligenz vor böswilligen Akteuren vorgestellt, wie ein hochrangiger US-Beamter sagte.

In einem 20-seitigen Dokument, das am Sonntag veröffentlicht wurde, haben sich die 18 Länder darauf geeinigt, dass Unternehmen, die künstliche Intelligenz entwickeln und nutzen, diese so entwickeln und einsetzen müssen, dass Kunden und die breite Öffentlichkeit vor Missbrauch geschützt sind.

Die Vereinbarung ist nicht bindend und enthält vor allem allgemeine Empfehlungen wie die Überwachung von KI-Systemen auf Missbrauch, den Schutz von Daten vor Manipulation und die Überprüfung von Softwareanbietern.

Die Direktorin der US-Behörde für Cybersicherheit und Infrastruktursicherheit, Jen Easterly, sagte jedoch, es sei wichtig, dass so viele Länder die Idee unterstützen, dass die Sicherheit von KI-Systemen an erster Stelle stehen muss.

"Dies ist das erste Mal, dass wir eine Bestätigung sehen, dass es bei diesen Fähigkeiten nicht nur um coole Funktionen gehen sollte und darum, wie schnell wir sie auf den Markt bringen können oder wie wir konkurrieren können, um die Kosten zu senken", sagte Easterly gegenüber Reuters und sagte, dass die Richtlinien "eine Einigung darüber darstellen, dass das Wichtigste in der Designphase die Sicherheit ist.

Die Vereinbarung ist die jüngste in einer Reihe von Initiativen, die von Regierungen auf der ganzen Welt ergriffen wurden, um die Entwicklung der KI zu gestalten, deren Bedeutung in der Industrie und in der Gesellschaft insgesamt zunehmend spürbar wird.

Zu den 18 Ländern, die die neuen Richtlinien unterzeichnet haben, gehören neben den Vereinigten Staaten und Großbritannien auch Deutschland, Italien, die Tschechische Republik, Estland, Polen, Australien, Chile, Israel, Nigeria und Singapur.

Das Rahmenwerk befasst sich mit der Frage, wie verhindert werden kann, dass KI-Technologien von Hackern gekapert werden, und enthält Empfehlungen wie die Freigabe von Modellen erst nach angemessenen Sicherheitstests.

Er befasst sich nicht mit den heiklen Fragen der angemessenen Nutzung von KI oder der Art und Weise, wie die Daten, die diese Modelle speisen, gesammelt werden.

Der Aufstieg der KI hat eine Reihe von Bedenken genährt, darunter die Befürchtung, dass sie eingesetzt werden könnte, um den demokratischen Prozess zu stören, den Betrug zu beschleunigen oder zu einem dramatischen Verlust von Arbeitsplätzen zu führen, neben anderen Schäden.

Europa ist den Vereinigten Staaten bei der Regulierung von KI voraus, da die Gesetzgeber dort KI-Vorschriften ausarbeiten. Frankreich, Deutschland und Italien haben sich vor kurzem auf eine Vereinbarung über die Regulierung der künstlichen Intelligenz geeinigt, die eine "verpflichtende Selbstregulierung durch Verhaltenskodizes" für so genannte Basismodelle der KI vorsieht, die eine breite Palette von Ergebnissen produzieren sollen.

Die Regierung Biden hat die Gesetzgeber zu einer Regulierung der KI gedrängt, aber der polarisierte US-Kongress hat kaum Fortschritte bei der Verabschiedung einer wirksamen Regulierung gemacht.

Das Weiße Haus hat im Oktober mit einer neuen Verordnung versucht, die Risiken von KI für Verbraucher, Arbeitnehmer und Minderheiten zu verringern und gleichzeitig die nationale Sicherheit zu stärken. (Berichte von Raphael Satter und Diane Bartz; Redaktion: Alexandra Alper und Deepa Babington)