Meta Platforms wird in den kommenden Monaten damit beginnen, Bilder, die von künstlichen Intelligenzdiensten anderer Unternehmen erzeugt wurden, zu erkennen und zu kennzeichnen. Dazu wird eine Reihe von unsichtbaren Markierungen in die Dateien eingebaut, sagte die oberste Führungskraft des Unternehmens am Dienstag.

Meta wird die Markierungen auf alle Inhalte anwenden, die mit den Markierungen versehen sind und auf den Diensten Facebook, Instagram und Threads gepostet werden, um den Nutzern zu signalisieren, dass es sich bei den Bildern - die in vielen Fällen echten Fotos ähneln - tatsächlich um digitale Kreationen handelt, schrieb Nick Clegg, der Präsident für globale Angelegenheiten des Unternehmens, in einem Blogbeitrag.

Das Unternehmen kennzeichnet bereits alle Inhalte, die mit seinen eigenen KI-Tools erstellt wurden.

Sobald das neue System einsatzbereit ist, wird Meta dasselbe für Bilder tun, die mit Diensten von OpenAI, Microsoft , Adobe, Midjourney, Shutterstock und Alphabet's Google erstellt wurden, so Clegg.

Die Ankündigung bietet einen ersten Einblick in ein aufkommendes System von Standards, die Technologieunternehmen entwickeln, um die potenziellen Schäden im Zusammenhang mit generativen KI-Technologien zu mindern, die als Reaktion auf einfache Aufforderungen gefälschte, aber realistisch wirkende Inhalte ausspucken können.

Der Ansatz baut auf einer Vorlage auf, die in den letzten zehn Jahren von einigen der gleichen Unternehmen entwickelt wurde, um die Entfernung von verbotenen Inhalten auf verschiedenen Plattformen zu koordinieren, darunter Darstellungen von Massengewalt und Kinderausbeutung.

In einem Interview sagte Clegg gegenüber Reuters, er sei zuversichtlich, dass die Unternehmen KI-generierte Bilder zum jetzigen Zeitpunkt zuverlässig kennzeichnen könnten, sagte aber, dass die Werkzeuge zur Kennzeichnung von Audio- und Videoinhalten komplizierter seien und noch entwickelt würden.

"Auch wenn die Technologie noch nicht ganz ausgereift ist, vor allem bei Audio und Video, so hoffen wir doch, dass wir ein Gefühl der Dynamik und einen Anreiz für den Rest der Branche schaffen können, um zu folgen", sagte Clegg.

In der Zwischenzeit, so fügte er hinzu, werde Meta damit beginnen, von den Nutzern zu verlangen, ihre eigenen veränderten Audio- und Videoinhalte zu kennzeichnen und Strafen zu verhängen, wenn sie dies nicht tun. Clegg hat die Strafen nicht näher beschrieben.

Er fügte hinzu, dass es derzeit keinen praktikablen Mechanismus zur Kennzeichnung von geschriebenem Text gibt, der von KI-Tools wie ChatGPT erzeugt wurde.

"Das Schiff ist abgefahren", sagte Clegg.

Ein Sprecher von Meta lehnte es ab, zu sagen, ob das Unternehmen generative KI-Inhalte, die über den verschlüsselten Nachrichtendienst WhatsApp geteilt werden, kennzeichnen wird.

Das unabhängige Aufsichtsgremium von Meta hat am Montag die Politik des Unternehmens in Bezug auf irreführend verfälschte Videos gerügt und gesagt, dass sie zu eng gefasst sei und die Inhalte gekennzeichnet werden sollten, anstatt sie zu entfernen.

Clegg sagte, er stimme mit dieser Kritik weitgehend überein.

Der Vorstand habe Recht, sagte er, dass die bestehende Politik von Meta "in einem Umfeld, in dem es viel mehr synthetische und hybride Inhalte als früher geben wird, einfach nicht mehr zweckmäßig ist".

Er führte die neue Kennzeichnungspartnerschaft als Beweis dafür an, dass Meta sich bereits in die vom Vorstand vorgeschlagene Richtung bewegt. (Berichte von Katie Paul in New York; Bearbeitung durch Matthew Lewis und Jamie Freed)