Alphabet hat am Mittwoch sein fortschrittlichstes Modell für künstliche Intelligenz vorgestellt. Es handelt sich um eine Technologie, die in der Lage ist, verschiedene Formen von Informationen wie Video, Audio und Text zu verarbeiten.

Gemini, das mit Spannung erwartete KI-Modell des Google-Eigentümers, ist in der Lage, anspruchsvollere Schlussfolgerungen zu ziehen und Informationen nuancierter zu verstehen als Googles vorherige Technologie, so das Unternehmen.

"Diese neue Ära von Modellen stellt eine der größten wissenschaftlichen und technischen Anstrengungen dar, die wir als Unternehmen unternommen haben", schrieb Alphabet-CEO Sundar Pichai in einem Blogbeitrag.

Seit dem Start von OpenAIs ChatGPT vor etwa einem Jahr hat Google ein Wettrennen veranstaltet, um KI-Software zu entwickeln, die mit dem konkurriert, was das von Microsoft unterstützte Unternehmen eingeführt hat.

Google fügte am Mittwoch einen Teil der neuen Gemini-Modelltechnologie zu seinem KI-Assistenten Bard hinzu und sagte, dass es plane, seine fortschrittlichste Version von Gemini über Bard Anfang nächsten Jahres zu veröffentlichen.

Alphabet sagte, dass es drei Versionen von Gemini herstellt, von denen jede für eine unterschiedliche Rechenleistung ausgelegt ist. Die leistungsstärkste Version ist für den Einsatz in Rechenzentren gedacht, während die kleinste Version effizient auf mobilen Geräten läuft, so das Unternehmen.

Gemini ist das größte KI-Modell, das die Google DeepMind KI-Einheit des Unternehmens mitentwickelt hat, aber es ist "deutlich" billiger als die früheren, größeren Modelle des Unternehmens, sagte Eli Collins, Vice President, Product bei DeepMind, gegenüber Reportern.

"Es ist also nicht nur leistungsfähiger, sondern auch viel effizienter", sagte Collins. Das neueste Modell benötigt immer noch eine beträchtliche Menge an Rechenleistung, um zu trainieren, aber Google verbessert seinen Prozess, fügte er hinzu.

Alphabet kündigte auch eine neue Generation seiner maßgeschneiderten KI-Chips, der Tensor Processing Units (TPUs), an. Die Cloud TPU v5p wurde entwickelt, um große KI-Modelle zu trainieren, und wird in Pods von 8.960 Chips zusammengefügt.

Die neue Version der Kundenprozessoren kann große Sprachmodelle fast dreimal so schnell trainieren wie frühere Generationen. Die neuen Chips sind ab Mittwoch für Entwickler in einer "Vorschau" verfügbar, so das Unternehmen. (Berichte von Max A. Cherney und Stephen Nellis in San Francisco; Bearbeitung durch Jamie Freed)