Die Google-Muttergesellschaft Alphabet hat am Dienstag ein Produkt namens Trillium in seiner Chip-Familie für künstliche Intelligenz-Rechenzentren vorgestellt, das nach eigenen Angaben fast fünfmal so schnell ist wie seine Vorgängerversion.

"Die Nachfrage der Industrie nach Computern für maschinelles Lernen ist in den letzten sechs Jahren um das 1-Millionenfache gestiegen und hat sich jedes Jahr ungefähr verzehnfacht", sagte Sundar Pichai, CEO von Alphabet, in einem Briefinggespräch mit Reportern. "Ich denke, Google wurde für diesen Moment gebaut, wir leisten seit mehr als einem Jahrzehnt Pionierarbeit (bei KI-Chips)."

Alphabets Bestreben, maßgeschneiderte Chips für KI-Rechenzentren zu bauen, ist eine der wenigen brauchbaren Alternativen zu Nvidias Spitzenprozessoren, die den Markt dominieren. Zusammen mit der Software, die eng mit den Tensor Processing Units (TPUs) von Google verbunden ist, haben die Chips es dem Unternehmen ermöglicht, einen bedeutenden Anteil des Marktes zu erobern.

Nvidia beherrscht etwa 80% des Marktes für KI-Chips für Rechenzentren, und der Großteil der verbleibenden 20% entfällt auf verschiedene Versionen der TPUs von Google. Das Unternehmen verkauft den Chip nicht selbst, sondern mietet den Zugang über seine Cloud Computing-Plattform.

Der Trillium-Chip der sechsten Generation wird nach Angaben von Google eine 4,7-mal höhere Rechenleistung als der TPU v5e erreichen, ein Chip, der für die Technologie entwickelt wurde, die Text und andere Medien aus großen Modellen generiert. Der Trillium-Prozessor ist 67% energieeffizienter als der v5e.

Der neue Chip wird für seine Cloud-Kunden "Ende 2024" verfügbar sein, so das Unternehmen.

Die Google-Ingenieure erzielten zusätzliche Leistungssteigerungen, indem sie die Speicherkapazität mit hoher Bandbreite und die Gesamtbandbreite erhöhten. KI-Modelle benötigen enorme Mengen an fortschrittlichem Speicher, der ein Engpass für die weitere Steigerung der Leistung war.

Das Unternehmen hat die Chips so konzipiert, dass sie in Pods von 256 Chips eingesetzt werden können, die auf Hunderte von Pods skaliert werden können.