Halbleiter
Ein Material, dessen elektrische Leitfähigkeit zwischen der von Leitern (z. B. Metallen) und Isolatoren (z. B. Glas) liegt. Halbleiter lassen sich gezielt steuern, reagieren auf Hitze, Licht oder elektrische Signale – ideal zur Herstellung von Komponenten, die Informationen erzeugen, speichern und übertragen. Sie sind das Herzstück moderner Elektronik – vom Smartphone bis zur Waschmaschine.
Silizium
Zwar gibt es viele Halbleitermaterialien, doch Silizium dominiert – dank seiner natürlichen Verfügbarkeit und idealen elektrischen und thermischen Eigenschaften. Andere Materialien wie Tellur oder Siliziumkarbid kommen nur in Spezialanwendungen zum Einsatz.
CPU
Die zentrale Recheneinheit, auch „Prozessor“ genannt, gilt als das Gehirn von Computern oder Servern. In der KI übernimmt sie grundlegende Aufgaben: Datenorganisation, Netzkommunikation, Speicherverwaltung etc. Eine CPU ist entscheidend für die effiziente Verteilung großer Datenmengen.
GPU
Grafikprozessoren bestehen aus vielen Rechenkernen, die zwar einzeln schwächer sind als jene einer CPU, aber massenhaft parallel arbeiten können. Damit eignen sie sich ideal für Aufgaben in der KI und für grafikintensive Anwendungen.
ASIC
Anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuits) sind für genau eine Aufgabe entwickelt. In der KI existieren spezialisierte ASICs (NPU = Neural Processing Unit) für Sprach- oder Bilderkennung. Sie sind weniger flexibel als GPUs, dafür energieeffizienter.
TPU
Tensor Processing Unit – ein von Google entwickelter Chip zur Beschleunigung des KI-Trainings, insbesondere bei Matrixberechnungen. Er ist weniger vielseitig als eine GPU, dafür extrem leistungsstark bei spezifischen KI-Aufgaben.
SoC (System-on-a-Chip)
Ein SoC vereint CPU, GPU, Speichercontroller u. v. m. auf einem einzigen Chip. Diese Architektur – dominiert von ARM – steckt in Smartphones, Tablets und leichten Notebooks. Sie spart Platz und Energie.
XPU
Ein Sammelbegriff für alle Recheneinheiten – CPU, GPU, TPU etc. Ursprünglich ein Marketingbegriff, hat sich „XPU“ in der KI etabliert, um ganze Chip-Infrastrukturen zu beschreiben.
Architektur
Die Struktur eines Prozessors – wie er Informationen verarbeitet, mit dem Speicher kommuniziert oder Befehle parallel ausführt. Wichtigste Architekturen: x86 (Intel, AMD) und Arm (von Arm Holdings).
Fabless
Ein „fabless“ Unternehmen entwirft Chips, besitzt aber keine eigene Fabrik. Die Produktion übernimmt eine externe Foundry. Beispiel: Nvidia ist fabless, TSMC produziert.
Foundry
Foundries wie TSMC setzen die Chippläne fabless-Unternehmen in physische Produkte um – in hochsensiblen Reinräumen (Fabs) mit modernsten Anlagen.
OEM (Original Equipment Manufacturer)
Ein OEM stellt Hardware im Auftrag anderer Marken her. In der KI montieren OEMs etwa Server mit Nvidia-Chips, die dann von Drittunternehmen für das KI-Training genutzt werden.
Wafer
Eine dünne, kreisrunde Siliziumscheibe, auf der Tausende Mikrochips gefertigt werden. Nach der Produktion wird der Wafer in einzelne „Dies“ zersägt, die dann als CPU, GPU oder ASIC weiterverarbeitet werden.
Lithografie (Fertigungstechnologie)
Verfahren wie EUV (Extreme Ultraviolet) oder Photolithografie ermöglichen es, winzige Strukturen auf Wafer zu „zeichnen“. Je feiner die Gravur, desto effizienter und leistungsstärker ist der Chip.
Fertigungsgröße (Node)
Der sogenannte Node bezeichnet die Strukturbreite in Nanometern (z. B. 3 nm). Kleinere Nodes bedeuten kompaktere, schnellere und stromsparendere Chips.
Transistor
Ein winziger elektronischer Schalter, der Stromfluss kontrolliert. Milliarden Transistoren stecken in jedem modernen Chip. Sie sind die Grundlage digitaler Rechenleistung – auch für KI.
Mooresches Gesetz
1965 sagte Intel-Mitgründer Gordon Moore voraus, dass sich die Transistoranzahl auf einem Chip jährlich verdoppelt. 1975 korrigierte er auf alle zwei Jahre. Diese Innovationsdynamik hat das moderne Computing geprägt – heute verlangsamt sich das Wachstum jedoch (etwa alle drei Jahre).
LLM (Large Language Model)
Ein großes Sprachmodell, das mithilfe von KI Texte versteht und generiert. Es basiert auf riesigen Datenmengen und verbessert sich durch kontinuierliche Nutzung.
Training
Der Lernprozess einer KI: Sie wird mit gigantischen Datenmengen „gefüttert“, um Muster und Zusammenhänge zu erkennen und selbstständig Lösungen zu entwickeln.
Inferenz
Die Phase, in der die trainierte KI auf neue Eingaben reagiert – etwa eine unbekannte Automarke auf einem Bild erkennt. Inferenz ist die Anwendung des Gelernten.
Fine-Tuning
Nach dem Grundtraining kann ein Modell durch gezielte Datensätze verfeinert werden – etwa für maschinelle Übersetzung oder medizinische Bilderkennung. Ergebnis: extrem spezialisierte KI-Systeme.