Listen

Description

In dieser Folge beleuchten wir die Tensor Processing Units (TPUs) von Google, auf die große KI-Schmieden wie Google Deepmind und Anthropic setzen, anstatt die marktbeherrschenden Nvidia-Chips zu verwenden.

Wir ergründen die fundamentale Philosophie hinter den TPUs: Im Gegensatz zu Nvidias flexiblem Allzweckwerkzeug ("Schweizer Taschenmesser") sind TPUs ein hochspezialisiertes „Skalpell“, das von Grund auf nur für die massiven Berechnungen neuronaler Netze gebaut wurde, um pure Effizienz zu erzielen.Der technische Kern ist das sogenannte systolische Array, das den Speicherflaschenhals eliminiert, indem die Daten wellenartig durch Tausende von Recheneinheiten fließen, während die Gewichte fixiert bleiben.

Das eigentliche Produkt ist dabei nicht der einzelne Chip, sondern das integrierte Gesamtsystem (die "Pots"), bei dem Tausende von Chips über ultraschnelle Netzwerke – teilweise sogar mit optischen Schaltern – verbunden sind, was enorme Stabilität ermöglicht.

Diese vertikale Integration von Hard- und Software verschafft Partnern strategische Vorteile in der Spitzenforschung: garantierte Verfügbarkeit von Rechenclustern und potenziell 30 bis 50 % geringere Kosten im Vergleich zu Nvidia. Es zeichnet sich eine technologische Zweiteilung des KI-Marktes ab, wobei Google aggressiv auf das intelligenteste Gesamtsystem aus Hardware, Software und Netzwerk setzt.