Jensen Huangs AI-Alarm: Denken kostet jetzt richtig viel Strom

Jensen Huangs AI-Alarm: Denken kostet jetzt richtig viel Strom
Credit: CNBC

Jensen Huang lässt im Interview mit dem US-Wirtschaftssender CNBC eine Bombe platzen: AI kriegt richtig Hunger. Laut Nvidia-Chef brauchen künftige AI-Modelle 100-mal mehr Rechenpower als ihre Vorgänger. Warum? Weil sie lernen, Schritt für Schritt zu denken – genau wie es der Mathelehrer in der Schule immer wollte.

Huang verkündet das, während Nvidia erneut Traumzahlen präsentiert: Umsatzsprung von 78 Prozent auf 39,33 Milliarden Dollar. Das Rechenzentrumsgeschäft macht inzwischen über 90 Prozent des Gesamtumsatzes aus. Wäre AI ein Restaurant, wäre Nvidia Koch und Vermieter zugleich.

Star der Show: der neue GB200-Chip. Der verarbeitet AI-Inhalte 60-mal schneller als jene Versionen, die Nvidia unter Exportbeschränkungen nach China verkaufen darf. Das ist, als würde man einen Rennwagen mit einem Fahrrad vergleichen – nur kosten beide mehr als ein Einfamilienhaus.

Apropos China: Das Verhältnis zwischen Nvidia und der zweitgrößten Volkswirtschaft der Welt ist kompliziert geworden. Die Exportbeschränkungen der Biden-Regierung haben Nvidias China-Geschäft halbiert. Doch Huang bleibt gelassen. Langfristig würden Softwareentwickler die Beschränkungen umgehen, ähnlich wie Wasser, das seinen Weg bergab findet.

Interessant ist das Timing von Huangs Kommentaren. DeepSeek hatte zuvor Ängste geschürt, Unternehmen könnten AI-Modelle effizienter mit weniger Nvidia-Chips trainieren – eine Bedrohung für Nvidias Übermacht. Diese Sorge kostete die Aktie am 27. Januar ganze 17 Prozent, der stärkste Verlust seit 2020.

Doch Huang verwandelt diese scheinbare Bedrohung in eine Chance. Er lobt DeepSeek dafür, ein „weltklasse“ Reasoning-Modell als Open Source bereitzustellen. Der Clou: Gerade diese Reasoning-Modelle benötigen so viel zusätzliche Rechenpower. Als hätte DeepSeek einen neuen Spritfresser-Motor erfunden, während es eigentlich für Sparsamkeit werben wollte.

DeepSeek ist dabei nicht allein. Auch GPT-4 von OpenAI und Grok 3 von xAI denken zunehmend schrittweise über Probleme nach. Diese AIs erkennen nicht mehr nur Muster. Sie überlegen aktiv, wie sie eine Antwort am besten geben – fast schon menschlich.

Das ist eine fundamentale Veränderung. Ältere AI-Modelle ähnelten Inselbegabten: Sie erkannten Muster blitzschnell, konnten aber ihr Denken nicht erklären. Neuere Modelle gleichen methodischen Problemlösern, die ihre Lösungswege transparent machen. Nachteil? Der enorme Rechenhunger dieser durchdachten Prozesse.

Für Nvidias Großkunden bedeutet das eine schmerzliche Erkenntnis: Sie investieren bereits Milliarden jährlich in AI-Infrastruktur. Wenn kommende Modelle tatsächlich 100-mal mehr Leistung verlangen, könnten in den Vorstandsetagen bald die Tränen fließen.

Für Nvidia selbst sind das gute Nachrichten. Die Umsätze haben sich fünf Quartale in Folge verdoppelt – zuletzt nur leicht gebremst. Wer mehr AI-Power braucht, landet fast zwangsläufig bei Nvidia.

Die China-Frage bleibt kompliziert. Zwar belasten Exportbeschränkungen das Geschäft, aber Huangs Zuversicht, dass „Software immer einen Weg findet“, klingt nach klassischem Silicon-Valley-Optimismus: technische Lösungen für politische Probleme.

Warum das wichtig ist:

  • Im AI-Wettrennen beginnt eine neue Phase. Rohe Rechenleistung entscheidet – und der Eintrittspreis steigt gerade um zwei Größenordnungen.
  • Alle sprechen darüber, was AI leisten kann. Die eigentliche Story aber ist, wie viel Strom und Silizium sie dafür fressen wird.

Read on, my dear: