Nvidia-CEO Jensen Huang hat am 23. März 2026 im Lex Fridman Podcast erklärt: „I think we've achieved AGI." Sekunden später relativierte er die Aussage. Was wie eine Randnotiz wirkt, ist ein kalkuliertes Signal: Der Chef des weltgrößten KI-Chip-Herstellers definiert den Begriff Artificial General Intelligence (AGI) so eng, dass Nvidia bereits heute als Gewinner gelten kann – und so weit, dass niemand widersprechen muss. Beides gleichzeitig.
- Jensen Huang definiert AGI neu, um sie eng an die aktuellen Fähigkeiten von KI-Systemen anzupassen.
- Diese Neudefinition ist eine Marketingstrategie, um Nvidias Position zu stärken und Investitionen in Hardware zu legitimieren.
- Huangs Ansatz birgt regulatorische Risiken unter dem EU AI Act, da er Fragen zur Risikoklassifizierung aufwirft.
Der Kontext ist entscheidend. Podcast-Host Lex Fridman hatte AGI kurz zuvor definiert als die Fähigkeit eines KI-Systems, „im Grunde deinen Job zu machen" – konkret: ein Technologie-Unternehmen mit einer Milliarde Dollar Bewertung aufzubauen und zu führen. Auf Basis dieser operativen Miniatur-Definition antwortete Huang mit „It's now." Das ist kein wissenschaftlicher Befund. Es ist ein Rhetorik-Move, der exakt in die Marktposition von Nvidia passt, deren Marktkapitalisierung 2024 auf über drei Billionen US-Dollar anstieg und deren Anteil am High-End-KI-Chip-Markt auf rund 80 Prozent geschätzt wird.
Was Huang unter AGI versteht – und was nicht
Huangs Kernthese seit mindestens 2024 lautet: AGI ist kein fester Meilenstein, sondern eine Funktion der Definition. In einem früheren Interview prognostizierte er, KI werde in etwa fünf Jahren jeden erdenklichen Test bestehen können – vom Bar-Exam bis zur medizinischen Fachprüfung in Gastroenterologie. Das klingt ehrgeizig. Es ist aber eine bewusst testbasierte, nicht kognitionswissenschaftliche Rahmung.
Was Huang beschreibt, ist operative Intelligenz: skalierbar, einbettbar, multimodal und reproduzierbar über Inferenz-Hardware. Aktuelle KI-Systeme bestehen Benchmarks und produzieren Outputs auf Expertenniveau in Domänen, in denen sie trainiert wurden. Das ist nicht dasselbe wie die Generalität, die Kognitionswissenschaftler unter AGI verstehen: Selbstlernen, kausales Verstehen und robuste Leistung bei genuinen Aufgaben jenseits der Trainingsdaten.
Wie OpenAI und die Wissenschaft AGI definieren
OpenAI hat AGI öffentlich als „Systeme, die auf PhD-Niveau in allen Domänen Mehrwert für die Welt schaffen" beschrieben und arbeitet intern mit einem Stufenmodell: von Level 1 (Chatbots) über Level 2 (Reasoners/Problemlöser auf menschlichem Niveau) bis Level 5 (KI-Systeme, die ganze Organisationen ersetzen). Der Begriff AGI hat bei OpenAI zudem juristische Relevanz: Er ist in einem zentralen Vertrag mit Microsoft als Schwelle definiert, ab der bestimmte Lizenz- und Kapitalvereinbarungen neu verhandelt werden müssen. Dort hängen Milliardensummen an einer Definition.
Die wissenschaftliche Gemeinschaft ist weniger pragmatisch. Forscher aus Kognitionswissenschaft und KI-Theorie betonen Eigenschaften wie Transferlernen über nicht verwandte Domänen, Kausalverständnis, Umgang mit Neuheit und die Fähigkeit zu Metakognition. Keine dieser Eigenschaften ist durch Benchmark-Ergebnisse oder Chip-Skalierung direkt messbar. Huangs Definition lässt all das aus.
Das Marktkalkül hinter der Aussage
Nvidia verdient nicht daran, dass AGI irgendwann kommt. Nvidia verdient daran, dass der Weg dorthin maximal viel Rechenleistung verbraucht. Wer AGI früh als erreicht erklärt, senkt die psychologische Schwelle und legitimiert gleichzeitig die laufenden Infrastrukturinvestitionen seiner Kunden. Rechenzentren, Cloud-Anbieter, Labore – sie alle investieren weiter in Nvidia-Hardware, weil der AGI-Moment nicht als ferner Horizont, sondern als laufender Prozess gilt.
Huang selbst deutete im selben Podcast-Gespräch an, dass er sich vorstellen kann, KI-Agenten könnten spontan virale Produkte oder digitale Influencer erschaffen – um dann sofort einzuräumen, dass viele solcher Anwendungen nach wenigen Monaten wieder verschwinden. Das ist kein Widerspruch. Es ist ein Muster: große Aussage, schnelle Relativierung, Kurve halten. Diese Kommunikationsstrategie schützt Huang davor, an einer konkreten Prognose festgenagelt zu werden, während er den Hype intakt hält.
EU AI Act: Was dieser Definitionsstreit regulatorisch bedeutet
Für Unternehmen im DACH-Raum ist Huangs Begriffspolitik nicht nur akademisch interessant. Seit August 2025 sind unter dem EU AI Act die GPAI-Regeln (General Purpose AI) in Kraft, die Governance-Anforderungen und Strafen für Anbieter von Allzweck-KI-Modellen festlegen. Wenn ein Hersteller öffentlich erklärt, seine Technologie habe AGI-Niveau erreicht, entstehen Fragen zur Risikoklassifizierung und zur Haftung. Ab August 2026 tritt der Hauptteil des AI Act in Kraft, der Hochrisiko-KI-Systeme direkt reguliert. Strafen bei Verstößen gegen die Verbotskategorien können bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes betragen.
Entscheider in Europa sollten deshalb nicht nur die Aussage selbst bewerten, sondern die Frage stellen: Wenn ein Zulieferer AGI als Produktmerkmal bewirbt, welche Compliance-Pflichten entstehen daraus beim Einsatz dieser Systeme in eigenen Produkten? Die Antwort hängt – wie Huangs AGI – stark von der Definition ab.
So What? Die strategische Lesart für Entscheider
Huangs AGI-Statement ist keine wissenschaftliche Einschätzung. Es ist eine Marktpositionierung. Die eigentliche Nachricht ist nicht, ob AGI erreicht ist, sondern dass einer der mächtigsten Akteure im KI-Sektor aktiv daran arbeitet, den Begriff so zu gestalten, dass er zum eigenen Geschäftsmodell passt. Das ist legitim – aber man muss es als das lesen, was es ist.
Für Unternehmen, die KI-Strategie und Infrastrukturentscheidungen treffen, bedeutet das: Verlasst euch bei der Lagebeurteilung nicht auf Begriffe, die von Chip-Herstellern definiert werden, deren Revenue direkt vom Ausmaß der KI-Investitionen abhängt. Bewertet konkrete Fähigkeiten anhand eurer eigenen Use Cases – nicht anhand eines Begriffs, der je nach Kontext fünf verschiedene Dinge bedeuten kann.
Fazit: Definitions-Arbitrage als Geschäftsstrategie
Jensen Huang hat AGI nicht erreicht. Er hat den Begriff so neu justiert, dass Nvidia darin bereits als Sieger dasteht. Das ist handwerklich klug. Wissenschaftlich ist es unhaltbar, und regulatorisch könnte es langfristig Konsequenzen haben, die Huang heute noch nicht einpreist. Entscheider tun gut daran, den Unterschied zwischen operativer KI-Leistung und dem, was Forscher unter echter Generalintelligenz verstehen, sauber zu trennen – und sich nicht von einem Podcast-Statement unter Zugzwang setzen zu lassen. Die nächste GPU-Generation kommt ohnehin. Mit oder ohne AGI-Label.
❓ Häufig gestellte Fragen
📚 Quellen
- The Verge: Nvidia CEO Jensen Huang says 'I think we've achieved AGI'
- Lex Fridman Podcast #494: Jensen Huang – NVIDIA, The $4 Trillion Company & the AI Revolution
- The Verge (Kontext): AI companies rebrand AGI
- The Verge (OpenAI/Microsoft): OpenAI, Microsoft and the AGI clause