- Michael Burry kritisiert Nvidias Stromverbrauchsplan.
- China baut seine Übertragungskapazitäten schneller aus.
- Broadcom profitiert stark vom ASIC-Boom im Markt.
- KI-Boom schwächelt - 5 defensive Top-Picks für 2026! (hier klicken)
Wenn sich Michael Burry einmal festgebissen hat, dann gibt er wohl nicht so schnell auf. Aus dem "Big Short" Investor scheint immer mehr ein Rottweiler zu werden, der nicht von Nvidia ablassen kann. Vielleicht angelt er sich damit bald einen neuen Spitznamen: Michael "Rottweiler" Burry. Dabei haben es seine neuesten Vorwürfe mal wieder in sich:
"Nvidias Entwicklungsplan ist im Wesentlichen ein Stromverbrauchsplan. Innovation bedeutet hier nur, wie man größere, heißere Chips mit Strom versorgt und kühlt. Der Energiebedarf steigt ständig, weil Effizienzgewinne nicht mit dem Bedarf an Rechenleistung Schritt halten können."
Die Schlussfolgerung, die Michael Burry aus dieser Entwicklung zieht, ist, dass die USA das KI Wettrennen gegen China am Ende verlieren werden: "Während sich der Ausbau des US-Übertragungsnetzes aufgrund von Genehmigungsproblemen verlangsamt, baut China Übertragungskapazitäten nach Belieben aus, um sie an den Energieausstoß anzupassen. Faktisch investieren US-Unternehmen in ein KI-Wettrüsten, das sie aufgrund struktureller Nachteile nur verlieren können."
Aber der "Rottweiler" Burry hat sich nicht nur festgebissen, er hat auch Lösungsvorschläge: "Die USA müssen sich daher von immer größeren, stromhungrigen Chips lösen und massiv in KI-optimierte ASICs investieren."
Werbung
| Strategie | Hebel | |||
| Steigender Kurs |
Call
|
5
|
10
| |
| Fallender Kurs |
Put
|
5
|
10
|
15
|
ASICs (Application-Specific Integrated Circuits) sind maßgeschneiderte Mikrochips, die im Gegensatz zu den vielseitigen GPUs von Nvidia (Nvidia Aktie) nur für eine einzige, spezifische Aufgabe (wie das Training oder die Inferenz von KI-Modellen) entwickelt wurden. Durch den Verzicht auf unnötige Schaltungen erreichen sie eine deutlich höhere Energieeffizienz – oft verbrauchen sie bei gleicher Rechenleistung nur ein Drittel des Stroms einer GPU.
Allerdings bezweifelt Burry das die Konzerne in den USA diesen Weg einschlagen werden. Dafür macht er Konzern von Jensen Huang verantwortlich: "Nvidia hält die Entwicklung jedoch durch Investitionen und Verträge mit wichtigen US-KI-Firmen und Startups im Würgegriff. Die Kartellrechtsabteilung des Justizministeriums ermittelt zwar, doch Trump wird dies wahrscheinlich stoppen."
Deswegen hofft Burry dass der Markt erkennt, dass er auf dem Holzweg ist und "aufhört, dieses System weiter zu füttern." Das Michael Burry mit seinen Vorwürfen nicht so falsch liegt, zeigt die Entwicklung bei einigen großen Playern in der Branche. Konzerne wie Google (TPUs), Amazon (Trainium/Inferentia) und Meta (MTIA) nutzen ASICs bereits massiv, um ihre Betriebskosten zu senken und die Abhängigkeit von Nvidias Hardware-Monopol zu verringern.
Das diese Entwicklung Jensen Huang ein Dorn im Auge ist, wurde ziemlich schnell klar nachdem die Alphabet-Tochter Google, ihre KI-fähige Tensor Processing Unit (TPU) vorstellte und Spekulationen aufkamen, diese auch künftig externen Kunden anzubieten. Der Spezialchip soll dabei in Konkurrenz zur Blackwell-Plattform von Nvidia treten. Nvidias CEO Jensen Huang sah sich daraufhin genötigt einzugreifen und erklärte, dass die eigenen Grafikprozessoren den KI-Chips von Google (Alphabet A Aktie) technologisch um eine Generation voraus seien. Souveränität sieht in diesem Fall anders aus.
Die Reaktion von Jensen Huang zeigt, dass er nicht mehr so gelassen ist, wie in der Vergangenheit, als Anleger Nvidia noch als unangefochtene Nummer 1 bei KI-Chips feierten. Mittlerweile hat die Dominanz von Nvidia Risse bekommen und auch AMD und Intel sitzen dem Nvidia Chef im Nacken. Aber zumindest an Intel ist Nvidia ja beteiligt und bekommt die Entwicklung hier rechtzeitig mit. Womit eine weitere Aussage von Michael Burry zumindest zum Teil richtig ist.
Anleger, die in Richtung Michael Burry tendieren treffen auf einen besonders spannend Markt, weil er einer der profitabelsten, aber auch selektivsten Bereiche der Halbleiterindustrie ist. Entscheidend sind Burggräben, Kundenbindung und Zugang zu modernster Fertigung.
Marktlogik für Anleger
ASICs sind maßgeschneidert, hochmargig und binden Kunden oft über viele Jahre. Wer einmal den Zuschlag bei einem Hyperscaler oder Netzbetreiber erhält, bleibt meist mehrere Chipgenerationen gesetzt. Gleichzeitig ist der Markt stark konzentriert, neue Wettbewerber haben es schwer einzutreten.
Die wichtigsten Player an der Börse:
Broadcom ist der mit Abstand wichtigste börsennotierte Profiteur des ASIC-Booms. Der Konzern liefert Netzwerk- und KI-ASICs an nahezu alle großen Hyperscaler. Die Kombination aus technischer Tiefe, extrem langen Kundenbeziehungen und sehr hohen Margen macht Broadcom zu einer Art "hidden AI winner". Für Investoren ist das ein defensiver Wachstumswert mit hoher Preissetzungsmacht.
Marvell ist der zweite große reine ASIC-Hebel. Das Unternehmen wächst stark im Bereich Custom-Chips für Rechenzentren, Cloud-Netzwerke und KI-Infrastruktur. Das Risiko ist höher als bei Broadcom, da Marvell stärker von einzelnen Großkunden abhängt – dafür ist das Wachstumspotenzial überdurchschnittlich.
Nvidia ist kein klassischer ASIC-Hersteller, profitiert aber indirekt stark. Immer mehr Kunden kombinieren GPUs mit kundenspezifischen ASICs. Nvidia verdient sowohl am Design-Know-how als auch an der Plattformdominanz. Für Anleger bleibt Nvidia der breiteste KI-Hebel, auch wenn ASICs langfristig einen Teil der GPU-Nachfrage ersetzen könnten.
AMD ist im Semi-Custom-Geschäft etabliert, etwa bei Konsolen, und baut seine Position bei Rechenzentrums-ASICs aus. Aus Investorensicht ist AMD ein optionaler ASIC-Hebel, allerdings ohne die Marktmacht von Broadcom oder Nvidia.
Die eigentlichen Könige: Foundries
TSMC ist der zentrale Profiteur jedes ASIC-Trends – egal, wer das Design liefert. Nahezu alle modernen ASICs werden dort gefertigt. Für Investoren ist TSMC der "Pick-and-Shovel"-Ansatz im ASIC- und KI-Boom: geringeres Einzelwertrisiko, strukturelles Wachstum, hohe Kapitalkosten als Eintrittsbarriere.
Die Chipfertigungssparte von Samsung Electronics ist technologisch relevant, aber kommerziell weniger erfolgreich. Für Investoren eher eine Option über den Gesamtkonzern Samsung Electronics, allerdings mit höherer Volatilität und geringerer Visibilität als bei TSMC.
Intel ist aus Anlegersicht ein Turnaround-Case. Gelingt es, als Foundry für westliche ASIC-Kunden Fuß zu fassen, wäre das ein strategischer Gamechanger. Das Risiko ist jedoch hoch, der Zeithorizont lang. Allerdings brodelt die Gerüchteküche gewaltig. Es wird gemunkelt, dass Apple (Apple Aktie) ab 2027 seine hauseigenen Chips bei Intel fertigen lässt, um Donald Trump weiter zu beschwichtigen.
Google, Amazon und Apple entwickeln eigene ASICs und reduzieren damit langfristig ihre Abhängigkeit von Nvidia. Davon profitieren indirekt Broadcom, Marvell und vor allem TSMC – nicht jedoch die klassischen GPU-Pure-Plays wie Nvidia. Und genau hier schlummert das Riskio für den einst unangefochtenen KI-König.
Fazit:
Mit seinen Anschuldigungen gegen Nvidia ist Michael Burry nichtkomplett auf dem Holzweg. Das Argument des Stromverbrauchs und die Reaktion von Meta, Google und Amazon zeigen, dass auch die großen Hyperscaler das Problem wohl auch sehen, sonst würden sie sich nicht die Mühe machen eigen ASICs zu entwickeln, sondern einfach nur weiter bei Nvidia bestellen.
Für Anleger bedeutet das: Wer gezielt auf ASICs setzen will, kommt an Broadcom und Marvell nicht vorbei. Wer das Risiko streuen will, wählt TSMC als Infrastruktur-Gewinner. Aber auch ein Konzern, der hier nicht so ganz reinpasst, könnte für Anleger sehr interessant sein: Celestica aus Kanada.
Der Konzern macht KI-Modelle indirekt, aber entscheidend schneller, indem das Unternehmen die Flaschenhälse in der Hardware-Infrastruktur beseitigt. Während Grafikprozessoren (GPUs) wie die von NVIDIA die eigentliche Rechenarbeit leisten, sorgt Celestica mit seinen Hochgeschwindigkeits-Switches (wie der DS6000-Serie mit bis zu 102,4 Tbps) dafür, dass Daten mit extrem geringer Latenz zwischen Tausenden von Prozessoren fließen können. Da das Training moderner Large Language Models (LLMs) eine massive Synchronisation zwischen den Rechenknoten erfordert, führt eine schnellere Vernetzung direkt zu einer höheren GPU-Auslastung und damit zu deutlich verkürzten Trainingszeiten.
Redaktion Ariva/MW
Hinweis: ARIVA.DE veröffentlicht in dieser Rubrik Analysen, Kolumnen und Nachrichten aus verschiedenen Quellen. Die ARIVA.DE AG ist nicht verantwortlich für Inhalte, die erkennbar von Dritten in den „News“-Bereich dieser Webseite eingestellt worden sind, und macht sich diese nicht zu Eigen. Diese Inhalte sind insbesondere durch eine entsprechende „von“-Kennzeichnung unterhalb der Artikelüberschrift und/oder durch den Link „Um den vollständigen Artikel zu lesen, klicken Sie bitte hier.“ erkennbar; verantwortlich für diese Inhalte ist allein der genannte Dritte.