Microsoft hat kürzlich (am 26. Januar 2026) seinen zweiten Generation AI-Chip vorgestellt: den Maia 200. Das ist ein hauseigener AI-Accelerator (ASIC), der speziell für Inference (also das Ausführen/Antworten von trainierten Modellen wie Copilot, GPT-Modelle usw.) optimiert ist – nicht primär für Training.Wichtige Details zum Maia 200Zweck: Er soll Microsofts Abhängigkeit von Nvidia-GPUs reduzieren, Kosten senken und Effizienz steigern. Microsoft behauptet, er liefere 30 % bessere Performance pro Dollar als die aktuell eingesetzte Hardware und sei in manchen Metriken (z. B. FP4-Performance) deutlich stärker als vergleichbare Custom-Chips von Google (TPU v7) oder Amazon (Trainium 3) – teilweise sogar 3× so leistungsfähig in bestimmten AI-Workloads.
Spezifikationen (bekannte Highlights):Gebaut bei TSMC auf 3-nm-Prozess.
144 Milliarden Transistoren.
216 GB HBM3E-Speicher (mit sehr hoher Bandbreite 7 TB/s).
Zusätzlich viel On-Chip-SRAM für schnellere Zugriffe bei großen Modellen.
Optimiert für niedrige Präzisionen (FP4, FP6, FP8) - sehr effizient bei modernen LLMs und Reasoning-Modellen.
Rollout: Er läuft bereits in Microsofts US-Central-Region (Iowa), kommt bald nach Phoenix (Arizona) und soll in der zweiten Hälfte 2026 richtig skalieren, mit breiterem Ausbau 2027.
Verwendung: Für Azure AI-Dienste, Copilot (Business), OpenAI-Modelle (inkl. GPT-5.2), interne Modell-Verbesserung usw. Es gibt auch ein Preview-SDK für Entwickler.
Verbindung zu Marvell:
Marvell (NASDAQ: MRVL) ist nicht der direkte Hersteller oder Designer des Maia-200-Kerns selbst (das scheint eher Microsoft intern + TSMC + evtl. Global Unichip zu sein). Aber Marvell spielt trotzdem eine wichtige Rolle im Ökosystem:Marvell liefert wahrscheinlich Ethernet-basierten Netzwerk- und Connectivity-Komponenten (z. B. spezialisierte ASICs, Switches, NICs oder SerDes für die Scale-up-Interconnects).
Microsofts Maia-200 nutzt ein Ethernet-basiertes Scale-up-Netzwerk mit eigenem AI Transport Layer (ATL) – genau das ist ein Bereich, in dem Marvell sehr stark ist (Custom Silicon für Hyperscaler wie Microsoft und AWS).
Analysten (z. B. BNP Paribas, Wells Fargo) sehen Marvell (neben Broadcom) als einen der großen Profiteure: Aktie stieg direkt nach der Ankündigung um 2 %, weil der Maia-200-Ramp-up Marvells Umsatz in Datacenter/AI-Networking ankurbeln dürfte.
Es gibt schon länger Gerüchte/Spekulationen, dass Marvell Microsoft bei der Maia-Serie hilft (schon bei Maia 100 als "Chip-Shepherd" für Packaging, I/O usw.), und das setzt sich bei Maia 200 fort – allerdings nicht als Haupt-Chip-Designer.
Kurz gesagt: Der Start/Skalierungsbeginn des Maia 200 ist gerade jetzt (Januar 2026) in Microsofts Datacentern angelaufen, und Marvell profitiert indirekt (stark) davon durch die Networking- und Connectivity-Komponenten.