CoreWeave gewinnt das Rennen um die Inferenz-Cloud, das Giganten ignorierten

CoreWeave gewinnt das Rennen um die Inferenz-Cloud, das Giganten ignorierten

Während AWS, Azure und Google sich auf das Training von Modellen konzentrieren, hat CoreWeave leise das Geschäft aufgebaut, das niemand wollte: die Produktion, in der Modelle reales Geld generieren.

Clara MontesClara Montes11. April 20267 Min
Teilen

CoreWeave gewinnt das Rennen um die Inferenz-Cloud, das Giganten ignorierten

Am 10. April 2026 kündigte CoreWeave einen mehrjährigen Vertrag mit Anthropic an, um Nvidia-GPU-Kapazitäten in US-Rechenzentren bereitzustellen, die speziell für Produktionslasten bestimmt sind, die die Claude-Modelle antreiben. Die finanziellen Bedingungen wurden nicht offengelegt, aber die Marktreaktion war deutlich: Die Aktien von CoreWeave stiegen am gleichen Tag um mehr als 10%.

Das war jedoch nicht das Überraschendste des Tages. Die auffälligste Nachricht war, dass diese Ankündigung nur 24 Stunden nach der Bestätigung von Meta kam, die ihr Engagement mit CoreWeave um zusätzliche 21 Milliarden Dollar erweiterte, womit der Gesamtwert dieser Partnerschaft auf etwa 35 Milliarden Dollar anstieg. Zwei der zehn größten Entwickler von KI-Modellen der Welt setzen, nur einen Tag voneinander entfernt, auf dieselbe Infrastruktur. Für ein Unternehmen, das 2025 einen Umsatz von 5,13 Milliarden Dollar mit einem jährlichen Wachstum von 168% erzielte, ist das nicht nur eine Traktionssteigerung: Es ist ein Zeichen dafür, dass CoreWeave etwas geschaffen hat, was die Hyperscaler nicht wussten oder nicht wollten zu bauen.

Die Nische, die Amazon, Microsoft und Google freigelassen haben

Es gibt eine technische Unterscheidung, die jahrelang in den Strategieräumen der großen Cloud-Anbieter übersehen wurde: Das Training eines KI-Modells ist ein massives, relativ latenztolerantes Rechenproblem; die Durchführung in der Produktion auf Unternehmensebene ist ein ganz anderes Problem. Die Inferenz, der Prozess, durch den ein Modell wie Claude gleichzeitig auf Millionen von Nutzern reagiert, erfordert geringe Latenz, hohe Verfügbarkeit und eine spezifisch optimierte Hardwarearchitektur für dieses Nutzungsmuster.

AWS, Azure und Google Cloud haben ihre GPU-Angebote hauptsächlich um das Training herum aufgebaut, bei dem große Kunden langfristige Verträge unterzeichnen und Rechenleistung vorhersehbar nutzen. Dieser Markt hat akzeptable Margen und eine bekannte Geschäftsdynamik. Die Inferenz in der Produktion hingegen ist unberechenbarer, anspruchsvoller in der Konfiguration und benötigt eine operationale Spezialisierung, die die Hyperscaler als sekundären Anwendungsfall behandelten. CoreWeave hat sich genau in dieser Lücke positioniert.

Heute betreibt das Unternehmen 32 Rechenzentren mit über 250.000 GPUs und einer vertraglich vereinbarten elektrischen Leistung von 1,3 Gigawatt. Zu seinem Kundenportfolio gehören neun der zehn größten Entwickler von KI-Modellen der Welt: Microsoft, Meta, OpenAI, Mistral, Cohere, IBM und Nvidia, unter anderen. Die Gesamtheit dieser Verträge ergibt eine ausstehende Auftragslage von 66 Milliarden Dollar und eine Umsatzprognose für 2026 von über 12 Milliarden Dollar. Das sind keine Zahlen eines Unternehmens, das eine marginale Nische gefunden hat: Das sind die Zahlen eines Unternehmens, das eine Kategorie definiert hat.

Warum Anthropic sich entschied, aus den traditionellen Clouds auszusteigen

Die Entscheidung von Anthropic, mit CoreWeave zu unterschreiben, sagt etwas Spezifisches darüber aus, wie reife Modellentwickler ihre Beziehung zur Infrastruktur neu überdenken. Anthropic hatte bereits 100 Millionen Dollar investiert, um sein Netzwerk von Partnern um Claude herum aufzubauen. Das bedeutet, dass das Modell konsistent, mit niedriger Latenz und skalierbar funktionieren muss, für Unternehmenskunden, die keine Leistungseinbußen tolerieren.

Die großen Clouds bieten diese Rechenleistung an, aber innerhalb von Plattformen, die darauf ausgelegt sind, horizontal zu sein, wo der KI-Kunde mit dem Kunden relationaler Datenbanken, dem Streaming-Kunden und dem Kunden von Lohnverarbeitung um Ressourcen konkurriert. CoreWeave bietet Infrastruktur, die ausschließlich für KI-Workloads ausgelegt ist. Diese Spezifität ist kein Marketingargument: Sie übersetzt sich in Leistungsmetriken, die entscheidend sind, wenn ein Modell gleichzeitig auf 100.000 Anfragen in einer Unternehmensanwendung reagieren muss.

Die Vereinbarung mit CoreWeave ermöglicht es Anthropic auch, die Rechenleistung schrittweise zu implementieren, mit Erweiterungsoptionen, die Flexibilität bieten, ohne die Grundkapazität zu gefährden, die sie für ihre aktuellen Kunden benötigt. In einem Markt, in dem der Mangel an Nvidia-GPUs strukturell ist, verringert die Sicherstellung dieses Zugangs über einen spezialisierten Anbieter ein konkretes operationelles Risiko.

Der Sprecher von CoreWeave formulierte es präzise, was für eine Unternehmensmitteilung ungewöhnlich ist: "KI dreht sich nicht mehr nur um Infrastruktur, sondern um Plattformen, die Modelle in echten Einfluss verwandeln." Dieser Satz beschreibt genau die Arbeit, die Anthropic benötigte: nicht generische GPUs, sondern die Möglichkeit, Claude unter Produktionsbedingungen arbeiten zu lassen, ohne dass die Leistung zusammenbricht.

Das strukturelle Risiko, das zwei Vereinbarungen nicht lösen

Der Erfolg von CoreWeave hat einen Riss, den Investoren seit ihrem Börsengang identifiziert haben und den der Markt weiterhin genau beobachtet: Microsoft machte 2025 etwa 67% seiner Einnahmen aus. Diese Konzentration auf einen einzigen Kunden macht jede Änderung in der Geschäftsbeziehung mit Microsoft zu einem systemischen Risiko für das Unternehmen.

Die Vereinbarungen mit Meta und Anthropic in 48 Stunden sind der direkteste Beweis dafür, dass CoreWeave eine bewusste Diversifizierungsstrategie umsetzt. Doch die Arbeit ist noch lange nicht abgeschlossen. Wenn Meta jetzt einen signifikanten Anteil an der mehrjährigen Auftragslage ausmacht, wird CoreWeave die Konzentration auf einen Kunden durch die Konzentration auf zwei ersetzen. Das Risiko verringert sich, verschwindet jedoch nicht.

Es gibt zudem einen Ausführungsfaktor, den die prognostizierten Zahlen nicht erfassen: 32 Rechenzentren zu betreiben, neue Kapazitäten zu integrieren, um 66 Milliarden Dollar an vertraglichen Verpflichtungen zu erfüllen, und dies, während die Energie- und Baukosten weiterhin volatil sind, erfordert eine operationale Präzision, die nur wenige Unternehmen dieser Größe und Wachstumsrate nachhaltig nachgewiesen haben. Die Prognose von mehr als 12 Milliarden Dollar für 2026 impliziert mehr als eine Verdopplung der Einnahmen in einem einzigen Jahr. Das ist angesichts des bestehenden Auftragsbestands nicht unmöglich, aber es erfordert, dass die Hardware-Beschaffungskette, Energieverträge und der Bau von Infrastruktur ohne signifikante Reibungsverluste funktionieren.

Das Geschäftsmodell von CoreWeave wandelt variable Rechenkosten in langfristige feste Verpflichtungen für seine Kunden um, was ihre zukünftigen Einnahmen schützt, aber den Druck auf die interne Ausführung überträgt. Wenn sich ein Rechenzentrum verzögert oder der Kauf von GPUs aufgrund von Angebotsbeschränkungen bei Nvidia verspätet, wird die Auswirkung nicht vom Kunden absorbiert: Sie wird von CoreWeave absorbiert.

Die beschäftigte Arbeit hinter dem Vertrag

Die Entwicklung von CoreWeave von Ethereum-Mining zu einem Anbieter von Rechenleistungen für neun der zehn größten KI-Entwickler der Welt ist relevant, nicht weil es eine Geschichte über unternehmerische Resilienz ist, sondern weil sie veranschaulicht, wie ein Unternehmen seinen Zweck rund um ein spezifisches Problem des Kunden, das niemand sonst gut löste, neu definieren kann.

Der Vertrag mit Anthropic bestätigt nicht, dass CoreWeave gute Technologie hat. Er bestätigt, dass das Unternehmen die konkrete Arbeit identifiziert hat, die Anthropic, Meta, OpenAI und andere benötigten: nicht generische Rechenleistung, sondern Inferenzinfrastruktur, die die Modelle zuverlässig funktionieren lässt, wenn die Benutzer sie verwenden, und nicht, wenn die Ingenieure sie testen. Diese scheinbar technische Unterscheidung ist in Wirklichkeit der Unterschied zwischen einem Anbieter von Rohstoffen und einem Unternehmen mit Preissetzungsmacht in einem Markt, in dem die Nachfrage strukturell das Angebot übersteigt.

Der Erfolg dieses Modells zeigt, dass die Arbeit, die große Entwickler von KI beauftragten, niemals der Zugang zu GPUs war: Es war die Garantie, dass ihre Modelle in der Produktion ohne dass die Infrastruktur zu einem Flaschenhals für das Geschäft wurde, performen würden.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren