Der KI-Ausbau der großen Cloud-Anbieter ist weniger ein gewöhnliches IT-Projekt als eine Wette mit Bedingungen. Solange Rechenleistung für künstliche Intelligenz knapp ist, können die Hyperscaler — also die globalen Cloud-Plattformen mit riesigen Rechenzentren — gute Gründe haben, Kapazitäten vorzubauen. Doch am Ende entscheidet nicht die Modell-Demo, sondern die Unternehmensrechnung: Werden aus Tests und Pilotprojekten produktive Anwendungen, die regelmäßig Cloud-Kapazität verbrauchen und messbare Rendite liefern?
Aus Milliardenplänen wird eine Bilanzfrage
Wie groß die Investitionswelle genau ist, hängt davon ab, welche Unternehmen und Ausgabenkategorien eingerechnet werden. Klar ist aber: Es geht um eine Größenordnung, die selbst für Big Tech außergewöhnlich ist.
Die Futurum Group schreibt, Microsoft, Alphabet, Amazon, Meta und Oracle hätten für 2026 zusammen Investitionen — im Englischen meist Capex für „capital expenditure“ — von 660 bis 690 Milliarden US-Dollar zugesagt, fast doppelt so viel wie 2025 [2]. Campaign US berichtet, Meta, Microsoft, Alphabet und Amazon steuerten 2026 auf mehr als 650 Milliarden US-Dollar an KI-Investitionen zu, vor allem für moderne Rechenzentren, spezialisierte Chips und Flüssigkühlung [
5]. Business Insider meldete nach Updates aus den Quartalszahlen zudem, Amazon, Microsoft, Meta und Google planten für 2026 bis zu 725 Milliarden US-Dollar an Investitionen [
8].
Damit verschiebt sich die Debatte. Es geht nicht mehr darum, ob KI strategisch wichtig ist. Die wichtigere Frage lautet: Wird die Infrastruktur stark genug genutzt und zu Preisen verkauft, die diese Ausgaben rechtfertigen?
Warum die Cloud-Giganten trotzdem vorbauen
Für die großen Plattformen ist Nichtstun ebenfalls riskant. Wenn KI-Workloads schneller wachsen als verfügbare Rechenkapazität, kann der Anbieter gewinnen, der fertige Rechenzentren, Chips, Netzwerke, Stromversorgung und Kühlung bereits bereitstellt. Wer erst dann baut, wenn die Nachfrage eindeutig bewiesen ist, könnte zu spät kommen.
Deshalb kann der aktuelle Ausbau rational sein, obwohl der Return on Investment — also die Kapitalrendite — bei vielen Unternehmenskunden noch nicht eindeutig belegt ist. AInvest beschreibt die Rechenzentrums-Expansion 2026 als Ausbau in einem Umfeld knapper Kapazitäten und schreibt, dass KI-Infrastrukturinvestitionen der Wertschöpfung durch Software vorauslaufen [7]. Anders gesagt: Big Tech versucht, einen knappen Produktionsfaktor zu kontrollieren, bevor der Endmarkt vollständig ausgereift ist.
Das ist allerdings kein Freifahrtschein. Früh zu bauen senkt das Risiko, Nachfrage zu verpassen. Gleichzeitig steigt das Risiko, dass Kapazität fertig wird, bevor genügend Kunden bereit sind, sie dauerhaft und in großem Umfang zu bezahlen.
Der wunde Punkt: Nutzung ist noch nicht ROI
Viele Unternehmen nutzen KI, aber Nutzung allein ist noch kein finanzieller Erfolg. McKinseys Global Survey 2025 zeigt, dass fast zwei Drittel der Befragten sagen, ihre Organisationen hätten noch nicht begonnen, KI unternehmensweit zu skalieren; 64 Prozent berichten, KI ermögliche Innovation, aber nur 39 Prozent sehen einen EBIT-Effekt auf Unternehmensebene, also beim Ergebnis vor Zinsen und Steuern [27]. McKinsey stellt zugleich fest, dass Unternehmen beginnen, Arbeitsabläufe neu zu gestalten und Führungskräfte stärker in KI-Governance-Rollen einzubinden, um messbaren Ergebnisbeitrag zu erzielen [
22].
Noch skeptischer klingt die Berichterstattung über den „GenAI Divide“ des MIT. Digital Commerce 360 berichtete, dass trotz geschätzter 30 bis 40 Milliarden US-Dollar an Unternehmensausgaben für generative KI 95 Prozent der Organisationen noch keinen messbaren finanziellen Ertrag gesehen hätten; nur 5 Prozent integrierter Pilotprojekte schöpften demnach Werte in Millionenhöhe ab [24].
Das ist kein Beweis, dass Enterprise-KI nicht funktioniert. Es ist aber ein Warnsignal. Die Daten deuten auf eine Kluft hin zwischen integrierten, skalierten Anwendungen und Pilotprojekten, die nie wirklich in der Gewinn- und Verlustrechnung ankommen.
Vier Prüfsteine für die 690-Milliarden-Dollar-Wette
1. Auslastung
Der zentrale Test ist simpel: Bleiben KI-Rechenzentren und Spezialchips dauerhaft stark ausgelastet? Hohe Auslastung macht aus einem teuren Fixkostenblock verkaufbare Kapazität. Schwache Auslastung legt dagegen Überkapazitäten offen und erschwert es den Anbietern, Abschreibungen, Stromkosten und laufenden Ausbau zu tragen.
2. Preissetzungsmacht
KI-Rechenleistung muss Preise erzielen, die attraktive Renditen ermöglichen. Wenn Cloud-Anbieter sich gegenseitig die Preise drücken, bevor Unternehmen ihre Nutzung wirklich hochfahren, kann der Umsatz zwar wachsen — aber trotzdem hinter der Investitionslast zurückbleiben.
3. Finanzielle Wirkung auf Unternehmensebene
Einzelne Anwendungsfälle, Demos und Produktivitätsversprechen reichen nicht. Entscheidend ist der finanzielle Effekt auf Unternehmensebene. Genau dort zeigt McKinsey noch eine Lücke zwischen Innovationsnutzen und EBIT-Wirkung [27]. Je stärker Unternehmen Arbeitsabläufe neu entwerfen, statt KI nur auf alte Prozesse aufzusetzen, desto überzeugender wird die These einer dauerhaften Nachfrage nach KI-Cloudkapazität [
22].
4. Geduld der Investoren
Der Kapitalmarkt unterscheidet bereits zwischen verschiedenen KI-Ausgabenstorys. Fortune berichtete, dass Meta nach der Ankündigung höherer KI-Ausgaben nachbörslich um mehr als 6 Prozent fiel, Microsoft nahezu unverändert blieb und Alphabet fast 7 Prozent zulegte [1]. Diese unterschiedliche Reaktion zeigt: Anlegerinnen und Anleger wollen nicht nur größere KI-Budgets sehen, sondern einen glaubwürdigen Weg von Capex zu Rendite.
Wer trägt das größte Risiko?
Am robustesten ist Kapazität, die viele zahlende Workloads bedienen kann. Eine breite Cloud-Plattform hat mehr Möglichkeiten, KI-Infrastruktur zu monetarisieren — über Cloud-Dienste, Unternehmenssoftware, interne Produkte und KI-Services — als ein Ausbau, der stark von einer engen oder noch unbewiesenen Nachfragebasis abhängt.
Futurum verweist auf genau dieses Spannungsfeld: Spezialisierte KI-Anbieter wie OpenAI und Anthropic wachsen zwar schnell, ihre gemeinsamen Umsätze bleiben aber nur ein Bruchteil der Infrastrukturinvestitionen, die für diese Nachfrage aufgebaut werden [2]. Das heißt nicht, dass die Investitionen zwangsläufig scheitern. Es heißt aber, dass die Sicherheitsmarge davon abhängt, ob Unternehmenskunden KI von isolierten Experimenten in dauerhafte, produktive Nutzung überführen.
Fazit
Big Techs KI-Infrastrukturboom ist derzeit tragfähig — aber nur unter Bedingungen. Solange KI-Rechenleistung knapp ist, haben die größten Cloud-Anbieter strategische Gründe, früh zu bauen [7]. Doch Capex-Schätzungen im Bereich von mehr als 650 Milliarden US-Dollar werden am Ende an Auslastung, Preisen und Unternehmens-ROI gemessen, nicht an Modellhype allein [
2][
5][
24][
27].
Wenn Firmen KI in wiederkehrende Produktions-Workloads mit messbarem Ergebnisbeitrag verwandeln, sieht der Ausbau wie der nächste langfristige Plattformwechsel im Cloudgeschäft aus. Wenn die meisten Organisationen dagegen vor der unternehmensweiten Skalierung stecken bleiben, wirkt dieselbe Ausgabenwelle zunehmend wie ein teurer Überbau.




