
Teil II: Cloud oder On-Prem – was rechnet sich wirklich?
Wie sich IT-Kosten sinnvoll vergleichen lassen – und warum die TCO-Analyse 2025 unverzichtbar ist.
Cloud-Infrastrukturen gelten oft als flexibel, skalierbar – und wirtschaftlich attraktiv. Aber wie tragfähig ist diese Einschätzung im Jahr 2025 wirklich? Die steigenden Betriebskosten großer Cloud-Plattformen, wachsende Anforderungen an Planungssicherheit und der zunehmende Einsatz rechenintensiver Workloads führen dazu, dass viele Unternehmen ihre Entscheidungen neu bewerten.
Dieser Artikel untersucht, unter welchen Bedingungen On-Premise wirtschaftlich sinnvoll sein kann, welche Rolle FinOps dabei spielt – und warum sich die Kostenfrage nur im Kontext konkreter Nutzungsszenarien beantworten lässt.
Inhaltsverzeichnis
- Die richtige Frage stellen
- Was die Praxis zeigt: Kostenbewertung unter neuen Vorzeichen
- Was Cloud- und On-Prem-Kosten grundlegend unterscheidet
- Warum eine TCO-Analyse entscheidend ist
- Praxisszenario: GPU-Workload On-Prem vs. Cloud – ein Rechenbeispiel mit Signalwirkung
- Weitere Überlegungen: Technisch und strategisch
- Wann lohnt sich On-Premise?
- FinOps als Brücke zwischen Cloud und On-Premise
- Fazit: Wirtschaftlichkeit entsteht im Nutzungskontext
Die richtige Frage stellen
„Was ist günstiger: Cloud oder On-Prem?“
Diese Frage wird häufig gestellt, ist aber selten zielführend. Denn Infrastrukturkosten lassen sich nicht isoliert bewerten: Sie hängen ab von Nutzungsmustern, Auslastung, Integrationsanforderungen, regulatorischem Umfeld und verfügbaren Ressourcen.
Pauschale Antworten helfen unter diesen Bedingungen kaum weiter. Gleichzeitig steigt der Entscheidungsdruck: Betriebskosten nehmen zu, Anforderungen an Flexibilität wachsen, Budgets müssen planbar bleiben.
Deshalb lohnt es sich, die Frage differenzierter zu stellen:
- Unter welchen Bedingungen ist Cloud wirtschaftlich sinnvoll?
- Wann lohnt sich der Eigenbetrieb – technologisch und finanziell?
- Und wie lassen sich beide Modelle kombinieren, ohne Redundanzen oder Brüche zu erzeugen?
Die folgenden Abschnitte zeigen, warum sich eine differenzierte Betrachtung lohnt – und welche Kriterien dabei helfen können.
Was die Praxis zeigt: Kostenbewertung unter neuen Vorzeichen
In der Vergangenheit wurde der Einsatz von Cloud-Diensten häufig mit Kostenvorteilen verbunden – vor allem aufgrund ihrer Flexibilität und schnellen Skalierbarkeit. Inzwischen zeigt sich jedoch: Diese Annahme gilt nicht unter allen Bedingungen.
Viele Unternehmen stellen fest, dass Public-Cloud-Angebote zwar operative Vorteile bieten, aber nicht automatisch zu geringeren Gesamtkosten führen. Laut dem State of the Cloud Report von Flexera haben 84 % der Unternehmen Schwierigkeiten, ihre Cloud-Ausgaben verlässlich zu kontrollieren. Rund ein Drittel überschreitet das geplante Budget um mehr als 17 %. Gleichzeitig bleiben schätzungsweise 30 % der gebuchten Ressourcen ungenutzt – sogenannter Cloud-Waste.
Auch die Preisentwicklung trägt zur Neubewertung bei:
-
Microsoft hat im April 2025 die Preise für Azure- und Microsoft-365-Dienste um bis zu 40 % erhöht
-
Laut Canalys steigen die globalen Cloud-Betriebskosten im Jahr 2025 um rund 19 % – insbesondere getrieben durch wachsenden Bedarf an KI-Services, Speicher und Datenverkehr
Diese Entwicklungen sind kein temporäres Phänomen. Sie spiegeln die Reife eines Marktes wider, der sich zunehmend differenziert – und dessen Nutzung heute wieder strategisch geplant und selektiv eingesetzt werden muss.
Was Cloud- und On-Prem-Kosten grundlegend unterscheidet
Der zentrale Unterschied liegt in der Kostenstruktur:
-
Cloud-Kosten sind nutzungsbasiert und variabel. Je nach Auslastung steigen sie linear mit Compute-Zeit, Speicherplatz, API-Aufrufen oder Datenvolumen.
-
On-Prem-Kosten sind weitgehend fix. Die Investitionen erfolgen vorab (CAPEX), aber die Grenzkosten pro Nutzungseinheit sinken mit zunehmender Auslastung.
Daraus folgt:
- Bei temporären oder schlecht planbaren Workloads kann die Cloud wirtschaftlich sinnvoll sein
- Bei kontinuierlich ausgelasteten Szenarien gewinnt On-Premise an Attraktivität – sowohl aus Kostensicht als auch im Hinblick auf Kontrolle und Planbarkeit
Warum eine TCO-Analyse entscheidend ist
Eine belastbare Bewertung braucht eine Total-Cost-of-Ownership (TCO)-Analyse über einen Zeitraum von drei bis fünf Jahren. Nur so lassen sich die Gesamtkosten strukturiert erfassen – inklusive aller versteckten Effekte.

Nur wenn alle relevanten Posten auf beiden Seiten vollständig betrachtet werden, lässt sich die Wirtschaftlichkeit seriös bewerten – und auf belastbare Entscheidungen übertragen.
Praxisszenario: GPU-Workload On-Prem vs. Cloud – ein Rechenbeispiel mit Signalwirkung
Ein besonders anschauliches Beispiel für die wirtschaftlichen Unterschiede zwischen Cloud und On-Prem liefert eine TCO-Analyse von Lenovo, die GPU-Workloads über einen Zeitraum von fünf Jahren gegenüberstellt. Im Zentrum steht dabei der Vergleich eines dedizierten On-Premise-Servers mit NVIDIA A100-GPUs mit der Nutzung von AWS p5-Instances, die vergleichbare GPU-Ressourcen in der Public Cloud bereitstellen.
Fazit des Vergleichs
-
Break-even-Punkt: Nach rund 12 Monaten Dauerbetrieb ist der On-Premise-Server wirtschaftlicher – ab diesem Zeitpunkt verursacht jede weitere GPU-Stunde in der Cloud direkte Mehrkosten.
-
Ersparnis auf fünf Jahre: Je nach Preismodell in der Cloud ergibt sich ein Delta von 1,5 bis 3,4 Millionen USD zugunsten des Eigenbetriebs.
Was bedeutet das für die Praxis?
Nicht jedes Unternehmen betreibt dedizierte GPU-Cluster im 24/7-Betrieb. Das vorgestellte Rechenbeispiel bildet einen speziellen, aber keineswegs seltenen Fall. In vielen Szenarien ist eine dauerhaft hohe Auslastung realistisch – insbesondere in datenintensiven und KI-nahen Anwendungsbereichen:
- SaaS-Anbieter, deren Datenbanken, Caching-Systeme oder ML-Funktionen dauerhaft verfügbar sein müssen
- Medizinische Forschungseinrichtungen, die große Bilddatensätze mit Deep-Learning-Modellen analysieren
- Finanzdienstleister, die Realtime-Scoring, Risikoanalyse oder Fraud Detection GPU-basiert betreiben
- Medienunternehmen, die kontinuierlich Videoformate transkodieren oder auswerten
In diesen Fällen ist eine dauerhafte Auslastung nicht die Ausnahme, sondern die Regel. Genau dort gerät das nutzungsbasierte Cloud-Modell an seine wirtschaftlichen Grenzen. Was in der Cloud zu wiederkehrenden Kosten führt, wird on-prem zur planbaren Investition mit absehbarer Amortisation.
Weitere Überlegungen: Technisch und strategisch
Neben den Betriebskosten gibt es weitere Faktoren, die bei dauerhaft rechenintensiven Workloads für den Eigenbetrieb sprechen:
-
Geringere Latenzen durch lokale Datenhaltung und direkte Zugriffspfade
-
Mehr Kontrolle über Sicherheit und Datenschutz, insbesondere bei sensiblen Trainings- oder Patientendaten
-
Bessere Planbarkeit, vor allem bei mehrjährigen Forschungs- oder Förderprojekten mit festgelegtem Budgetrahmen
-
Vermeidung von Vendor Lock-in, etwa durch proprietäre Cloud-APIs im Bereich Modelltraining oder Deployment
Klar ist auch: Der Betrieb eigener GPU-Infrastruktur erfordert Know-how, räumliche Kapazitäten und abgestimmte Kühl- und Energieversorgung.
Aber bei dauerhaftem Bedarf können sich die wirtschaftlichen Vorteile klar bemerkbar machen – und strategisch sinnvoll sein.
Wann lohnt sich On-Premise?
Die Wirtschaftlichkeit von On-Premise-Infrastrukturen hängt weniger vom Technologiestack als vom Nutzungsmuster ab. Je stabiler und planbarer ein Workload, desto eher rechnet sich der Eigenbetrieb – insbesondere wenn zusätzliche Anforderungen an Integrationstiefe oder regulatorische Kontrolle bestehen.
Eine grobe Orientierung:
- Unterhalb von fünf Stunden Nutzung pro Tag kann ein Cloud-Modell wirtschaftlich vorteilhaft sein
- Ab etwa sechs bis neun Stunden täglicher Auslastung wird On-Premise häufig die kostengünstigere Variante – auch bei moderaten Investitionen
Weitere typische Indikatoren für einen wirtschaftlichen On-Premise-Betrieb:
- Stetige oder hohe Bandbreitenanforderungen
- Hohe Egress-Kosten bei ausgehenden Datenmengen
- Enge Verzahnung mit bestehenden Systemen oder lokalen Schnittstellen
- Anforderungen an Datenhoheit, Verfügbarkeit oder Auditierbarkeit
FinOps als Brücke zwischen Cloud und On-Premise
Der wirtschaftliche Umgang mit Cloud-Ressourcen hat in den letzten Jahren zur Entwicklung von FinOps geführt – einem strukturierten Ansatz zur Kostenkontrolle, Verbrauchsanalyse und operativen Steuerung.
Viele Organisationen stellen dabei fest: Die zugrunde liegende Denkweise lässt sich auch auf On-Premise-Umgebungen übertragen.
Beispiele:
- Ressourcenverbrauch messen → Auslastung optimieren
- Workloads analysieren → Betriebsmodelle besser begründen
- Provisionierung automatisieren → Personal entlasten und Fehler vermeiden
Kurz: Auch On-Premise ist nicht automatisch effizient – es wird es dann, wenn dieselben Prinzipien zur Anwendung kommen wie in modernen Cloud-Umgebungen.
So entsteht eine konsistente wirtschaftliche Sicht auf hybride Infrastrukturen – nicht ideologisch, sondern datenbasiert.
Fazit: Wirtschaftlichkeit entsteht im Nutzungskontext
Die Frage, ob Cloud oder On-Premise günstiger ist, lässt sich nicht pauschal beantworten – und genau das ist die entscheidende Erkenntnis.
Ob sich ein Modell wirtschaftlich trägt, hängt nicht nur von Preislisten oder Leistungsdaten ab, sondern von:
- der tatsächlichen Auslastung
- dem Planungshorizont
- dem Integrationsaufwand
- und den Rahmenbedingungen im Unternehmen
Cloud-Dienste bieten Flexibilität und kurze Time-to-Market. On-Premise bietet Kontrolle, Planbarkeit und in vielen Szenarien – insbesondere bei dauerhaft hoher Auslastung – signifikante Kostenvorteile.
Wirtschaftlich tragfähige Entscheidungen entstehen dort, wo beide Modelle nachvollziehbar bewertet und gezielt kombiniert werden.
Ausblick auf Teil 3
Im nächsten Artikel werfen wir einen Blick auf den Begriff „Digitale Souveränität“ – jenseits politischer Schlagworte. Wir analysieren, was der CLOUD Act, EUCS und GAIA-X in der Praxis bedeuten – und wann Infrastrukturentscheidungen auch rechtlich relevant werden.