Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen

Cloud oder On-Prem – was rechnet sich wirklich?

#Cloud Repatriation
Artikelreihe Zwischen Cloud und On-Prem: Digitale Souveränität neu denken

Teil II: Cloud oder On-Prem – was rechnet sich wirklich?

Wie sich IT-Kosten sinnvoll vergleichen lassen – und warum die TCO-Analyse 2025 unverzichtbar ist.

Cloud-Infrastrukturen gelten oft als flexibel, skalierbar – und wirtschaftlich attraktiv. Aber wie tragfähig ist diese Einschätzung im Jahr 2025 wirklich? Die steigenden Betriebskosten großer Cloud-Plattformen, wachsende Anforderungen an Planungssicherheit und der zunehmende Einsatz rechenintensiver Workloads führen dazu, dass viele Unternehmen ihre Entscheidungen neu bewerten.

Dieser Artikel untersucht, unter welchen Bedingungen On-Premise wirtschaftlich sinnvoll sein kann, welche Rolle FinOps dabei spielt – und warum sich die Kostenfrage nur im Kontext konkreter Nutzungsszenarien beantworten lässt.

Die richtige Frage stellen

„Was ist günstiger: Cloud oder On-Prem?“

Diese Frage wird häufig gestellt, ist aber selten zielführend. Denn Infrastrukturkosten lassen sich nicht isoliert bewerten: Sie hängen ab von Nutzungsmustern, Auslastung, Integrationsanforderungen, regulatorischem Umfeld und verfügbaren Ressourcen.

Pauschale Antworten helfen unter diesen Bedingungen kaum weiter. Gleichzeitig steigt der Entscheidungsdruck: Betriebskosten nehmen zu, Anforderungen an Flexibilität wachsen, Budgets müssen planbar bleiben.

Deshalb lohnt es sich, die Frage differenzierter zu stellen:

  • Unter welchen Bedingungen ist Cloud wirtschaftlich sinnvoll?
  • Wann lohnt sich der Eigenbetrieb – technologisch und finanziell?
  • Und wie lassen sich beide Modelle kombinieren, ohne Redundanzen oder Brüche zu erzeugen?

Die folgenden Abschnitte zeigen, warum sich eine differenzierte Betrachtung lohnt – und welche Kriterien dabei helfen können.

Was die Praxis zeigt: Kostenbewertung unter neuen Vorzeichen

In der Vergangenheit wurde der Einsatz von Cloud-Diensten häufig mit Kostenvorteilen verbunden – vor allem aufgrund ihrer Flexibilität und schnellen Skalierbarkeit. Inzwischen zeigt sich jedoch: Diese Annahme gilt nicht unter allen Bedingungen.

Viele Unternehmen stellen fest, dass Public-Cloud-Angebote zwar operative Vorteile bieten, aber nicht automatisch zu geringeren Gesamtkosten führen. Laut dem State of the Cloud Report von Flexera haben 84 % der Unternehmen Schwierigkeiten, ihre Cloud-Ausgaben verlässlich zu kontrollieren. Rund ein Drittel überschreitet das geplante Budget um mehr als 17 %. Gleichzeitig bleiben schätzungsweise 30 % der gebuchten Ressourcen ungenutzt – sogenannter Cloud-Waste.

Auch die Preisentwicklung trägt zur Neubewertung bei:

Diese Entwicklungen sind kein temporäres Phänomen. Sie spiegeln die Reife eines Marktes wider, der sich zunehmend differenziert – und dessen Nutzung heute wieder strategisch geplant und selektiv eingesetzt werden muss.

Was Cloud- und On-Prem-Kosten grundlegend unterscheidet

Der zentrale Unterschied liegt in der Kostenstruktur:

  • Cloud-Kosten sind nutzungsbasiert und variabel. Je nach Auslastung steigen sie linear mit Compute-Zeit, Speicherplatz, API-Aufrufen oder Datenvolumen.
  • On-Prem-Kosten sind weitgehend fix. Die Investitionen erfolgen vorab (CAPEX), aber die Grenzkosten pro Nutzungseinheit sinken mit zunehmender Auslastung.

Daraus folgt:

  • Bei temporären oder schlecht planbaren Workloads kann die Cloud wirtschaftlich sinnvoll sein
  • Bei kontinuierlich ausgelasteten Szenarien gewinnt On-Premise an Attraktivität – sowohl aus Kostensicht als auch im Hinblick auf Kontrolle und Planbarkeit

Warum eine TCO-Analyse entscheidend ist

Eine belastbare Bewertung braucht eine Total-Cost-of-Ownership (TCO)-Analyse über einen Zeitraum von drei bis fünf Jahren. Nur so lassen sich die Gesamtkosten strukturiert erfassen – inklusive aller versteckten Effekte.

Typische Kostenfaktoren in der Cloud

  • Compute-Zeit (VMs, Container, Serverless)
  • Speicher inkl. Egress (Datenabfluss)
  • Netzwerkgebühren, API-/Transaktionskosten
  • Lizenzierung, Support, Zusatzservices

Typische Kostenfaktoren On-Premise

  • Hardware (Server, Storage, Netzwerkkomponenten)
  • Energie, Kühlung, Flächenbedarf
  • Softwarelizenzen (Virtualisierung, Monitoring, Backup)
  • Personalaufwand oder externe Dienstleister
  • Wartung, Ersatzteile, Lifecycle-Kosten

Nur wenn alle relevanten Posten auf beiden Seiten vollständig betrachtet werden, lässt sich die Wirtschaftlichkeit seriös bewerten – und auf belastbare Entscheidungen übertragen.

Praxisszenario: GPU-Workload On-Prem vs. Cloud – ein Rechenbeispiel mit Signalwirkung

Ein besonders anschauliches Beispiel für die wirtschaftlichen Unterschiede zwischen Cloud und On-Prem liefert eine TCO-Analyse von Lenovo, die GPU-Workloads über einen Zeitraum von fünf Jahren gegenüberstellt. Im Zentrum steht dabei der Vergleich eines dedizierten On-Premise-Servers mit NVIDIA A100-GPUs mit der Nutzung von AWS p5-Instances, die vergleichbare GPU-Ressourcen in der Public Cloud bereitstellen.

Die On-Premise-Variante

Ein leistungsstarker GPU-Server mit folgenden Eckdaten:

  • 4× NVIDIA A100 GPUs (40 oder 80 GB)
  • 2× AMD EPYC CPUs
  • 1 TB RAM
  • NVMe-Storage (lokal)
  • Netzwerkanbindung 100 Gbit/s

Inklusive:

  • Investitionskosten für Hardware
  • Energieverbrauch (Strom + Kühlung)
  • Wartungsverträge & Support
  • Betriebskosten für Stellfläche und IT-Personal

Die Gesamtkosten dieses Systems über einen Zeitraum von fünf Jahren belaufen sich – laut Lenovo – auf rund 872.000 US-Dollar.

Die Public-Cloud-Variante (AWS p5)

Ein äquivalentes Setup auf AWS-Public-Cloud-Basis:

  • 8× NVIDIA H100 (p5.48xlarge Instance, ähnliche Leistungsdimension wie mehrere A100)
  • Betrieb rund um die Uhr (24/7)
  • Abrechnung auf Stundenbasis („on-demand pricing“ oder reserviert mit Laufzeitbindung)

Bei kontinuierlicher Nutzung summieren sich die AWS-Kosten für dieselbe Zeitspanne laut Analyse auf über 4,3 Millionen US-Dollar. Selbst bei Verwendung von 3-Year Reserved Instances, die einen deutlichen Rabatt bieten, verbleibt eine Kostenlast von etwa 2,4–2,8 Millionen USD – also mindestens 1,5 Millionen mehr als bei der On-Premise-Variante.

Fazit des Vergleichs

  • Break-even-Punkt: Nach rund 12 Monaten Dauerbetrieb ist der On-Premise-Server wirtschaftlicher – ab diesem Zeitpunkt verursacht jede weitere GPU-Stunde in der Cloud direkte Mehrkosten.
  • Ersparnis auf fünf Jahre: Je nach Preismodell in der Cloud ergibt sich ein Delta von 1,5 bis 3,4 Millionen USD zugunsten des Eigenbetriebs.

Was bedeutet das für die Praxis?

Nicht jedes Unternehmen betreibt dedizierte GPU-Cluster im 24/7-Betrieb. Das vorgestellte Rechenbeispiel bildet einen speziellen, aber keineswegs seltenen Fall. In vielen Szenarien ist eine dauerhaft hohe Auslastung realistisch – insbesondere in datenintensiven und KI-nahen Anwendungsbereichen:

  • SaaS-Anbieter, deren Datenbanken, Caching-Systeme oder ML-Funktionen dauerhaft verfügbar sein müssen
  • Medizinische Forschungseinrichtungen, die große Bilddatensätze mit Deep-Learning-Modellen analysieren
  • Finanzdienstleister, die Realtime-Scoring, Risikoanalyse oder Fraud Detection GPU-basiert betreiben
  • Medienunternehmen, die kontinuierlich Videoformate transkodieren oder auswerten

In diesen Fällen ist eine dauerhafte Auslastung nicht die Ausnahme, sondern die Regel. Genau dort gerät das nutzungsbasierte Cloud-Modell an seine wirtschaftlichen Grenzen. Was in der Cloud zu wiederkehrenden Kosten führt, wird on-prem zur planbaren Investition mit absehbarer Amortisation.

Weitere Überlegungen: Technisch und strategisch

Neben den Betriebskosten gibt es weitere Faktoren, die bei dauerhaft rechenintensiven Workloads für den Eigenbetrieb sprechen:

  • Geringere Latenzen durch lokale Datenhaltung und direkte Zugriffspfade
  • Mehr Kontrolle über Sicherheit und Datenschutz, insbesondere bei sensiblen Trainings- oder Patientendaten
  • Bessere Planbarkeit, vor allem bei mehrjährigen Forschungs- oder Förderprojekten mit festgelegtem Budgetrahmen
  • Vermeidung von Vendor Lock-in, etwa durch proprietäre Cloud-APIs im Bereich Modelltraining oder Deployment

Klar ist auch: Der Betrieb eigener GPU-Infrastruktur erfordert Know-how, räumliche Kapazitäten und abgestimmte Kühl- und Energieversorgung.

Aber bei dauerhaftem Bedarf können sich die wirtschaftlichen Vorteile klar bemerkbar machen – und strategisch sinnvoll sein.

Wann lohnt sich On-Premise?

Die Wirtschaftlichkeit von On-Premise-Infrastrukturen hängt weniger vom Technologiestack als vom Nutzungsmuster ab. Je stabiler und planbarer ein Workload, desto eher rechnet sich der Eigenbetrieb – insbesondere wenn zusätzliche Anforderungen an Integrationstiefe oder regulatorische Kontrolle bestehen.

Eine grobe Orientierung:

  • Unterhalb von fünf Stunden Nutzung pro Tag kann ein Cloud-Modell wirtschaftlich vorteilhaft sein
  • Ab etwa sechs bis neun Stunden täglicher Auslastung wird On-Premise häufig die kostengünstigere Variante – auch bei moderaten Investitionen

Weitere typische Indikatoren für einen wirtschaftlichen On-Premise-Betrieb:

  • Stetige oder hohe Bandbreitenanforderungen
  • Hohe Egress-Kosten bei ausgehenden Datenmengen
  • Enge Verzahnung mit bestehenden Systemen oder lokalen Schnittstellen
  • Anforderungen an Datenhoheit, Verfügbarkeit oder Auditierbarkeit

FinOps als Brücke zwischen Cloud und On-Premise

Der wirtschaftliche Umgang mit Cloud-Ressourcen hat in den letzten Jahren zur Entwicklung von FinOps geführt – einem strukturierten Ansatz zur Kostenkontrolle, Verbrauchsanalyse und operativen Steuerung.

Viele Organisationen stellen dabei fest: Die zugrunde liegende Denkweise lässt sich auch auf On-Premise-Umgebungen übertragen.

Beispiele:

  • Ressourcenverbrauch messen → Auslastung optimieren
  • Workloads analysieren → Betriebsmodelle besser begründen
  • Provisionierung automatisieren → Personal entlasten und Fehler vermeiden

Kurz: Auch On-Premise ist nicht automatisch effizient – es wird es dann, wenn dieselben Prinzipien zur Anwendung kommen wie in modernen Cloud-Umgebungen.

So entsteht eine konsistente wirtschaftliche Sicht auf hybride Infrastrukturen – nicht ideologisch, sondern datenbasiert.

Fazit: Wirtschaftlichkeit entsteht im Nutzungskontext

Die Frage, ob Cloud oder On-Premise günstiger ist, lässt sich nicht pauschal beantworten – und genau das ist die entscheidende Erkenntnis.

Ob sich ein Modell wirtschaftlich trägt, hängt nicht nur von Preislisten oder Leistungsdaten ab, sondern von:

  • der tatsächlichen Auslastung
  • dem Planungshorizont
  • dem Integrationsaufwand
  • und den Rahmenbedingungen im Unternehmen

Cloud-Dienste bieten Flexibilität und kurze Time-to-Market. On-Premise bietet Kontrolle, Planbarkeit und in vielen Szenarien – insbesondere bei dauerhaft hoher Auslastung – signifikante Kostenvorteile.

Wirtschaftlich tragfähige Entscheidungen entstehen dort, wo beide Modelle nachvollziehbar bewertet und gezielt kombiniert werden.

Ausblick auf Teil 3

Im nächsten Artikel werfen wir einen Blick auf den Begriff „Digitale Souveränität“ – jenseits politischer Schlagworte. Wir analysieren, was der CLOUD Act, EUCS und GAIA-X in der Praxis bedeuten – und wann Infrastrukturentscheidungen auch rechtlich relevant werden.

Sie möchten Ihre Infrastrukturstrategie wirtschaftlich und technologisch neu bewerten?

Memorysolution unterstützt Sie beim Aufbau souveräner IT-Architekturen – mit fundierter Beratung, klarer Hardwareexpertise und Erfahrung aus anspruchsvollen Projekten im On-Premise-Umfeld.