Cloud Services zwischen Kontrolle und Innovation

Cloud Services: Warum Multicloud strategisch wird

Der Drahtseilakt zwischen Kosten, Sorge um die Souveränität und technologischer Innovationsfähigkeit ist schwieriger geworden. An Multicloud führt kaum ein Weg vorbei. Doch Firmen sollten ihre Cloud-Strategie vor allem mit Blick auf GenAI prüfen.

Warum gewinnen Cloud Services an strategischer Bedeutung? Zwischen Souveränität, Kosten und GenAI steigt der Handlungsdruck.

Die Cloud bietet insbesondere auch mittelständischen Unternehmen heute Möglichkeiten, die sie aus eigener Kraft kaum umsetzen könnten. Kein Wunder, dass laut Bitkom bereits 90 Prozent der Unternehmen auf die Cloud setzen. In der deutschen Wirtschaft wurden in 2025 demnach fast die Hälfte aller IT-Anwendungen aus der Cloud betrieben. 

Aus Beratersicht gilt es zunächst klar einzuordnen, welche Ebene beim Thema Cloud-Services eigentlich gemeint ist: Auf der einen Seite steht die Infrastruktur der Cloud mit Anbietern wie AWS, Google Cloud, Microsoft Azure oder auch deutschen Anbietern wie Schwarz IT mit Stackit, Ionos, die Delos Cloud oder die Open Telekom Cloud. 

Auf der anderen Seite geht es um die Ebene der Applikationen mit klassischen Office-Anwendungen wie beispielsweise MS Office365, klassische Unternehmensanwendungen, aber auch um betriebskritische Cloud-Services etwa für die Produktion.

Erfahren Sie mehr zum Fachkongress Digitale Fabrik: Klicken Sie hier!

Die (Multi-)Cloud ist zunehmend alternativlos

Aus Sicht von Thorsten Pötter, CDO beim Ventil- und Regeltechnikhersteller Samson aus Frankfurt, ist eine Multi-Cloud-Strategie im internationalen Umfeld, aber auch aus Kostengründen oft unabdingbar. Das Unternehmen setzt unter anderem auf Anbieter wie Microsoft und AWS, in Märkten wie China gibt es andere Lösungen. „Wir sehen, dass aufgrund politischer Aspekte und Themenbereichen wie Regularien, Compliance und Datenschutz, in einigen Regionen kein Weg daran vorbeiführt, eigene Lösungen aufzubauen. Nur so können wir beispielsweise den unterschiedlichen Datenschutz-Richtlinien im europäischen Raum oder im chinesischen Raum gerecht werden“, erklärt Pötter.

Oliver Schreiber, Produktmanager bei Unity.

„Multicloud ist heute typisch“, stellt Oliver Schreiber fest, Produktmanager beim Beratungshaus Unity. Im Produktionsumfeld sei es üblich, dass ERP-Systeme in einer sicheren Private Cloud laufen, Office-Anwendungen und CRM-Systeme als Public Cloud-Service bezogen werden und zusätzlich Cloud-basierte Einkaufsplattformen wie Coupa oder Ariba zum Einsatz kommen. „Es ist wichtig, ganzheitlich auf die Prozesse zu schauen und insbesondere die Technologien hinter den kritischen Abläufen zu hinterfragen. Grundsätzlich ist es sinnvoll, nicht zu viele Provider in kritischen Prozessen zu beteiligen“, rät der Experte.

In der Multicloud unterwegs

Aus Erfahrung von Thorsten Pötter sind die Lizenzen einiger Anbieter teurer, wenn die Cloud-Services bei einem anderen Hyperscaler gehostet würden. Die Entscheidung, welche Cloud-Services wo bezogen werden, hängt also auch vom Anwendungsfall und funktionalen Angebot ab. „Im Office-Umfeld sind wir mit Microsoft unterwegs. Viele andere Lösungen, bei denen es um dedizierte Applikationen in den einzelnen Fachbereichen wie Entwicklung oder Produktion geht, gehen wir aufgrund technischer Vorteile bevorzugt auf die AWS-Cloud“, so Pötter. 

Zu den größten Herausforderungen einer Multicloud-Strategie zählt für den Chief Digital Officer von Samson vor allem das Management der verschiedenen Partner, um sich dennoch über Cloud-Grenzen hinweg durchgängig bewegen zu können. „Je mehr Partner, desto komplexer wird es und desto mehr Verwaltungsaufwand entsteht, beispielsweise beim Überblick, was gemäß der jeweiligen Verträge vereinbart ist“, merkt Pötter an. 

Auf der Positivseite stünde jedoch die bessere Risikoabwägung. „Im Schadensfall haben im Sinne von IT-Security bestehen so immer noch gewisse Abschottungsmöglichkeiten, sodass nicht betroffene Bereiche weiter arbeiten können“, so der CDO.

Bei einer Cloud-Strategie sollten Unternehmen sich sehr genau überlegen, welche Vorteile sie heben wollen, beispielsweise um in der veränderten Arbeitswelt unabhängig vom Ort Zugriff auf Daten und Prozesse zu ermöglichen. „Wenn dafür die richtigen Methoden – Stichwort Zero Trust – übereinandergelegt werden, kann man auch sicher in der Cloud unterwegs sein“, empfiehlt Pötter.

Neue Spielregeln für den Einkauf

Einkaufs- und IT-Verantwortlichen rät Tobias Regenfuß, Geschäftsführer Technologie bei Accenture, bei der Auswahl von Cloud-Anbietern heute stärker zu berücksichtigen, wie leicht den Nutzern ein Wechsel gemacht wird. 

Welche Open-Source-standardisierten Services sind vorhanden, die ein Vendor-Lock-in vermeiden, und welche souveränen Offerings gibt es? Das macht sich nicht zuletzt an den Egress-Kosten fest: Im Gegensatz zu den Ingress-Kosten für Daten, die in die Cloud hereinkommen und die bei den Hyperscalern bei Null liegen, wird für den Abzug der Daten aus der Cloud teilweise viel Geld verlangt.

Bei der verbrauchsbasierten Abrechnung in der Cloud ist es wichtig, genau zu schauen, wie sich die Lasten in Zukunft weiterentwickeln – und was das für die Kosten bedeutet. „Längerfristige Preisbindungen sind heute gegebenenfalls besser, weil wir schon sehen, dass viele darunter leiden, dass sie in Neuverhandlungen vor Preisanstiegen stehen“, konstatiert Tobias Regenfuß. Wer ein gutes Verständnis hat, wie er die Cloud nutzen will und den jeweiligen Preiskatalog daraufhin evaluiert, hat die beste Position in der Verhandlung mit den Cloud-Anbietern, meint der Experte.

Clouds im Griff: Alles andre als ein Kinderspiel

 „Man nimmt sich oft sehr viel vor mit Blick auf Multicloud, es ist aber wichtig, vorab strategische Klarheit zu schaffen“, sagt Regenfuß. Wenn Unternehmen über ihre Cloud-Strategie nachdenken, sollten sie alle Schichten betrachten: Infrastruktur, Plattformdienste für die Software-Entwicklung, Datenbanken, Messaging-Dienste und Software-as-a-Service. Dafür stellt sich die Frage nach dem Ziel: Mehr Services, Legacy orchestrieren, KI mit reinnehmen? Für produzierende Unternehmen komme neben den klassischen Themen auch noch die Cloud am Edge in den Fabriken hinzu. 

„Multicloud-Architekturen erfordern einen hohen Engineering-Aufwand und die entsprechenden Skills. Unternehmen sollten sich also realistisch fragen, was sie umsetzen können“, so Tobias Regenfuß. Eine Cloud-Control-Plane als Orchestrierungsebene ist auch aus seiner Sicht zentral. Dennoch könnten auch KMU profitieren, abhängig vom Werkzeugkasten, den sie wählen. Mittlerweile stünden auch Open-Source-Lösungen etwa von Red Hat oder SaaS-Servies beispielsweise von ServiceNow zur Verfügung. Aus Sicht von Schreiber werden die mit der Cloud-Orchestrierung verbundenen Kosten in Ausschreibungen oft nicht berücksichtigt und schlagen dann später zu Buche.

Datensicherheit: GenAI arbeitet mit Intellectual Property

Unternehmen verschlüsseln zunehmend ihre Daten in der Cloud und erreichen damit einen hohen Sicherheitsgrad. „Cloud Provider bieten ein Bring-Your-Own-Key-Konzept, bei dem ausschließlich der Kunde seinen Schlüssel hält. Der Cloud-Anbieter hat keinen Zugriff auf diesen und kann die verschlüsselten Daten nicht einsehen“, erklärt der Accenture-Experte. In sogenannten Confidential-Computing-Umgebungen seien die Daten selbst während sie im Prozessor verarbeitet werden zu jedem Zeitpunkt verschlüsselt und nicht zugreifbar.

Durch generative, große Sprachmodelle (Large Language Models – LLM) sind jetzt neue Wissenssysteme realisierbar, die viel innovations- und unternehmensspezifisches Kernwissen verarbeiten. Das darf entsprechend nicht in andere Hände geraten und sollte in entsprechend geschützten Bereichen geschehen. Bei Samson befasst man sich bereits seit langem mit KI, darunter zum Beispiel mit der KI-basierten Bildverarbeitung in der Produktion, aber man setzt auch verstärkt auf LLM. 

Torsten Pötter
Thorsten Pötter, CDO bei Samson.

„Im Bereich Gen AI holen wir uns Modelle herein. In den Bereichen, in denen es um sehr schützenswertes Wissen geht, nehmen wir ein antrainiertes Modell und nutzen es dann in einer abgekapselten Lösung. In anderen Bereichen nutzen wir teilweise die Möglichkeiten direkt in den Anwendungen“, sagt der Samson-CDO. Aus seiner Sicht lassen sich jedoch auch die sensiblen Daten einer abgekapselten Lösung in einer Hyperscaler-Cloud mit Verschlüsselung ebenso gut absichern wie on-Premises.

Eigener KI-Stack als Alternative

Nicht zuletzt im Einkauf wird GenAI immer wichtiger: Gerade weil hier viele Abläufe bereits standardisiert sind und besonders stark auf dem Datentyp „Text“ basieren, bieten die großen Datenmodelle (Large Language Models, LLM) einen besonders starken Hebel in der Prozessautomatisierung. Das gilt beispielsweise bei KI-Bots, die automatisiert über Preise verhandeln. 

„Die unternehmensspezifische Konfiguration dahinter ist ebenso wie Preisdaten oder Stücklisten kritisch und sensibel. Der LLM-Einsatz sollte daher in einer abgesicherten Struktur erfolgen und externe Modelle nicht mit den eigenen Daten trainiert werden“, erklärt Schreiber. Ähnliches gelte im Innovationsumfeld in der Produktentwicklung.

Aus Sicht von Tobias Regenfuß ist im Hinblick auf die Nutzung von GenAI mit sensiblen Unternehmensdaten der Aufbau eines eigenen GPU-Cluster (Turborechner für AI) für einen souveränen KI-Stack im Rechenzentrum denkbar, erfordere aber wiederum die Engineering-Kompetenzen. Einige Berechnungen zeigen, dass sich eigene GPUs für GenAI innerhalb eines halben Jahres rechnen können. Eine Rolle spielen auch die für GenAI benötigten kurzen Latenzzeiten. Auch Co-Location-Konzepte können hier eine Alternative sein.

Sorge um Datensouveränität

Mit der erratischen US-Politik ist in Europa eine ernste Sorge hinsichtlich der Abhängigkeit von amerikanischen Anbietern – und dem Mangel an europäischen Alternativen – entstanden. Hier schwanken die Unternehmen zwischen Pragmatismus und Angst vor dem „Killswitch“, also dass Cloud-Infrastrukturen einfach abgeschnitten werden könnten. „Das Thema Datensouveränität ist sicherlich in der allgemeinen Wahrnehmung weiter nach vorne gerückt und es ist eine Tendenz zu erkennen, wieder alles selber machen zu wollen. 

Tobias Regenfuß, Geschäftsführer Technologie bei Accenture.

Hier schlägt das Pendel mal in die eine, mal die andere Richtung. Aus meiner Sicht bietet die Cloud je nach Risikoabwägung im Vergleich immer differenziertere Lösungen, die wir einkaufen können – das ist sehr positiv. Mit rein deutschen Lösungen würde es natürlich erheblich teurer“, resümiert Thorsten Pötter. Er sieht den Trend pragmatisch: Die Risikoabwägungen und Datenschutzthemen gebe es schon länger – auch wenn sich jetzt der Fokus darauf stärker zugespitzt habe.

Auch der Accenture-Experte beobachtet, dass sich die Unternehmen mit Blick auf Datensouveränität deutlich umorientieren. „Beim Thema Souveränität stehen unterschiedliche Dimensionen im Fokus: Regulatorik, Schutz vor Datenabfluss, vor einem geopolitischen Lock-out oder kommerziellen Lock-in“, meint Regenfuß. 

Dafür brauche es eine Risikoabwägung. Zudem hätten unterschiedliche Workloads auch unterschiedliche Souveränitätsanforderungen. In Bereichen wie dem Austausch von Daten entlang der Wertschöpfungskette setzen sich derzeit in immer mehr Branchen vertrauenswürdige Data Spaces durch, die auf der europäischen GAIA-Technologie basieren, allen voran Catena-X in der Automobilindustrie, Aerospace-X oder Manufacturing-X.

Trend zur Repatriierung von Daten

„Wir sehen, dass Unternehmen sich derzeit sehr intensiv Gedanken über Daten- und Cloud-Souveränität machen“, bestätigt auch Oliver Schreiber. Doch bedeutet es nicht auf den ersten Blick deutlich mehr Kosten und weniger Möglichkeiten, auf europäische Alternativen zu setzen? „Die Kostenunterschiede haben sich in den letzten Jahren gerade für stabile Lasten wie ERP-Systeme verringert. 

Neben den Kosten geht es auch um Resilienz, Sicherheit, Produktionsfähigkeit, auch die Anfälligkeit gegenüber Behördenzugriffen. Bei Folgeschäden durch Ausfälle oder Angriffe entsteht schnell ein ganz anderes Kostenniveau“, meint Schreiber. Mittlerweile gebe es eine ganze Reihe von Rechenzentrums-Anbietern, die in Deutschland zu durchaus wettbewerbsfähigen Kosten den Betrieb von kritischen Infrastrukturen etwa für die Produktion anböten.

„Auf der Infrastrukturebene sind die nationalen Angebote durchaus wettbewerbsfähig, teilweise sogar für bestimmte Workloads günstiger“, stellt auch Regenfuß fest. Repatriierungsüberlegungen seien teilweise auch durch Kosten getragen, gerade bei relativ stabilen Lastprofilen. Schon in 2025 zeichnete sich ein starker Trend ab, Cloud-Workloads in eigene Rechenzentren zurückzuholen.

So planen laut Barclays CIO Survey 83 Prozent der CIOs, zumindest Teile ihrer Public-Cloud-Lasten in On-Prem- oder Private-Cloud-Umgebungen zurückzuholen. Die US-Hyperscaler sind sich des Problems offensichtlich bewusst. Erst im Januar verkündete Amazon für AWS in den nächsten Jahren 7,8 Milliarden Euro in eine weitgehend unabhängige European Cloud investieren zu wollen.

FAQ zu Cloud Services und GenAI

Warum gewinnen Cloud Services strategisch an Bedeutung?

Cloud Services bilden das Fundament für digitale Geschäftsmodelle und sind zentrale Plattform für GenAI-Anwendungen mit sensiblen Unternehmensdaten.

Was spricht für eine Multicloud-Strategie?

Multicloud erhöht Flexibilität und Resilienz, bringt jedoch höhere Komplexität, steigenden Verwaltungsaufwand und zusätzliche Engineering-Anforderungen mit sich.

Welche Rolle spielt Datensouveränität bei Cloud Services?

Aspekte wie Regulatorik, Schutz vor Datenabfluss und Lock-in-Risiken rücken stärker in den Fokus und beeinflussen die Wahl der Anbieter und Architekturen.

Warum wird die Repatriierung von Cloud-Workloads diskutiert?

Kostenstrukturen, stabile Lastprofile und geopolitische Unsicherheiten führen dazu, dass Unternehmen Teile ihrer Public-Cloud-Lasten zurück in eigene oder private Umgebungen verlagern.