Der Drahtseilakt zwischen Kosten, Sorge um die Souveränität und technologischer Innovationsfähigkeit ist schwieriger geworden. An Multicloud führt kaum ein Weg vorbei. Doch Firmen sollten ihre Cloud-Strategie vor allem mit Blick auf GenAI prüfen.
Daniela HoffmannDanielaHoffmann
Warum gewinnen Cloud Services an strategischer Bedeutung? Zwischen Souveränität, Kosten und GenAI steigt der Handlungsdruck.Gorodenkoff - stock.adobe.com
Anzeige
Die Cloud bietet insbesondere auch mittelständischen
Unternehmen heute Möglichkeiten, die sie aus eigener Kraft kaum umsetzen könnten.
Kein Wunder, dass laut Bitkom bereits 90 Prozent der Unternehmen auf die Cloud
setzen. In der deutschen Wirtschaft wurden in 2025 demnach fast die Hälfte
aller IT-Anwendungen aus der Cloud betrieben.
Aus Beratersicht gilt es zunächst
klar einzuordnen, welche Ebene beim Thema Cloud-Services eigentlich gemeint
ist: Auf der einen Seite steht die Infrastruktur der Cloud mit Anbietern wie
AWS, Google Cloud, Microsoft Azure oder auch deutschen Anbietern wie Schwarz IT
mit Stackit, Ionos, die Delos Cloud oder die Open Telekom Cloud.
Anzeige
Auf der
anderen Seite geht es um die Ebene der Applikationen mit klassischen
Office-Anwendungen wie beispielsweise MS Office365, klassische
Unternehmensanwendungen, aber auch um betriebskritische Cloud-Services etwa für
die Produktion.
Erfahren Sie mehr zum Fachkongress Digitale Fabrik: Klicken Sie hier!
Die (Multi-)Cloud ist
zunehmend alternativlos
Anzeige
Aus Sicht von Thorsten Pötter, CDO beim Ventil- und
Regeltechnikhersteller Samson aus Frankfurt, ist eine Multi-Cloud-Strategie im
internationalen Umfeld, aber auch aus Kostengründen oft unabdingbar. Das
Unternehmen setzt unter anderem auf Anbieter wie Microsoft und AWS, in Märkten
wie China gibt es andere Lösungen. „Wir sehen, dass aufgrund politischer
Aspekte und Themenbereichen wie Regularien, Compliance und Datenschutz, in
einigen Regionen kein Weg daran vorbeiführt, eigene Lösungen aufzubauen. Nur so
können wir beispielsweise den unterschiedlichen Datenschutz-Richtlinien im
europäischen Raum oder im chinesischen Raum gerecht werden“, erklärt Pötter.
Oliver Schreiber, Produktmanager bei Unity.Unity
„Multicloud ist heute typisch“, stellt Oliver Schreiber
fest, Produktmanager beim Beratungshaus Unity. Im Produktionsumfeld sei es
üblich, dass ERP-Systeme in einer sicheren Private Cloud laufen,
Office-Anwendungen und CRM-Systeme als Public Cloud-Service bezogen werden und
zusätzlich Cloud-basierte Einkaufsplattformen wie Coupa oder Ariba zum Einsatz
kommen. „Es ist wichtig, ganzheitlich auf die Prozesse zu schauen und
insbesondere die Technologien hinter den kritischen Abläufen zu hinterfragen.
Grundsätzlich ist es sinnvoll, nicht zu viele Provider in kritischen Prozessen
zu beteiligen“, rät der Experte.
Aus Erfahrung von Thorsten Pötter sind die Lizenzen einiger
Anbieter teurer, wenn die Cloud-Services bei einem anderen Hyperscaler gehostet
würden. Die Entscheidung, welche Cloud-Services wo bezogen werden, hängt also
auch vom Anwendungsfall und funktionalen Angebot ab. „Im Office-Umfeld sind wir
mit Microsoft unterwegs. Viele andere Lösungen, bei denen es um dedizierte
Applikationen in den einzelnen Fachbereichen wie Entwicklung oder Produktion geht,
gehen wir aufgrund technischer Vorteile bevorzugt auf die AWS-Cloud“, so
Pötter.
Anzeige
Zu den größten Herausforderungen einer Multicloud-Strategie zählt für
den Chief Digital Officer von Samson vor allem das Management der verschiedenen
Partner, um sich dennoch über Cloud-Grenzen hinweg durchgängig bewegen zu
können. „Je mehr Partner, desto komplexer wird es und desto mehr
Verwaltungsaufwand entsteht, beispielsweise beim Überblick, was gemäß der
jeweiligen Verträge vereinbart ist“, merkt Pötter an.
Auf der Positivseite
stünde jedoch die bessere Risikoabwägung. „Im Schadensfall haben im Sinne von
IT-Security bestehen so immer noch gewisse Abschottungsmöglichkeiten, sodass
nicht betroffene Bereiche weiter arbeiten können“, so der CDO.
Bei einer
Cloud-Strategie sollten Unternehmen sich sehr genau überlegen, welche Vorteile
sie heben wollen, beispielsweise um in der veränderten Arbeitswelt unabhängig
vom Ort Zugriff auf Daten und Prozesse zu ermöglichen. „Wenn dafür die
richtigen Methoden – Stichwort Zero Trust – übereinandergelegt werden, kann man
auch sicher in der Cloud unterwegs sein“, empfiehlt Pötter.
Neue Spielregeln für
den Einkauf
Anzeige
Einkaufs- und IT-Verantwortlichen rät Tobias Regenfuß,
Geschäftsführer Technologie bei Accenture, bei der Auswahl von Cloud-Anbietern
heute stärker zu berücksichtigen, wie
leicht den Nutzern ein Wechsel gemacht wird.
Welche
Open-Source-standardisierten Services sind vorhanden, die ein Vendor-Lock-in
vermeiden, und welche souveränen Offerings gibt es? Das macht sich nicht
zuletzt an den Egress-Kosten fest: Im Gegensatz zu den Ingress-Kosten für
Daten, die in die Cloud hereinkommen und die bei den Hyperscalern bei Null
liegen, wird für den Abzug der Daten aus der Cloud teilweise viel Geld
verlangt.
Bei der verbrauchsbasierten Abrechnung in der Cloud ist es
wichtig, genau zu schauen, wie sich die Lasten in Zukunft weiterentwickeln –
und was das für die Kosten bedeutet. „Längerfristige Preisbindungen sind heute
gegebenenfalls besser, weil wir schon sehen, dass viele darunter leiden, dass
sie in Neuverhandlungen vor Preisanstiegen stehen“, konstatiert Tobias
Regenfuß. Wer ein gutes Verständnis hat, wie er die Cloud nutzen will und den
jeweiligen Preiskatalog daraufhin evaluiert, hat die beste Position in der
Verhandlung mit den Cloud-Anbietern, meint der Experte.
Anzeige
Clouds im Griff:
Alles andre als ein Kinderspiel
„Man nimmt sich oft
sehr viel vor mit Blick auf Multicloud, es ist aber wichtig, vorab strategische
Klarheit zu schaffen“, sagt Regenfuß. Wenn Unternehmen über ihre
Cloud-Strategie nachdenken, sollten sie alle Schichten betrachten:
Infrastruktur, Plattformdienste für die Software-Entwicklung, Datenbanken,
Messaging-Dienste und Software-as-a-Service. Dafür stellt sich die Frage nach
dem Ziel: Mehr Services, Legacy orchestrieren, KI mit reinnehmen? Für
produzierende Unternehmen komme neben den klassischen Themen auch noch die
Cloud am Edge in den Fabriken hinzu.
„Multicloud-Architekturen erfordern einen
hohen Engineering-Aufwand und die entsprechenden Skills. Unternehmen sollten
sich also realistisch fragen, was sie umsetzen können“, so Tobias Regenfuß.
Eine Cloud-Control-Plane als Orchestrierungsebene ist auch aus seiner Sicht
zentral. Dennoch könnten auch KMU profitieren, abhängig vom Werkzeugkasten, den
sie wählen. Mittlerweile stünden auch Open-Source-Lösungen etwa von Red Hat
oder SaaS-Servies beispielsweise von ServiceNow zur Verfügung. Aus Sicht von
Schreiber werden die mit der Cloud-Orchestrierung verbundenen Kosten in
Ausschreibungen oft nicht berücksichtigt und schlagen dann später zu Buche.
Anzeige
Datensicherheit: GenAI
arbeitet mit Intellectual Property
Unternehmen verschlüsseln zunehmend ihre Daten in der Cloud
und erreichen damit einen hohen Sicherheitsgrad. „Cloud Provider bieten ein
Bring-Your-Own-Key-Konzept, bei dem ausschließlich der Kunde seinen Schlüssel
hält. Der Cloud-Anbieter hat keinen Zugriff auf diesen und kann die
verschlüsselten Daten nicht einsehen“, erklärt der Accenture-Experte. In
sogenannten Confidential-Computing-Umgebungen seien die Daten selbst während
sie im Prozessor verarbeitet werden zu jedem Zeitpunkt verschlüsselt und nicht
zugreifbar.
Durch generative, große Sprachmodelle (Large Language Models
– LLM) sind jetzt neue Wissenssysteme realisierbar, die viel innovations- und
unternehmensspezifisches Kernwissen verarbeiten. Das darf entsprechend nicht in
andere Hände geraten und sollte in entsprechend geschützten Bereichen
geschehen. Bei Samson befasst man sich bereits seit langem mit KI, darunter zum
Beispiel mit der KI-basierten Bildverarbeitung in der Produktion, aber man
setzt auch verstärkt auf LLM.
Thorsten Pötter, CDO bei Samson.Samson
„Im Bereich Gen AI holen wir uns Modelle herein.
In den Bereichen, in denen es um sehr schützenswertes Wissen geht, nehmen wir
ein antrainiertes Modell und nutzen es dann in einer abgekapselten Lösung. In
anderen Bereichen nutzen wir teilweise die Möglichkeiten direkt in den
Anwendungen“, sagt der Samson-CDO. Aus seiner Sicht lassen sich jedoch auch die
sensiblen Daten einer abgekapselten Lösung in einer Hyperscaler-Cloud mit
Verschlüsselung ebenso gut absichern wie on-Premises.
Eigener KI-Stack als
Alternative
Nicht zuletzt im Einkauf wird GenAI immer wichtiger: Gerade
weil hier viele Abläufe bereits standardisiert sind und besonders stark auf dem
Datentyp „Text“ basieren, bieten die großen Datenmodelle (Large Language
Models, LLM) einen besonders starken Hebel in der Prozessautomatisierung. Das
gilt beispielsweise bei KI-Bots, die automatisiert über Preise verhandeln.
„Die
unternehmensspezifische Konfiguration dahinter ist ebenso wie Preisdaten oder
Stücklisten kritisch und sensibel. Der LLM-Einsatz sollte daher in einer
abgesicherten Struktur erfolgen und externe Modelle nicht mit den eigenen Daten
trainiert werden“, erklärt Schreiber.
Ähnliches gelte im Innovationsumfeld in der Produktentwicklung.
Aus Sicht von Tobias Regenfuß ist im Hinblick auf die
Nutzung von GenAI mit sensiblen Unternehmensdaten der Aufbau eines eigenen
GPU-Cluster (Turborechner für AI) für einen souveränen KI-Stack im
Rechenzentrum denkbar, erfordere aber wiederum die Engineering-Kompetenzen.
Einige Berechnungen zeigen, dass sich eigene GPUs für GenAI innerhalb eines
halben Jahres rechnen können. Eine Rolle spielen auch die für GenAI benötigten
kurzen Latenzzeiten. Auch Co-Location-Konzepte können hier eine Alternative
sein.
Sorge um Datensouveränität
Mit der erratischen US-Politik ist in Europa eine ernste
Sorge hinsichtlich der Abhängigkeit von amerikanischen Anbietern – und dem
Mangel an europäischen Alternativen – entstanden. Hier schwanken die
Unternehmen zwischen Pragmatismus und Angst vor dem „Killswitch“, also dass
Cloud-Infrastrukturen einfach abgeschnitten werden könnten. „Das Thema
Datensouveränität ist sicherlich in der allgemeinen Wahrnehmung weiter nach
vorne gerückt und es ist eine Tendenz zu erkennen, wieder alles selber machen
zu wollen.
Tobias Regenfuß, Geschäftsführer Technologie bei Accenture.Accenture
Hier schlägt das Pendel mal in die eine, mal die andere Richtung.
Aus meiner Sicht bietet die Cloud je nach Risikoabwägung im Vergleich immer
differenziertere Lösungen, die wir einkaufen können – das ist sehr positiv. Mit
rein deutschen Lösungen würde es natürlich erheblich teurer“, resümiert
Thorsten Pötter. Er sieht den Trend pragmatisch: Die Risikoabwägungen und
Datenschutzthemen gebe es schon länger – auch wenn sich jetzt der Fokus darauf
stärker zugespitzt habe.
Auch der Accenture-Experte beobachtet, dass sich die
Unternehmen mit Blick auf Datensouveränität deutlich umorientieren. „Beim Thema
Souveränität stehen unterschiedliche Dimensionen im Fokus: Regulatorik, Schutz
vor Datenabfluss, vor einem
geopolitischen Lock-out oder kommerziellen Lock-in“, meint Regenfuß.
Dafür
brauche es eine Risikoabwägung. Zudem hätten unterschiedliche Workloads auch
unterschiedliche Souveränitätsanforderungen. In Bereichen wie dem Austausch von
Daten entlang der Wertschöpfungskette setzen sich derzeit in immer mehr
Branchen vertrauenswürdige Data Spaces durch, die auf der europäischen
GAIA-Technologie basieren, allen voran Catena-X in der Automobilindustrie,
Aerospace-X oder Manufacturing-X.
„Wir sehen, dass Unternehmen sich derzeit sehr intensiv
Gedanken über Daten- und Cloud-Souveränität machen“, bestätigt auch Oliver
Schreiber. Doch bedeutet es nicht auf den ersten Blick deutlich mehr Kosten und
weniger Möglichkeiten, auf europäische Alternativen zu setzen? „Die
Kostenunterschiede haben sich in den letzten Jahren gerade für stabile Lasten
wie ERP-Systeme verringert.
Neben den Kosten geht es auch um Resilienz,
Sicherheit, Produktionsfähigkeit, auch die Anfälligkeit gegenüber Behördenzugriffen.
Bei Folgeschäden durch Ausfälle oder Angriffe entsteht schnell ein ganz anderes
Kostenniveau“, meint Schreiber. Mittlerweile gebe es eine ganze Reihe von
Rechenzentrums-Anbietern, die in Deutschland zu durchaus wettbewerbsfähigen
Kosten den Betrieb von kritischen Infrastrukturen etwa für die Produktion
anböten.
„Auf der Infrastrukturebene sind die nationalen Angebote
durchaus wettbewerbsfähig, teilweise sogar für bestimmte Workloads günstiger“,
stellt auch Regenfuß fest. Repatriierungsüberlegungen seien teilweise auch
durch Kosten getragen, gerade bei relativ stabilen Lastprofilen. Schon in 2025
zeichnete sich ein starker Trend ab, Cloud-Workloads in eigene Rechenzentren
zurückzuholen.
So planen laut Barclays CIO Survey 83 Prozent der CIOs, zumindest
Teile ihrer Public-Cloud-Lasten in On-Prem- oder Private-Cloud-Umgebungen
zurückzuholen. Die US-Hyperscaler sind sich des Problems offensichtlich
bewusst. Erst im Januar verkündete Amazon für AWS in den nächsten Jahren 7,8
Milliarden Euro in eine weitgehend unabhängige European Cloud investieren zu
wollen.
FAQ zu Cloud Services und GenAI
Warum gewinnen Cloud Services strategisch an Bedeutung?
Cloud Services bilden das Fundament für digitale Geschäftsmodelle und sind zentrale Plattform für GenAI-Anwendungen mit sensiblen Unternehmensdaten.
Was spricht für eine Multicloud-Strategie?
Multicloud erhöht Flexibilität und Resilienz, bringt jedoch höhere Komplexität, steigenden Verwaltungsaufwand und zusätzliche Engineering-Anforderungen mit sich.
Welche Rolle spielt Datensouveränität bei Cloud Services?
Aspekte wie Regulatorik, Schutz vor Datenabfluss und Lock-in-Risiken rücken stärker in den Fokus und beeinflussen die Wahl der Anbieter und Architekturen.
Warum wird die Repatriierung von Cloud-Workloads diskutiert?
Kostenstrukturen, stabile Lastprofile und geopolitische Unsicherheiten führen dazu, dass Unternehmen Teile ihrer Public-Cloud-Lasten zurück in eigene oder private Umgebungen verlagern.