Hochsicherheitszentrum

Telekom und Nvidia eröffnen KI-Rechenzentrum in München

Mit Nvidia-Technologie, 10.000 GPUs und einem Invest von rund einer Milliarde Euro steigt die Telekom in die Spitzenklasse der KI-Infrastruktur auf – und setzt auf Datensouveränität, Industrie-Nähe und Nachhaltigkeit.

Veröffentlicht
Die Telekom eröffnet in München ein neues KI-Rechenzentrum - mit 10.000 Grafikprozessoren von Nvidia.
Die Telekom eröffnet in München ein neues KI-Rechenzentrum - mit 10.000 Grafikprozessoren von Nvidia.

Ein Einstieg in die KI-Infrastruktur-Liga der Großen

Die Deutsche Telekom will im großen Stil in den Aufbau und Betrieb von Rechenzentren für Künstliche Intelligenz (KI) einsteigen. Konzernchef Timotheus Höttges hatte den Start eines Gemeinschaftsprojektes mit dem US-Chipkonzern Nvidia bereits im vergangenen November angekündigt – jetzt folgt die Umsetzung. Gemeinsam mit Vizekanzler Lars Klingbeil (SPD) und Bayerns Ministerpräsident Markus Söder (CSU) eröffnet der Telekom-Chef das neue KI-Rechenzentrum in München.

Damit positioniert sich der Bonner Konzern nicht nur als Netzbetreiber, sondern zunehmend als Infrastruktur-Anbieter für eine Industrie, die KI nicht mehr als Experiment betrachtet, sondern als produktionsrelevante Schlüsseltechnologie. Wer KI in der Fertigung, im Engineering oder in der Logistik ernsthaft betreiben will, braucht Rechenleistung – und zwar verlässlich, skalierbar und in Reichweite.

Eine Milliarde Euro für 10.000 GPUs – und ein klarer Anspruch

Das Cloud-Rechenzentrum für Künstliche Intelligenz erfordert eine Investition von rund einer Milliarde Euro. Dafür werden 10.000 Grafikprozessoren von Nvidia angeschafft. Das ist nicht nur eine beeindruckende Zahl für deutsche Verhältnisse, sondern auch ein Signal: Die Telekom will bei KI-Infrastruktur nicht länger Zuschauer sein.

Zum Vergleich: Deutschlands größter Supercomputer Jupiter, der im Forschungszentrum in Jülich steht, verfügt über 24.000 Grafikprozessoren. Der Unterschied ist allerdings entscheidend: Während Supercomputer vor allem Forschung und wissenschaftliche Spitzenlasten bedienen, zielt das Telekom-Projekt auf industrielle Anwendungen, also auf KI-Workloads, die im Alltag laufen müssen – und zwar nicht irgendwann, sondern jetzt.

Warum es plötzlich so schnell ging: Keine grüne Wiese, sondern ein fertiges Fundament

Auffällig ist das Tempo: Zwischen Ankündigung und Start liegen nur wenige Monate. Der Grund ist pragmatisch – und typisch Telekom: Es wird nicht neu gebaut, sondern vorhandene Infrastruktur genutzt. Die Telekom zieht in ein komplett renoviertes, vorhandenes Rechenzentrum in München ein, das früher von der Hypovereinsbank betrieben wurde.

Von außen ist wenig zu sehen, da sich das Rechenzentrum über sechs unterirdische Stockwerte hin erstreckt. Das Gebäude gehört zum Büroquartier Tucherpark, das in den 60er Jahren direkt am Rande des Englischen Gartens errichtet wurde. Wer also auf einen futuristischen Glasbau gehofft hat, bekommt stattdessen das, was Rechenzentren in Wahrheit sind: viel Technik, wenig Show – und im besten Fall ein Betrieb, den man erst bemerkt, wenn er nicht funktioniert.

Abwärme, Eisbach und Fernwärme: Kühlung wird zum Standortfaktor

KI-Chips entwickeln eine enorme Hitze – und genau hier entscheidet sich, ob ein KI-Rechenzentrum wirtschaftlich und gesellschaftlich akzeptiert wird. Es stimmt: KI-Chips, insbesondere die Blackwell-GPUs von Nvidia, werden extrem heiß.

Die Telekom will zur Kühlung das kalte Wasser des direkt anliegenden Eisbachs verwenden: Die im Rechenzentrum entstehende Abwärme soll nicht nur einfach in das Bachwasser geleitet werden. Es gibt Pläne, diese Energie in das lokale Fernwärmenetz einzuspeisen, um das umliegende Quartier im Tucherpark zu beheizen.

Das ist mehr als ein grüner Nebensatz: Abwärmenutzung ist inzwischen ein handfester Hebel, um Rechenzentren in dicht besiedelten Regionen genehmigungsfähig zu halten. Denn KI-Rechenleistung ist nicht nur ein Digitalthema – sie ist ein Energie- und Wärmethema. Und wer in Zeiten hoher Strompreise und knapper Netze neue Großverbraucher ansiedelt, muss erklären können, was dabei für die Region herausspringt. Details zur Nachhaltigkeit des Abwärmekonzeptes werden auf einer Pressekonferenz am Mittag erwartet.

München als Industrie-Cluster: Latenz wird zum Argument

Warum München? Weil dort die Kundschaft sitzt – und weil KI-Anwendungen in der Industrie häufig nicht nur Rechenleistung, sondern auch kurze Reaktionszeiten brauchen. Die Wahl fiel auf München, da hier die Dichte an potenziellen Industriekunden hoch ist.

Telekom-Kunden und Partner wie Airbus, BMW, das KI-Unternehmen Perplexity oder Siemens sowie etliche Robotik-Start-ups wie Agile Robots benötigen geringe Datenlaufzeiten (Latenz) für ihre Anwendungen. Gerade bei Robotik, Echtzeit-Optimierung, Assistenzsystemen oder datenintensiven Simulationsläufen ist jede Verzögerung ein Kostenfaktor – oder im ungünstigsten Fall ein Qualitätsrisiko.

Durch die Platzierung der Rechner mitten in der Stadt – und nicht in einem entfernten Gewerbegebiet – kann die Telekom die Ansprüche der Unternehmen erfüllen. Das klingt nach Detail, ist aber in der Praxis ein harter Standortvorteil: Nähe zur Industrie ist bei KI nicht nur geografisch, sondern technisch messbar.

David gegen Goliath? Ja. Aber mit einem Geschäftsmodell, das passt

Ist der Wettbewerb mit großen US-Anbietern nicht wie ein Kampf zwischen David und Goliath? Auf den ersten Blick wirkt die Marktstellung der US-Giganten wie AWS (Amazon), Azure (Microsoft) oder Google Cloud erdrückend. Die großen US-Konzerne investieren jährlich ein Vielfaches von dem, was die Telekom in die Hand nehmen kann.

Trotzdem hat die Telekom im Wettbewerb eine Chance. Das liegt in der Tatsache begründet, dass der Bonner Konzern sich eine lukrative Nische im Cloud-Geschäft ausgesucht hat, nämlich das Bereitstellen von Hochsicherheitsrechenzentren in der Nähe der Industriebetriebe.

Das ist der entscheidende Punkt: Die Telekom muss nicht gewinnen, indem sie „größer“ ist. Sie muss gewinnen, indem sie „passender“ ist – für Unternehmen, die kritische Produktionsdaten, Entwicklungsgeheimnisse oder sicherheitsrelevante KI-Modelle nicht irgendwo im globalen Cloud-Universum parken wollen. Gerade im Maschinenbau und in der Automobilindustrie gilt: Wer die Daten kontrolliert, kontrolliert die Wertschöpfung.

Deutschland als Standortvorteil – und Standortproblem zugleich

Profitiert die Telekom vom Standort Deutschland? Ja und nein. Zum einen muss die Telekom in Deutschland mit höheren Kosten leben – vor allem für die Energieversorgung. Das ist keine Fußnote, sondern ein struktureller Wettbewerbsnachteil gegenüber Regionen mit günstigerer Energie und weniger regulatorischem Aufwand.

Allerdings kann sie hier das Stichwort "Datensouveränität" zum Geschäftsmodell aufwerten. Viele deutsche Unternehmen zögern nämlich, ihre sensiblen Daten in Cloudspeichern von US-Anbietern abzulegen. Die Telekom bietet hier eine "Souveräne Cloud" an, bei der die Daten physisch in Deutschland bleiben und unter europäischen und deutschen Recht stehen.

Bei den US-Anbietern dagegen besteht durch Gesetze wie den "US Cloud Act" zumindest theoretisch die Option eines Zugriffs durch US-Behörden. Das ist der juristische Elefant im Serverraum – und er wird in deutschen Vorstandsetagen regelmäßig größer eingeschätzt als die Frage, ob die GPU nun Blackwell oder Hopper heißt.

Was das für die Industrie bedeutet

Für die Industrie ist das Münchner KI-Rechenzentrum vor allem eines: ein neues Stück kritischer Infrastruktur. Wer KI produktiv nutzen will – von Predictive Maintenance bis zur Simulation komplexer Fertigungsprozesse – braucht Rechenleistung, kurze Latenzen und klare Compliance-Regeln. Genau darauf zielt die Telekom.

Und ja: Der Wettbewerb mit den US-Cloud-Riesen bleibt brutal. Aber die Telekom setzt nicht auf „Cloud um jeden Preis“, sondern auf eine Kombination aus Nähe, Sicherheit und Rechtsrahmen. Man könnte es auch so formulieren: Nicht jeder braucht den größten Werkzeugkasten – aber jeder braucht einen, der abschließbar ist.

Mit Material der dpa

FAQ zum neuen KI-Rechenzetrum der Telekom in München

  • Warum investiert die Telekom überhaupt in KI-Rechenzentren? - Weil KI-Anwendungen in der Industrie massiv wachsen – und dafür spezialisierte Rechenleistung benötigt wird. Wer diese Infrastruktur bereitstellt, sitzt strategisch nah an zukünftigen Wertschöpfungsketten.
  • Was bedeutet „10.000 GPUs“ in der Praxis? - Grafikprozessoren (GPUs) sind das Rückgrat moderner KI-Systeme. 10.000 Nvidia-GPUs ermöglichen das Training und den Betrieb großer Modelle sowie anspruchsvoller industrieller KI-Anwendungen – etwa in Simulation, Robotik oder Bildverarbeitung.
  • Warum ist der Standort mitten in München so wichtig? - Viele Anwendungen brauchen geringe Datenlaufzeiten (Latenz). Je näher Rechenzentrum und Industrieanwender beieinanderliegen, desto schneller können Daten verarbeitet und zurückgespielt werden – ein Vorteil für Echtzeit- und Produktionsszenarien.
  • Welche Rolle spielt Datensouveränität für deutsche Unternehmen? - Eine zentrale. Viele Firmen wollen sensible Daten nicht in Cloud-Umgebungen ablegen, bei denen – etwa durch den "US Cloud Act" – zumindest theoretisch ein Zugriff durch US-Behörden möglich ist. Die Telekom setzt deshalb auf eine "Souveräne Cloud" unter deutschem und europäischem Recht.
  • Was passiert mit der Abwärme des Rechenzentrums? - Die Telekom will zur Kühlung das Wasser des Eisbachs nutzen und plant, die entstehende Abwärme in das lokale Fernwärmenetz einzuspeisen, um das Quartier im Tucherpark zu beheizen. Details zum Konzept sollen auf einer Pressekonferenz folgen.