Suchen
Nahaufnahme eines Schmieds in einer Schürze, der in seiner Werkstatt mit Hammer und Eisen arbeitet

Wir schmieden den Deutschland-Stack

Industrielle KI-Anwendungen für Europa – „Made in Germany“, sicher und souverän

20. Jänner 2026Dr. Ferri Abolhassan

Interview

Im Mittelpunkt des Gesprächs mit Jürgen Hill, Redakteur beim CIO-Magazin, steht unsere Industrial AI Cloud, die wir gemeinsam mit NVIDIA, SAP und Siemens Anfang Februar in München eröffnen. Wie wird sie in unsere T Cloud-Familie integriert? Welche Vorteile hat sie gegenüber den großen US-Anbietern? Und worin liegt der eigentliche Clou? Das und mehr gibt es im Interview hier die wichtigsten Auszüge daraus:

Feinjustierung von Produktionsprozessen

Als wir im Mai diskutierten, war für Sie unter anderem Souveränität ein großes Thema. Heute, sechs Monate später, haben der deutsch-französische Digitalgipfel in Berlin und die Marktentwicklungen gezeigt, dass dieses Thema im absoluten Fokus steht. Werden Sie mit Industrial AI wieder zum Agenda-Setter?

Das ist eine spannende Frage. Wir sind fest davon überzeugt, dass es in Deutschland – als Fertigungs- und Prozessland – einen ungedeckten Bedarf für industrielle KI-Lösungen gibt. Während die Consumer-KI, wie etwa das deutsche Projekt SOOFI (Sovereign Open Source Foundation Models) Sprachmodelle für den täglichen Gebrauch bereitstellt, konzentriert sich die Industrial Cloud auf die Feinjustierung von Produktionsprozessen.

KI-Rechenpower in München

IM-Hub-for-the-German-industrial-stack

Wie positionieren Sie in diesem Kontext die neue Industrial AI Cloud? Ist sie nur ein weiteres Cloud-Angebot neben den vielen anderen im Konzern?

Zunächst ist unsere sichere und souveräne T Cloud, eine Multi Cloud, mit 7.000 B2B-Kunden klar etabliert. Die Industrial AI Cloud kann als eigenständiger Teil der T Cloud-Familie betrachtet werden. Unsere strategische Ausrichtung ist dabei klar: Wir adressieren primär die Segmente Public, Health, Defense und Automotive. Erst im Oktober haben wir unsere Health-Aktivitäten mit der Übernahme des österreichischen IT-Klinik-Spezialisten synedra gestärkt. Der Automotive-Bereich bleibt ohnehin eine Kernkompetenz von uns.

Mit Blick auf die Industrial AI Cloud – Sie haben erst kürzlich ein industrielles KI-Zentrum für München angekündigt. Was genau erwartet uns dort?

Wir haben uns dazu entschieden, nicht länger abzuwarten, sondern das Heft selbst in die Hand zu nehmen. Das tun wir gemeinsam mit Partnern wie NVIDIA und SAP. Im ersten Quartal 2026 werden wir in München das erste tatsächliche industrielle KI-Rechenzentrum Deutschlands live schalten. Dieses Zentrum wird mit den neuesten Blackwell-Chips – vom Typ DGX B200 und RTX Pro 6000 von NVIDIA – ausgestattet sein. In Summe rund 10.000 GPUs.

Die großen US-Anbieter werben mit ihrer sofortigen Skalierbarkeit. Viele Anwender loben zwar die deutschen Souveränitätsangebote, bemängeln aber, dass die Amerikaner im Gegensatz dazu sofort und skaliert liefern können.

Das ist eine harte These. Wir bieten nicht nur Hardware-as-a-Service, sondern tatsächlich KI-as-a-Service. Dazu offerieren wir einen kompletten KI-Stack – den Deutschland-Stack – von der Konnektivität bis zur Bodenplatte, einschließlich Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS). Wir sind ein deutscher Provider mit deutscher Konnektivität, deutscher Betriebsmannschaft und deutschem Sicherheitsmodell. Alle Daten bleiben in Deutschland. Und wir sind da, wir liefern jetzt. Schon im Februar nehmen wir unsere KI-Fabrik in Betrieb. Das ist ein entscheidender Unterschied zu reinen Ankündigungen. Die Zeit ist ein Wettbewerbsvorteil, und wir wollten früh am Markt sein – als “First Mover” im Bereich Industrial AI.

Ferri Abolhassan, CEO T-Systems und Mitglied des Vorstands Deutsche Telekom

Die Partnerschaft mit SAP ist der eigentliche Clou. Damit decken wir den gesamten Stack bis zu Software-as-a-Service (SaaS) ab.

Dr. Ferri Abolhassan, CEO T-Systems und Vorstandsmitglied Deutsche Telekom

Wie wichtig ist die Zusammenarbeit mit SAP?

Die Partnerschaft mit SAP ist der eigentliche Clou. Alle blicken auf die Partnerschaft von Telekom und NVIDIA. Aber Telekom und SAP – das ist der Coup. Denn damit decken wir den gesamten Stack bis zu Software as a Service (SaaS) ab. Wir sind nicht der Großhändler für NVIDIA, sondern die Drehscheibe für den deutschen Industrie-Stack. Wir bieten einen kompletten KI-Stack einschließlich IaaS plus, mit SAP BTP (Business Technology Platform) und Software as a Service. Dies ermöglicht es uns, nicht nur nackte Rechenleistung zur Verfügung zu stellen, sondern Mittelständler an die Hand zu nehmen.

Sie betonen den industriellen Fokus. Wie unterscheiden sich die Use Cases der industriellen KI von klassischen IT- oder Consumer-Anwendungen, wie Chatbots?

Sie sprechen da einen Kernpunkt an. Es geht nicht darum, KI für Chatbots zu entwickeln. Es wäre rausgeschmissenes Geld, nur darauf abzuzielen, die Amerikaner im Bereich allgemeiner KI, wie Chatbots, nachzuahmen. Vielmehr benötigen wir KI für Produktionsprozesse, um Wertschöpfung nach Deutschland zurückzuholen.

Das heißt jetzt nicht, dass wir uns der Consumer-Welt verschließen. So arbeiten wir mit der Universität Hannover zusammen und betreiben das deutsche Sprachmodell SOOFI, das für Europa als Basis für eigene KI-Anwendungen dienen soll. Und dann gibt es noch unsere Partnerschaft mit Perplexity. Aber der industrielle Bereich ist anders. Bei industriellen KI-Anwendungen sprechen wir über Predictive Maintenance, Robotik oder Produktionsoptimierung.

Welche Konsequenz hat das?

Industrielle KI arbeitet mit sehr viel komplexeren Datenvektoren. In Analogie zur Mathematik könnte man es als den Übergang von Integer zu reellen Zahlen bezeichnen. Sie benötigen in der Ingenieurswissenschaft die Nachkomma-Genauigkeit und nicht nur die Granularität eines Sprachmodells. Deswegen ist die Fokussierung auf die Industrie unser Alleinstellungsmerkmal als First Mover.

Von Rasse- und Arbeitspferden

IM-First-Mover

Also ist die Industrial AI Cloud beziehungsweise das KI-Rechenzentrum der Ort für das Trainieren und Lernen von KI-Modellen für industrielle Anwendungen? Wie sieht es mit dem späteren Produktivbetrieb aus?

Korrekt. Unsere KI-Fabrik in München sehen wir mehr für die Trainings- und Lernphase. Der spätere eigentliche Compute-Betrieb, wenn also die KI-Anwendungen in den praktischen Einsatz gehen, erfolgt dann wahrscheinlich im Edge oder in unseren klassischen Rechenzentren. Sprich, wir übertragen die trainierten Modelle von den Hochleistungschips in unseren Münchnern AI Pods (den “Rassepferden”) auf normale CPU-Rechenzentren (die „Arbeitspferde“).

Ihre Story klingt logisch und schlüssig. Aber was passiert, wenn die US-Hyperscaler mit ihrer Investitionsmacht auf den Industrial-AI-Zug aufspringen. Haben Sie keine Angst, unter die Räder zu kommen?

Wir haben uns kaufmännisch sauber aufgestellt und sind in der Lage nachzurüsten. Unsere KI-Fabrik ist ausbaubar: Die Rechenleistung können wir schnell verdoppeln oder sogar vervierfachen. Zudem haben wir in München ein weiteres Rechenzentrum in der Hinterhand. Innerhalb eines Jahres sind wir in der Lage, ein weiteres, spezialisiertes AI Data Center hinzufügen, falls der Markt dies verlangt.

Dieser Text ist ein Auszug mit freundlicher Genehmigung des Verlags. Das vollständige Interview lesen Sie hier auf cio.de.

Das könnte Sie auch interessieren

Special

Zur Person
Ferri Abolhassan, CEO T-Systems und Mitglied des Vorstands Deutsche Telekom

Dr. Ferri Abolhassan

CEO T-Systems International GmbH und Vorstandsmitglied Deutsche Telekom AG

Profil und alle Artikel ansehen

Wir freuen uns auf Ihr Projekt!

Gern stellen wir Ihnen passende Expert:innen zur Seite und beantworten Ihre Fragen rund um Planung, Implementierung und Wartung Ihrer Digitalisierungsvorhaben. Sprechen Sie uns an!

Dieser Text ist ein Auszug mit freundlicher Genehmigung des Verlags. Das vollständige Interview lesen Sie hier auf cio.de.

Besuchen Sie t-systems.com außerhalb von Austria? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.