Digitale Souveränität, Datenschutz sowie technologische Unabhängigkeit bestimmen, wie sicher und verantwortungsvoll Künstliche Intelligenz (KI) eingesetzt werden kann. T-Systems zeigt, warum souveräne KI weit über die Cloud hinausgeht – und wie Unternehmen von einer europäischen, wertebasierten KI profitieren.
Digitale Souveränität ist längst mehr als nur ein Schlagwort. Seit dem US Patriot Act (2001), den Snowden-Enthüllungen (2013) und dem US Cloud Act (2018) steht Europa vor der zentralen Frage: Wie können wir die Kontrolle über unsere Daten, Technologien und Infrastrukturen behalten? Spätestens seit der Veröffentlichung von ChatGPT hat sich KI vom Forschungsfeld zum gesellschaftlichen und wirtschaftlichen Alltagsthema entwickelt. Mit dieser neuen Relevanz wächst zugleich auch das Bewusstsein für Risiken – von geopolitischen Abhängigkeiten bis hin zu regulatorischen Unsicherheiten. Gerade in Zeiten globaler Krisen, gestörter Lieferketten und digitaler Monopole zeigt sich: Souveränität ist keine Option, sondern Voraussetzung für Resilienz.
Souveränität bedeutet Kontrolle und Unabhängigkeit – über Daten, Betrieb und Technologie. Künstliche Intelligenz umfasst weit mehr als nur das Modell, das Antworten generiert. Sie besteht aus einer gesamten technologischen Schicht: Infrastruktur, Daten, Modellen, Anwendungen und Betriebsprozessen. Echte Souveränität in der KI bedeutet daher mehr als nur europäische Modelle zu entwickeln – sie erfordert Kontrolle über die gesamte digitale Wertschöpfungskette. In einigen Bereichen ist Europa bereits gut aufgestellt: Mit Cloud-Infrastrukturen wie der T Cloud existieren vertrauenswürdige, unter EU-Recht betriebene Plattformen, die KI-Anwendungen sicher hosten können. Auch bei Datenhaltung, Datenschutz und Governance setzt Europa mit Initiativen wie dem EU AI Act und sicheren Datenräumen Maßstäbe. Doch Datensouveränität endet nicht bei europäischen Gesetzen – sie wird auch durch außereuropäische Rechtsrahmen beeinflusst.
Der „Clarifying Lawful Overseas Use of Data Act“ (Cloud Act) verpflichtet US-Anbieter, auf behördliche Anordnung hin Daten offenzulegen – selbst dann, wenn diese auf Servern außerhalb der USA gespeichert sind. Für europäische Unternehmen bedeutet das: Daten, die in einer US-geführten Cloud liegen, können potenziell unter amerikanisches Recht und somit unter den US Cloud Act fallen. Das steht im Widerspruch zu den europäischen Vorstellungen von Datenschutz sowie Souveränität – und macht deutlich, warum der Aufbau eigener, unter EU-Recht betriebener Cloud-Infrastrukturen so entscheidend ist.
Auch in anderen Bereichen bleibt die Abhängigkeit groß: Hochleistungs-Chips und GPUs stammen überwiegend von außereuropäischen Anbietern, und auch bei generativen KI-Modellen dominieren US-amerikanische und asiatische Player. Das zeigt: Europa ist auf dem Weg, aber noch weit von vollständiger digitaler Souveränität entfernt. Jedes Unternehmen, das KI einsetzt, sollte sich daher zentrale Fragen stellen: Wer betreibt meine Infrastruktur? Wo liegen meine Daten? Wie transparent und kontrollierbar ist mein Modell? Wer diese Fragen nicht klar beantworten kann, hat die Kontrolle über seine KI-Umgebung noch nicht wirklich erlangt – und damit auch nicht über seine digitale Zukunft.
Souveräne KI bedeutet daher:
Diese Kontrolle kann unterschiedlich stark ausgeprägt sein – Souveränität ist kein binäres Ja oder Nein, sondern eine Frage des Grades. Dabei lassen sich drei Ebenen unterscheiden:
Souveränität in KI ist somit kein Entweder/Oder, sondern eine Skala. Auf der niedrigsten Stufe stehen proprietäre Modelle, die nur über APIs nutzbar sind – wie GPT-4 oder Claude. Sie bleiben Black Boxes, betrieben auf fremder Infrastruktur. Eine Stufe darüber liegen sogenannte „Open-Weight-Modelle“ wie Llama 3: Sie ermöglichen den Zugriff auf Modellgewichte und eröffnen erste Möglichkeiten zur Anpassung sowie zum Hosting in Europa. Noch mehr Kontrolle bieten Open-Source-Modelle, deren kompletter Quellcode zugänglich ist. Sind diese dann auch noch lokal entwickelt, wie Apertus von der ETH Zürich und der EPFL, ist die höchste Souveränitätsstufe erreicht. Dieses gilt als das erste generative Modell, das vollständig den Transparenzanforderungen des EU AI Act entspricht. Ein weiteres Beispiel ist Teuken-7B vom Fraunhofer-Institut – das erste Large Language Model, das in allen 24 EU-Amtssprachen trainiert wurde. Solche Modelle bilden den Kern einer wirklich europäischen KI-Landschaft: offen, nachvollziehbar und wertebasiert.
1. Politischer Zugriff auf Daten – der Fall ICC (2025)
Als der Internationale Strafgerichtshof von US-Sanktionen betroffen war und Microsoft das Konto seines Chefanklägers sperrte, wurde deutlich: Politische Eingriffe in Cloud-Konten können Institutionen lahmlegen.
Erkenntnis: Europa ist nach wie vor abhängig von US-Infrastrukturen.
2. Volatilität proprietärer Plattformen – OpenAI stellt GPT-4.5 ein
Entwickler verloren über Nacht den API-Zugang zu einem der leistungsfähigsten KI-Modelle.
Erkenntnis: Wenn zentrale KI-Plattformen ihre Geschäftsstrategie ändern, geraten europäische Unternehmen in operative Abhängigkeit.
3. Regulierung als Standortfaktor – Meta stoppt Llama 4 in der EU
Aufgrund des EU AI Acts und datenschutzrechtlicher Vorgaben entschied Meta, sein neues Modell in Europa nicht anzubieten.
Erkenntnis: Regulierung stärkt Datenschutz – kann aber auch Innovation verlangsamen, wenn sie nicht von eigener technologischer Souveränität begleitet wird.
4. Lieferkettenabhängigkeit und Chip-Souveränität – der Fall Nexperia
Lieferengpässe beim niederländischen Chiphersteller Nexperia zeigen, dass 91 % der Unternehmen im verarbeitenden Gewerbe sowie der IT- und Telekommunikation in Deutschland ihre Chips immer noch vorwiegend aus den USA oder China beziehen.
Erkenntnis: Ohne unabhängige Chip- und Hardwareproduktion bleibt Europa von externen Lieferketten abhängig.
Die folgenden Ereignisse haben die Diskussion um Souveränität in den Mittelpunkt der europäischen Technologiepolitik gerückt:
Der US-Patriot Act – globale Überwachung und extraterritoriale Datennutzung
Die Snowden-Enthüllungen – Bewusstsein für Datensouveränität
DSGVO vs. US Cloud Act – Konflikt zweier Rechtsräume
Pandemie, Chipkrise – Lieferabhängigkeiten und technologische Verwundbarkeit
Ukrainekrieg, Energiekrise, KI-Verordnung – Souveränität hat sich als strategisches Ziel Europas herauskristallisiert
Europa hat sich entschieden, seinen eigenen Weg zu gehen – mit klaren Regeln, Transparenz und ethischen Leitplanken. Mit Initiativen wie Gaia-X , dem EU Chips Act sowie massiven Investitionen in Infrastruktur und KI („Made for Germany“) legt die EU die Basis für eine selbstbestimmte digitale Zukunft.
Die Herausforderung: das Gleichgewicht zwischen Souveränität, Kosten und Funktionalität – das sogenannte „Triangle of Needs“. Je mehr Kontrolle Unternehmen übernehmen, desto höher sind Aufwand und Komplexität. Der richtige Mix hängt vom jeweiligen Anwendungsfall ab – ein Chatbot, der nur auf öffentliche Daten zugreift, braucht weniger Souveränität als ein sicherheitskritisches KI-System in der Gesundheitsbranche.
Souveränität ist kein binäres Ja oder Nein, sondern eine Frage des Grades.
Dr. Maja-Olivia Himmer, AI & Sovereignty Strategy Lead bei T-Systems
T-Systems begleitet Unternehmen auf ihrem Weg zur souveränen KI mit einem End-to-End-Ansatz – von der Datenanbindung bis zur Modellüberwachung.
Eine souveräne KI-Landschaft vereint europäische Werte, Transparenz und Kontrolle mit Innovationskraft. Souveränität bedeutet dabei nicht Abschottung, sondern Gestaltungsfreiheit – sie schafft Vertrauen, verringert Abhängigkeiten und stärkt so die Wettbewerbsfähigkeit Europas. Entscheidend ist, KI im Einklang mit unseren Werten zu entwickeln und zugleich die technologische Dynamik zu bewahren, die für Europas Zukunft notwendig ist. Denn Europa hat die Chance, Vorreiter für eine verantwortungsvolle, sichere und leistungsfähige KI zu werden – wenn es gelingt, Werteorientierung und Innovationskraft zu verbinden.