Digitale soevereiniteit, gegevensbescherming en technologische onafhankelijkheid bepalen hoe veilig en verantwoord kunstmatige intelligentie (AI) kan worden gebruikt. T-Systems laat zien waarom soevereine AI veel verder gaat dan de cloud - en hoe bedrijven kunnen profiteren van Europese, op waarde gebaseerde AI.
Digitale soevereiniteit is al lang meer dan een modewoord. Sinds de Amerikaanse Patriot Act (2001), de Snowden-onthullingen (2013) en de Amerikaanse Cloud Act (2018) staat Europa voor de centrale vraag: hoe kunnen we controle houden over onze gegevens, technologieën en infrastructuren? Sinds de publicatie van ChatGPT heeft AI zich ontwikkeld van een onderzoeksgebied tot een alledaags sociaal en economisch onderwerp. Met deze nieuwe relevantie groeit ook het bewustzijn van risico's - van geopolitieke afhankelijkheden tot regelgevingsonzekerheden. Vooral in tijden van wereldwijde crises, verstoorde toeleveringsketens en digitale monopolies blijkt dat soevereiniteit geen optie is, maar een voorwaarde voor veerkracht.
Soevereiniteit betekent controle en onafhankelijkheid - over gegevens, operaties en technologie. Kunstmatige intelligentie omvat veel meer dan alleen het model dat antwoorden genereert. Het bestaat uit een hele technologische laag: infrastructuur, gegevens, modellen, toepassingen en bedrijfsprocessen. Echte soevereiniteit in AI betekent daarom meer dan alleen het ontwikkelen van Europese modellen - het vereist controle over de hele digitale waardeketen. Europa is op sommige gebieden al goed gepositioneerd: met cloudinfrastructuren zoals de T Cloud zijn er betrouwbare platforms die onder EU-wetgeving werken en die AI-toepassingen veilig kunnen hosten. Europa stelt ook normen op het gebied van gegevensopslag, gegevensbescherming en governance met initiatieven zoals de EU AI Act en beveiligde dataruimtes. Maar gegevenssoevereiniteit houdt niet op bij Europese wetten - ze wordt ook beïnvloed door niet-Europese wettelijke kaders.
De "Clarifying Lawful Overseas Use of Data Act" (Cloud Act) verplicht Amerikaanse providers om gegevens vrij te geven als reactie op een officieel bevel, zelfs als deze zijn opgeslagen op servers buiten de VS. Voor Europese bedrijven betekent dit dat gegevens die zijn opgeslagen in een door de VS beheerde cloud mogelijk onder de Amerikaanse wetgeving kunnen vallen en dus onder de Amerikaanse Cloud Act. Dit staat haaks op de Europese ideeën over gegevensbescherming en soevereiniteit - en maakt duidelijk waarom het zo cruciaal is om onze eigen cloudinfrastructuren op te zetten die onder EU-wetgeving vallen.
Ook op andere gebieden blijft de afhankelijkheid groot: krachtige chips en GPU's komen voornamelijk van niet-Europese leveranciers en Amerikaanse en Aziatische spelers domineren ook in generatieve AI-modellen. Dat toont aan dat Europa op weg is, maar nog ver verwijderd is van volledige digitale soevereiniteit. Elk bedrijf dat AI gebruikt, moet zichzelf daarom belangrijke vragen stellen: Wie beheert mijn infrastructuur? Waar bevinden mijn gegevens zich? Hoe transparant en controleerbaar is mijn model? Als je deze vragen niet duidelijk kunt beantwoorden, heb je nog niet echt controle over je AI-omgeving - en dus ook niet over je digitale toekomst.
Soevereine AI betekent daarom:
Deze controle kan op verschillende manieren worden uitgeoefend - soevereiniteit is geen binair ja of nee, maar een kwestie van gradatie. Er kan een onderscheid worden gemaakt tussen drie niveaus:
Soevereiniteit in AI is daarom geen of/of, maar een schaal. Op het laagste niveau staan bedrijfseigen modellen die alleen via API's kunnen worden gebruikt, zoals GPT-4 of Claude. Het blijven zwarte dozen die werken op infrastructuur van derden. Zogenaamde "open-weight-modellen" zoals Llama 3 staan hier een stapje boven: ze bieden toegang tot modelgewichten en openen de eerste mogelijkheden voor aanpassing en hosting in Europa. Open source-modellen, waarvan de volledige broncode toegankelijk is, bieden nog meer controle. Als deze ook lokaal worden ontwikkeld, zoals Apertus van ETH Zürich en EPFL, wordt het hoogste niveau van soevereiniteit bereikt. Dit is het eerste generatieve model dat volledig voldoet aan de transparantievereisten van de EU AI Act. Een ander voorbeeld is Teuken-7B van het Fraunhofer-instituut - het eerste grote taalmodel dat in alle 24 officiële EU-talen is getraind. Dergelijke modellen vormen de kern van een echt Europees AI-landschap: open, transparant en waardegericht.
1. Politieke toegang tot gegevens - de zaak van het ICC (2025)
Toen het Internationaal Strafhof getroffen werd door Amerikaanse sancties en Microsoft het account van de hoofdaanklager blokkeerde, werd duidelijk: politieke inmenging in cloud-accounts kan instellingen lamleggen.
Realisatie: Europa is nog steeds afhankelijk van de Amerikaanse infrastructuren.
2. Volatiliteit van propriëtaire platforms - OpenAI stopt met GPT-4.5
Ontwikkelaars verloren van de ene op de andere dag API-toegang tot een van de krachtigste AI-modellen.
Realisatie: als centrale AI-platforms hun bedrijfsstrategie veranderen, worden Europese bedrijven operationeel afhankelijk.
3. Regelgeving als vestigingsfactor - Meta stopt Llama 4 in de EU
Vanwege de EU AI Act en de regelgeving voor gegevensbescherming heeft Meta besloten zijn nieuwe model niet in Europa aan te bieden.
Realisatie: regelgeving versterkt de gegevensbescherming, maar kan ook de innovatie afremmen als deze niet gepaard gaat met technologische soevereiniteit.
4. Afhankelijkheid van de toeleveringsketen en chip-soevereiniteit - het geval Nexperia
Supply bottlenecks bij de Nederlandse chipfabrikant Nexperia laten zien dat 91% van de bedrijven in de productie-, IT- en telecommunicatiesector in Duitsland hun chips nog steeds voornamelijk uit de VS of China betrekken.
Realisatie: zonder onafhankelijke chip- en hardwareproductie zal Europa afhankelijk blijven van externe toeleveringsketens.
De volgende gebeurtenissen hebben de discussie over soevereiniteit centraal gesteld in het Europese technologiebeleid:
De Amerikaanse Patriot Act - wereldwijde surveillance en extraterritoriaal gebruik van gegevens
De Snowden-onthullingen - bewustzijn van gegevenssoevereiniteit
AVG vs. Cloud Act VS - conflict tussen twee rechtsgebieden
Pandemie, chipcrisis - lever-afhankelijkheid en technologische kwetsbaarheid
Oekraïne-oorlog, energiecrisis, AI-regulering - soevereiniteit is uitgekristalliseerd als het strategische doel van Europa
Europa heeft besloten zijn eigen weg te gaan - met duidelijke regels, transparantie en ethische richtlijnen. Met initiatieven zoals Gaia-X, de EU Chips Act en grote investeringen in infrastructuur en AI ("Made for Germany") legt de EU de basis voor een zelfgekozen digitale toekomst.
De uitdaging: de balans tussen soevereiniteit, kosten en functionaliteit - de zogenaamde "Triangle of Needs". Hoe meer controle bedrijven op zich nemen, hoe groter de inspanning en de complexiteit. De juiste mix hangt af van de betreffende use case - een chatbot die alleen toegang heeft tot openbare gegevens vereist minder soevereiniteit dan een veiligheidskritisch AI-systeem in de gezondheidszorg.
Soevereiniteit is geen binair ja of nee, maar een kwestie van gradatie.
Dr. Maja-Olivia Himmer, AI & Sovereignty Strategy Lead bij T-Systems
T-Systems begeleidt bedrijven op hun weg naar soevereine AI met een end-to-end benadering - van gegevensverbinding tot modelbewaking.
Een soeverein AI-landschap combineert Europese waarden, transparantie en controle met innovatieve kracht. Soevereiniteit betekent niet isolement, maar vrijheid van organisatie - het schept vertrouwen, vermindert afhankelijkheden en versterkt zo het concurrentievermogen van Europa. Het is van cruciaal belang om AI te ontwikkelen in overeenstemming met onze waarden en tegelijkertijd de technologische dynamiek te behouden die nodig is voor de toekomst van Europa. Europa heeft de kans om een pionier te worden op het gebied van verantwoorde, veilige en efficiënte AI - als het erin slaagt om een focus op waarden te combineren met innovatiekracht.