La soberanía digital, la protección de datos y la independencia tecnológica determinan la seguridad y la responsabilidad con la que se puede utilizar la inteligencia artificial (IA). T-Systems muestra por qué la IA soberana va mucho más allá del cloud y cómo las empresas se benefician de una IA europea basada en valores.
La soberanía digital lleva tiempo siendo mucho más que un simple eslogan. Desde la Ley Patriótica (2001) y la Ley CLOUD estadounidenses (2018), pasando por las revelaciones de Snowden (2013), Europa afronta una gran cuestión: ¿cómo mantener el control sobre sus datos, tecnologías e infraestructuras? Desde la aparición de ChatGPT, la IA ha dejado de ser un campo de investigación para convertirse en un tema central en la sociedad y la economía. Con esta nueva popularidad también aumenta la conciencia sobre los riesgos, como son las dependencias geopolíticas, las incertidumbres legales y los desafíos regulatorios. En un contexto de crisis globales, disrupciones en las cadenas de suministro y monopolios digitales, se entiende que la soberanía ha dejado de ser opcional para convertirse en un aspecto esencial para la resiliencia.
La soberanía implica control e independencia sobre los datos, las operaciones y la tecnología. La inteligencia artificial va mucho más allá de un modelo que genera resultados. Se compone de una capa completa con infraestructura, datos, modelos, aplicaciones y procesos operativos. Por eso, la soberanía real en IA no se limita a crear modelos europeos, sino que exige dominar toda la cadena de valor digital. Europa ya cuenta con una base sólida, conformada por infraestructuras cloud como T Cloud que ofrecen plataformas seguras, reguladas por la legislación de la UE y capaces de alojar aplicaciones de IA de manera fiable. Además, la UE está estableciendo pilares clave en almacenamiento, protección y gobernanza de datos con iniciativas como la Ley de IA europea y los espacios de datos seguros. Aun así, la soberanía de los datos va más allá de las leyes europeas, ya que también está condicionada por marcos legales internacionales.
La Ley CLOUD (Clarifying Lawful Overseas Use of Data Act) estadounidense obliga a los proveedores de este país a entregar datos a sus autoridades, incluso aunque esos datos se almacenen en servidores fuera de Estados Unidos. Esto implica que las empresas europeas que usen un cloud gestionado por proveedores estadounidenses también están sujetas a la legislación de Estados Unidos y a su Ley CLOUD. Este conflicto con los principios europeos de privacidad y soberanía demuestra la necesidad de crear infraestructuras cloud propias adheridas a la normativa de la UE.
La dependencia sigue siendo elevada en otros ámbitos: la mayoría de los chips de alto rendimiento y GPU proceden de proveedores no europeos, y los actores estadounidenses y asiáticos también dominan los modelos de IA generativa. Esto demuestra que Europa va por el buen camino, pero todavía está lejos de alcanzar la soberanía digital completa. Por lo tanto, toda empresa que utilice IA debería plantearse algunas preguntas fundamentales: ¿Quién gestiona mi infraestructura? ¿Dónde se encuentran mis datos? ¿Hasta qué punto es transparente y controlable mi modelo? Quien no pueda responder claramente a estas preguntas aún no ha alcanzado el control total sobre su entorno de IA y, por lo tanto, tampoco sobre su futuro digital.
Así pues, la IA soberana significa:
Este control puede tener diferentes grados de intensidad, ya que la soberanía no es una cuestión binaria de sí o no, sino una cuestión de grado. A este respecto, se pueden distinguir tres niveles:
La soberanía en la IA no es, por tanto, una cuestión de todo o nada, sino una escala. En el nivel más bajo se encuentran los modelos propietarios que solo se pueden utilizar a través de API, como GPT-4 o Claude. Estos siguen siendo cajas negras que funcionan en infraestructuras ajenas. Un nivel por encima de esto se encuentran los denominados «modelos de peso abierto», como Llama 3. Estos permiten acceder a los pesos de los modelos y abren las primeras posibilidades de personalización y alojamiento en Europa. Los modelos de código abierto, cuyo código fuente completo es accesible, ofrecen incluso un mayor control. Además, si se desarrollan a nivel local, como Apertus de la ETH de Zúrich y la EPFL, se alcanza el nivel más alto de soberanía. Este se considera el primer modelo generativo que cumple plenamente los requisitos de transparencia de la Ley de IA de la UE. Otro ejemplo es Teuken-7B, del Instituto Fraunhofer, el primer gran modelo de lenguaje entrenado en las 24 lenguas oficiales de la UE. Estos modelos constituyen el núcleo de un panorama de IA auténticamente europeo: abierto, comprensible y basado en valores.
1. Acceso político a los datos: el caso de la CPI (2025)
Cuando la Corte Penal Internacional se vio afectada por las sanciones de EE. UU. y Microsoft bloqueó la cuenta de su fiscal jefe, quedó claro que las injerencias políticas en las cuentas en el cloud pueden paralizar las instituciones.
Conclusión: Europa sigue dependiendo de las infraestructuras estadounidenses.
2. Volatilidad de las plataformas propietarias: OpenAI suspende GPT-4.5
Los desarrolladores perdieron de la noche a la mañana el acceso a la API de uno de los modelos de IA más potentes.
Conclusión: cuando las plataformas centrales de IA cambian su estrategia comercial, las empresas europeas se ven afectadas por la dependencia operativa.
3. La regulación como factor de localización: Meta suspende Llama 4 en la UE
Debido a la Ley de IA de la UE y a las normas de protección de datos, Meta decidió no ofrecer su nuevo modelo en Europa.
Conclusión: la regulación refuerza la protección de datos, pero también puede ralentizar la innovación si no va acompañada de una soberanía tecnológica propia.
4. Dependencia de la cadena de suministro y soberanía de los chips: el caso de Nexperia
Los cuellos de botella en el suministro del fabricante holandés de chips Nexperia demuestran que el 91 % de las empresas de los sectores manufacturero y de las tecnologías de la información y las telecomunicaciones en Alemania siguen adquiriendo sus chips principalmente de Estados Unidos o China.
Conclusión: sin una producción independiente de chips y hardware, Europa seguirá dependiendo de cadenas de suministro externas.
Los siguientes hitos han colocado el debate sobre la soberanía en el centro de la política tecnológica europea:
La Ley Patriota estadounidense: vigilancia global y uso extraterritorial de los datos
Las filtraciones de Snowden impulsaron la conciencia sobre la soberanía de los datos
RGPD vs. Ley del Cloud de Estados Unidos: dos marcos legales en colisión directa.
La pandemia y la crisis de los chips dejaron la dependencia tecnológica y la vulnerabilidad al descubierto
Guerra de Ucrania, crisis energética, reglamento sobre IA: la soberanía se ha convertido en un objetivo estratégico de Europa
Europa ha optado por seguir su propio rumbo, apostando por la transparencia, un conjunto de reglas claras y principios éticos. Iniciativas como Gaia-X, la Ley de Chips o los programas «Made for Germany» consolidan los cimientos de un futuro digital autónomo en Europa.
El reto: equilibrar soberanía, coste y funcionalidad; el denominado «triángulo de necesidades». Cuanto más control asumen las organizaciones, mayores son el esfuerzo y la complejidad a los que deben enfrentarse. El equilibrio ideal depende de las necesidades de cada empresa. Por ejemplo, un chatbot con datos públicos requiere menos soberanía que una IA crítica para la salud o la seguridad.
La soberanía no es una cuestión binaria de sí o no, sino una cuestión de grado.
La Dra. Maja-Olivia Himmer, directora de estrategia de IA y soberanía en T-Systems
T-Systems acompaña a las empresas en su transición hacia la IA soberana con un enfoque integral, que incluye desde la integración de los datos hasta la supervisión de los modelos.
Un ecosistema de IA soberano une los valores europeos, la transparencia y el control con la innovación. La soberanía no implica aislamiento, sino libertad para diseñar y decidir: fomenta la confianza, disminuye las dependencias y fortalece la competitividad europea. Es fundamental desarrollar la IA en consonancia con nuestros valores y, al mismo tiempo, preservar el dinamismo tecnológico necesario para el futuro de Europa. Europa tiene la oportunidad de convertirse en pionera en una IA responsable, segura y eficaz, siempre y cuando logre combinar la orientación hacia los valores y la capacidad de innovación.