La inteligencia artificial (IA) ya forma parte de nuestra vida cotidiana desde hace tiempo. Tanto en diagnósticos médicos como en atención al cliente o traducción de textos, los sistemas de IA asumen cada vez más tareas. Sin embargo, este avance también implica una responsabilidad creciente de las personas en su desarrollo y uso, porque la IA puede ayudar, sí, pero también puede causar daños —por ejemplo, a través de decisiones discriminatorias, procesos opacos o un manejo inseguro de los datos.
Según un estudio de Ernst & Young1, alrededor de una cuarta parte de los alemanes no verifica los resultados que les proporciona la IA, confían ciegamente en el sistema. En todo el mundo, la cifra ronda el 30 %.
La confianza es un pilar fundamental en el ámbito de la inteligencia artificial, puesto que constituye la base de la aceptación, la seguridad y el uso responsable. Confiar en la IA no es algo que «estaría bien tener», sino una condición imprescindible. Esa confianza determina si los sistemas de IA son aceptados, utilizados y desarrollados, o si, por el contrario, encuentran resistencia. Por tanto, una IA fiable no es solo un ideal ético, es un factor estratégico de éxito.
Durante la última década, la Comisión Europea ha trabajado activamente en el desarrollo de condiciones marco para una IA fiable, impulsando en 2018 las «Directrices éticas para una IA fiable»2. Estas directrices, basadas en los derechos fundamentales, definen cuatro principios éticos esenciales: respeto de la autonomía humana, prevención de daños, equidad y explicabilidad. Además, proponen siete requisitos para la implantación y materialización de una IA fiable. En conjunto, todos estos principios sientan las bases para una inteligencia artificial que no solo sea eficaz, sino también socialmente aceptada.
Los sistemas de IA deben respaldar la autonomía y la capacidad de decisión humanas. Esto implica que deben servir a una sociedad democrática, próspera y justa, y permitir siempre la supervisión por parte de las personas.
La robustez técnica exige desarrollar los sistemas de IA con un enfoque preventivo frente a los riesgos, garantizando que actúen de forma fiable según su propósito. Este principio también debe aplicarse a entornos operativos cambiantes o ante la influencia de otras fuerzas externas.
Proteger la privacidad de las personas implica una adecuada gestión de la calidad de los datos cuando se utilizan sistemas de IA.
Los sistemas de IA deben operar siempre de forma comprensible y explicable, tanto en lo referente a los datos y al sistema como al modelo de negocio que los sustenta.
Para que una IA sea realmente fiable, es clave garantizar la inclusión y la diversidad durante todo su ciclo de vida. Esto significa involucrar a todas las partes interesadas y garantizar su acceso en igualdad de condiciones.
Durante todo el ciclo de vida de la IA deben considerarse tanto los aspectos sociales como los medioambientales. Es imprescindible fomentar la sostenibilidad y la responsabilidad ecológica, además de impulsar la investigación de soluciones de IA orientadas a los grandes retos mundiales. En un escenario ideal, la IA debería utilizarse en beneficio de las personas, incluidas las generaciones futuras.
Es esencial adoptar medidas que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados, tanto antes como después de su implementación.
La confianza en la inteligencia artificial no es un lujo, sino una necesidad estratégica.
Dr. Frank Wisselink, director ejecutivo de productos y proyectos de IA en T-Systems
Mediante sus propias directrices de IA, Deutsche Telekom implantó ya en 2018 prácticamente todos los principios establecidos por la Comisión Europea, porque la confianza también es uno de los pilares fundamentales del negocio de la compañía. Estas directrices fueron entonces, y siguen siendo hoy, ejemplares:
Durante más de siete años, Deutsche Telekom ha concedido una importancia clave a la fiabilidad de la inteligencia artificial. Sus directrices se aplican de forma práctica y están integradas en las estructuras y procesos de gobernanza de la compañía. Entre estos procesos se incluyen, por ejemplo, el proceso de privacidad y seguridad, y la evaluación de la ética digital desarrollada específicamente por la empresa. La evaluación de la ética digital es un procedimiento estandarizado en toda Deutsche Telekom al que deben someterse obligatoriamente todos los sistemas de IA de la empresa. Este proceso registra y revisa de manera centralizada todos los casos de uso y modelos de IA.
Aplicar principios y directrices para una IA fiable no es una tarea sencilla. Desde el punto de vista técnico, muchos modelos funcionan como auténticas «cajas negras» cuyas decisiones son difíciles de interpretar. La explicabilidad de los modelos de aprendizaje profundo sigue siendo un desafío hoy en día.
A esto se suma que gran parte de la sociedad carece de conocimientos técnicos sobre IA, lo que alimenta la incertidumbre y la desconfianza. Al mismo tiempo, las empresas sienten presión por innovar: la necesidad de lanzar productos al mercado rápidamente y mantener la ventaja competitiva suele entrar en conflicto con las normas éticas y los requisitos regulatorios.
Desde la perspectiva económica, la IA fiable tampoco garantiza el éxito inmediato. Desarrollar sistemas transparentes, justos y seguros exige tiempo, recursos y conocimientos interdisciplinarios. Sin embargo, en mi opinión, es un esfuerzo que merece la pena a largo plazo.
Con la Ley de IA de la UE, la Comisión Europea dio un paso más en 2024 hacia una regulación que fomenta la confianza. Esta normativa establece, por primera vez, un marco jurídico completo para la IA en Europa. No solo aporta seguridad jurídica, sino también confianza, tanto a empresas como a usuarios.
Una IA fiable no es una función opcional, sino un requisito esencial para la innovación sostenible. Diseñar sistemas de IA de forma responsable es posible, pero requiere principios claros, directrices regulatorias y, sobre todo, la voluntad real de aplicarlas.
El futuro de la inteligencia artificial no se decide únicamente en los centros de datos, sino con la cuestión, de si podemos confiar en ella.
1 Estudio de EY «AI Sentiment Index 2025»: https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025
2 Comisión Europea: Directrices éticas para una IA fiable https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai