Buscar
Cinco cubos sobre fondo amarillo con las letras TRUST

Más que tecnología

Por qué la confianza es decisiva para el éxito de la inteligencia artificial

22-oct-2025Dr. Frank Wisselink

Las dos caras de la moneda

La inteligencia artificial (IA) ya forma parte de nuestra vida cotidiana desde hace tiempo. Tanto en diagnósticos médicos como en atención al cliente o traducción de textos, los sistemas de IA asumen cada vez más tareas. Sin embargo, este avance también implica una responsabilidad creciente de las personas en su desarrollo y uso, porque la IA puede ayudar, sí, pero también puede causar daños —por ejemplo, a través de decisiones discriminatorias, procesos opacos o un manejo inseguro de los datos.  

La confianza como factor de éxito

Según un estudio de Ernst & Young1, alrededor de una cuarta parte de los alemanes no verifica los resultados que les proporciona la IA, confían ciegamente en el sistema. En todo el mundo, la cifra ronda el 30 %.

La confianza es un pilar fundamental en el ámbito de la inteligencia artificial, puesto que constituye la base de la aceptación, la seguridad y el uso responsable. Confiar en la IA no es algo que «estaría bien tener», sino una condición imprescindible. Esa confianza determina si los sistemas de IA son aceptados, utilizados y desarrollados, o si, por el contrario, encuentran resistencia. Por tanto, una IA fiable no es solo un ideal ético, es un factor estratégico de éxito. 

Las normas internacionales establecen el marco

Durante la última década, la Comisión Europea ha trabajado activamente en el desarrollo de condiciones marco para una IA fiable, impulsando en 2018 las «Directrices éticas para una IA fiable»2. Estas directrices, basadas en los derechos fundamentales, definen cuatro principios éticos esenciales: respeto de la autonomía humana, prevención de daños, equidad y explicabilidad. Además, proponen siete requisitos para la implantación y materialización de una IA fiable. En conjunto, todos estos principios sientan las bases para una inteligencia artificial que no solo sea eficaz, sino también socialmente aceptada. 

Primacía de la acción humana y la supervisión humana

Los sistemas de IA deben respaldar la autonomía y la capacidad de decisión humanas. Esto implica que deben servir a una sociedad democrática, próspera y justa, y permitir siempre la supervisión por parte de las personas.

Robustez técnica y seguridad

La robustez técnica exige desarrollar los sistemas de IA con un enfoque preventivo frente a los riesgos, garantizando que actúen de forma fiable según su propósito. Este principio también debe aplicarse a entornos operativos cambiantes o ante la influencia de otras fuerzas externas.

Protección de la privacidad y gestión de la calidad de los datos

Proteger la privacidad de las personas implica una adecuada gestión de la calidad de los datos cuando se utilizan sistemas de IA. 

Transparencia

Los sistemas de IA deben operar siempre de forma comprensible y explicable, tanto en lo referente a los datos y al sistema como al modelo de negocio que los sustenta.

Diversidad, no discriminación y equidad

Para que una IA sea realmente fiable, es clave garantizar la inclusión y la diversidad durante todo su ciclo de vida. Esto significa involucrar a todas las partes interesadas y garantizar su acceso en igualdad de condiciones.

Bienestar social y ecológico

Durante todo el ciclo de vida de la IA deben considerarse tanto los aspectos sociales como los medioambientales. Es imprescindible fomentar la sostenibilidad y la responsabilidad ecológica, además de impulsar la investigación de soluciones de IA orientadas a los grandes retos mundiales. En un escenario ideal, la IA debería utilizarse en beneficio de las personas, incluidas las generaciones futuras.

Responsabilidad

Es esencial adoptar medidas que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados, tanto antes como después de su implementación.

Retrato del Dr. Frank Wisselink, director ejecutivo de productos y proyectos de IA

La confianza en la inteligencia artificial no es un lujo, sino una necesidad estratégica.

Dr. Frank Wisselink, director ejecutivo de productos y proyectos de IA en T-Systems

Directrices de IA de Deutsche Telekom

Mediante sus propias directrices de IA, Deutsche Telekom implantó ya en 2018 prácticamente todos los principios establecidos por la Comisión Europea, porque la confianza también es uno de los pilares fundamentales del negocio de la compañía. Estas directrices fueron entonces, y siguen siendo hoy, ejemplares:

  1. Asumimos nuestra responsabilidad: 
    hemos definido claramente quiénes son los responsables dentro de la empresa
  2. Manejamos la IA con cuidado: 
    sometemos nuestros sistemas de IA a la ley y al derecho
  3. Ponemos a nuestros clientes en el centro: 
    queremos que la IA simplifique y enriquezca la vida de nuestros clientes
  4. Apostamos por la transparencia: 
    informamos siempre sobre cuándo un cliente interactúa con un sistema de IA y cómo utilizamos sus datos
  5. Ofrecemos seguridad: 
    protegemos y aseguramos los datos de nuestros clientes
  6. Sentamos las bases: 
    comprobamos y evaluamos los datos empleados en el desarrollo y mejora de nuestra IA
  7. Mantenemos una visión general: 
    podemos intervenir en los sistemas de IA en cualquier momento para evitar daños
  8. Vivimos el modelo de cooperación: 
    ponemos a las personas en primer lugar, aunque también reconocemos el valor de la interacción entre humanos y máquinas
  9. Compartimos y explicamos: 
    queremos ampliar y hacer accesibles los conocimientos y competencias técnicas sobre IA

Durante más de siete años, Deutsche Telekom ha concedido una importancia clave a la fiabilidad de la inteligencia artificial. Sus directrices se aplican de forma práctica y están integradas en las estructuras y procesos de gobernanza de la compañía. Entre estos procesos se incluyen, por ejemplo, el proceso de privacidad y seguridad, y la evaluación de la ética digital desarrollada específicamente por la empresa. La evaluación de la ética digital es un procedimiento estandarizado en toda Deutsche Telekom al que deben someterse obligatoriamente todos los sistemas de IA de la empresa. Este proceso registra y revisa de manera centralizada todos los casos de uso y modelos de IA.

Confianza frente a presión por innovar

Aplicar principios y directrices para una IA fiable no es una tarea sencilla. Desde el punto de vista técnico, muchos modelos funcionan como auténticas «cajas negras» cuyas decisiones son difíciles de interpretar. La explicabilidad de los modelos de aprendizaje profundo sigue siendo un desafío hoy en día.

A esto se suma que gran parte de la sociedad carece de conocimientos técnicos sobre IA, lo que alimenta la incertidumbre y la desconfianza. Al mismo tiempo, las empresas sienten presión por innovar: la necesidad de lanzar productos al mercado rápidamente y mantener la ventaja competitiva suele entrar en conflicto con las normas éticas y los requisitos regulatorios.

Desde la perspectiva económica, la IA fiable tampoco garantiza el éxito inmediato. Desarrollar sistemas transparentes, justos y seguros exige tiempo, recursos y conocimientos interdisciplinarios. Sin embargo, en mi opinión, es un esfuerzo que merece la pena a largo plazo. 

La Ley de IA de la UE ofrece seguridad y confianza

Con la Ley de IA de la UE, la Comisión Europea dio un paso más en 2024 hacia una regulación que fomenta la confianza. Esta normativa establece, por primera vez, un marco jurídico completo para la IA en Europa. No solo aporta seguridad jurídica, sino también confianza, tanto a empresas como a usuarios.
 

La confianza es la base del progreso

Una IA fiable no es una función opcional, sino un requisito esencial para la innovación sostenible. Diseñar sistemas de IA de forma responsable es posible, pero requiere principios claros, directrices regulatorias y, sobre todo, la voluntad real de aplicarlas.

El futuro de la inteligencia artificial no se decide únicamente en los centros de datos, sino con la cuestión, de si podemos confiar en ella. 

También podría interesarte

Especial

Información sobre el autor
Retrato del Dr. Frank Wisselink, director ejecutivo de productos y proyectos de IA

Dr. Frank Wisselink

Director ejecutivo de productos y proyectos de inteligencia artificial, T-Systems International GmbH

Todos los artículos y perfil del autor

Esperamos tu opinión

¿Tienes alguna idea, sugerencia o pregunta sobre este tema? Te invitamos cordialmente a intercambiar ideas con nosotros. ¡Ponte en contacto con nosotros!

Referencias

1 Estudio de EY «AI Sentiment Index 2025»: https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025 

2 Comisión Europea: Directrices éticas para una IA fiable https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai  

Do you visit t-systems.com outside of Spain? Visit the local website for more information and offers for your country.