Suchen
Fünf Würfel auf gelbem Grund mit den Buchstaben TRUST

Mehr als Technik

Warum Vertrauen über den Erfolg von Künstlicher Intelligenz entscheidet

22. Oktober 2025Dr. Frank Wisselink

Zwei Seiten einer Medaille

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags. Ob in der medizinischen Diagnostik, in der Kundenkommunikation oder bei der Übersetzung von Texten: KI-Systeme übernehmen zunehmend mehr Aufgaben. Doch mit dieser Entwicklung wächst auch die Verantwortung von uns Menschen beim Einsatz und der Entwicklung von KI. Denn KI kann nicht nur unterstützen, sondern auch Schaden anrichten – etwa durch diskriminierende Entscheidungen, intransparente Prozesse oder unsichere Datenverarbeitung.  

Vertrauen als Erfolgsfaktor

Laut einer Studie von Ernst & Young1 überprüft rund ein Viertel der Deutschen die Ergebnisse nicht, die eine KI ihnen liefert. Sie vertrauen dem KI-System quasi blind. Im Vergleich zu etwa 30 Prozent der Menschen weltweit.

Vertrauen ist im Kontext von Künstlicher Intelligenz zentral, weil es die Grundlage für Akzeptanz, Sicherheit und verantwortungsvolle Nutzung bildet. Vertrauen in KI ist kein „Nice-to-have“, sondern ein Must-have. Es entscheidet darüber, ob KI-Systeme akzeptiert, genutzt und weiterentwickelt werden – oder ob sie auf Widerstand stoßen. Vertrauenswürdige KI ist damit nicht nur ein ethisches Ideal, sondern ein strategischer Erfolgsfaktor. 

Internationale Standards setzen den Rahmen

Die Europäische Kommission hat sich im vergangenen Jahrzehnt mit den Rahmenvoraussetzungen vertrauenswürdiger KI beschäftigt und die Entwicklung von „Ethik-Leitlinien für eine vertrauenswürdige KI“ (2018)2 vorangetrieben. Diese Leitlinien basieren auf den Grundrechten und schlagen für den Umgang mit KI vier ethische Grundsätze vor: Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit. Darüber hinaus sollen sieben Anforderungen für die Umsetzung und Verwirklichung einer vertrauenswürdigen KI gelten. All diese Prinzipien bilden die Grundlage für eine KI, die nicht nur leistungsfähig ist, sondern auch gesellschaftlich akzeptiert wird. 

Vorrang menschlichen Handelns und menschliche Aufsicht

KI-Systeme sollten die menschliche Autonomie und Entscheidungsfindung unterstützen. Dies erfordert, dass KI-Systeme sowohl einer demokratischen, florierenden und gerechten Gesellschaft dienen, als auch die menschliche Aufsicht ermöglichen.

Technische Robustheit und Sicherheit

Die technische Robustheit erfordert, dass KI-Systeme mit einem präventiven Herangehen an Risiken entwickelt werden, sodass sie sich zuverlässig gemäß ihrer Bestimmung verhalten. Dies sollte auch für potenziell veränderte Betriebsumgebungen oder die Anwesenheit von anderen Kräften gelten.

Schutz der Privatsphäre und Datenqualitätsmanagement

Um die Privatsphäre der Menschen zu schützen, ist beim Einsatz von KI-Systemen ein angemessenes Datenqualitätsmanagement nötig. 

Transparenz

KI-Systeme müssen jederzeit nachvollziehbar und erklärbar arbeiten – sowohl in Bezug zu den Daten, dem System als auch dem zugrunde liegenden Geschäftsmodell.

Vielfalt, Nichtdiskriminierung und Fairness

Zur Schaffung einer vertrauenswürdigen KI müssen Inklusion und Vielfalt während des gesamten Lebenszyklus des KI-Systems garantiert sein. Das beinhaltet, dass alle betroffenen Interessenträger in den gesamten Prozess eingebunden sind und einen gleichberechtigten Zugang haben.

Gesellschaftliches und ökologisches Wohlergehen

Während des gesamten KI-Lebenszyklus sollten auch die Gesellschaft und die Umwelt berücksichtigt werden. Die Nachhaltigkeit und ökologische Verantwortung der KI-Systeme sollten gefördert werden und die Erforschung von KI-Lösungen in Bezug auf globale Herausforderungen. Im Idealfall sollte die KI zum Wohle aller Menschen, auch künftiger Generationen, eingesetzt werden.

Rechenschaftspflicht

Vorkehrungen müssen getroffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse vor und nach deren Umsetzung gewährleisten.

Portrait of Dr. Frank Wisselink, Executive Product and Project Manager for AI

Vertrauen in Künstliche Intelligenz ist kein Luxus, sondern eine strategische Notwendigkeit.

Dr. Frank Wisselink, Executive Produkt- und Projektmanager für KI bei T-Systems

KI-Leitlinien der Deutschen Telekom

Fast alle Prinzipien der Europäischen Kommission hat die Deutsche Telekom bereits 2018 mit ihren eigenen KI-Leitlinien umgesetzt. Denn Vertrauen ist auch einer der Grundpfeiler des Geschäfts der Deutschen Telekom. Diese Leitlinien waren schon damals – und sind es bis heute – beispielhaft:

  1. Wir übernehmen Verantwortung: 
    Wir haben klar definiert, wer bei uns verantwortlich ist
  2. Wir gehen sorgsam mit KI um: 
    Wir unterstellen unsere KI-Systeme Recht und Gesetz
  3. Wir stellen unsere Kunden in den Mittelpunkt: 
    Wir wollen, dass KI das Leben unserer Kunden vereinfacht und bereichert
  4. Wir stehen für Transparenz: 
    Wir sagen, wann ein Kunde mit KI kommuniziert und wie wir Kundendaten einsetzen
  5. Wir bieten Sicherheit: 
    Wir schützen und sichern die Daten unserer Kunden
  6. Wir legen das Fundament: 
    Wir prüfen und evaluieren Daten-Input für die Entwicklung und Verbesserung unserer KI
  7. Wir behalten den Überblick: 
    Wir können jederzeit in KI-Systeme eingreifen, um Schaden abzuwenden
  8. Wir leben das Kooperationsmodell: 
    Wir stellen den Menschen an erste Stelle. Wir sehen aber auch Vorteile in einer Mensch-Maschine-Interaktion
  9. Wir teilen und erklären: 
    Wir wollen das Wissen und die technischen Kompetenzen über KI erhöhen und zugänglich machen

Die Deutsche Telekom legt also schon seit über sieben Jahren großen Wert auf Vertrauenswürdigkeit von KI. Ihre KI-Leitlinien setzt die Deutsche Telekom in der Praxis um und hat sie in ihre Governance-Strukturen und -Prozesse integriert. Dazu gehören beispielweise der Privacy- und Security-Prozess und das eigens entwickelte Digital Ethics Assessment des Unternehmens. Bei dem Digital Ethics Assessment handelt es sich um ein in der gesamten Deutschen Telekom standardisiertes Verfahren, das alle KI-Systeme der Deutschen Telekom verpflichtend durchlaufen müssen. Es erfasst und prüft alle KI-Use Cases und -Modelle zentral.

Vertrauen versus Innovationsdruck

Die Umsetzung der Prinzipien und Leitlinien zu vertrauenswürdiger KI ist teilweise anspruchsvoll. Technisch gesehen sind viele KI-Modelle komplexe „Black Boxes“, deren Entscheidungen schwer nachvollziehbar sind. Die Erklärbarkeit von Deep-Learning-Modellen ist bis heute eine Herausforderung.

In der breiten Gesellschaft fehlt zudem oft das technische Verständnis für KI-Systeme – was Unsicherheit und Misstrauen fördert. Gleichzeitig stehen Unternehmen unter Innovationsdruck: Schnelle Markteinführung und Wettbewerbsvorteile stehen nicht selten im Konflikt mit ethischen Standards und regulatorischen Anforderungen.

Auch aus wirtschaftlicher Perspektive ist vertrauenswürdige KI kein Selbstläufer. Die Entwicklung transparenter, fairer und sicherer Systeme erfordert Zeit, Ressourcen und interdisziplinäre Expertise. Aus meiner Sicht ist dies jedoch ein Aufwand, der sich langfristig auszahlt. 

EU AI Act bietet Sicherheit und Vertrauen

Mit dem EU AI Act ist die EU Kommission 2024 dann noch einen Schritt weiter in Richtung einer vertrauensbildenden Regulierung gegangen: Der EU AI Act bietet erstmals einen umfassenden Rechtsrahmen für KI in Europa. Diese Regulierung schafft nicht nur Rechtssicherheit, sondern auch Vertrauen – sowohl bei Nutzern als auch bei Unternehmen.
 

Vertrauen ist die Grundlage für Fortschritt

Vertrauenswürdige KI ist kein optionales Feature – sie ist die Voraussetzung für nachhaltige Innovation. Es ist möglich, KI-Systeme verantwortungsvoll zu gestalten. Doch es braucht klare Prinzipien, regulatorische Leitplanken und den Willen zur Umsetzung.

Die Zukunft der KI entscheidet sich nicht nur in Rechenzentren – sondern in der Frage, ob wir ihr vertrauen können. 

Das könnte Sie auch interessieren

Special

Zur Person
Portrait of Dr. Frank Wisselink, Executive Product and Project Manager for AI

Dr. Frank Wisselink

Executive Produkt- und Projekt Manager für Künstliche Intelligenz, T-Systems International GmbH

Profil und alle Artikel ansehen

Teilen Sie Ihre Gedanken mit uns!

Haben Sie Ideen, Vorschläge oder Fragen zu diesem Thema? Wir freuen uns auf Ihre Rückmeldung!

Quellenangaben

1 EY-Studie „AI Seniment Index 2025“: https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025 

2 European Commission: Ethics guidelines for trustworthy AI https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai  

Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.