Künstliche Intelligenz (KI) ist längst Teil unseres Alltags. Ob in der medizinischen Diagnostik, in der Kundenkommunikation oder bei der Übersetzung von Texten: KI-Systeme übernehmen zunehmend mehr Aufgaben. Doch mit dieser Entwicklung wächst auch die Verantwortung von uns Menschen beim Einsatz und der Entwicklung von KI. Denn KI kann nicht nur unterstützen, sondern auch Schaden anrichten – etwa durch diskriminierende Entscheidungen, intransparente Prozesse oder unsichere Datenverarbeitung.
Laut einer Studie von Ernst & Young1 überprüft rund ein Viertel der Deutschen die Ergebnisse nicht, die eine KI ihnen liefert. Sie vertrauen dem KI-System quasi blind. Im Vergleich zu etwa 30 Prozent der Menschen weltweit.
Vertrauen ist im Kontext von Künstlicher Intelligenz zentral, weil es die Grundlage für Akzeptanz, Sicherheit und verantwortungsvolle Nutzung bildet. Vertrauen in KI ist kein „Nice-to-have“, sondern ein Must-have. Es entscheidet darüber, ob KI-Systeme akzeptiert, genutzt und weiterentwickelt werden – oder ob sie auf Widerstand stoßen. Vertrauenswürdige KI ist damit nicht nur ein ethisches Ideal, sondern ein strategischer Erfolgsfaktor.
Die Europäische Kommission hat sich im vergangenen Jahrzehnt mit den Rahmenvoraussetzungen vertrauenswürdiger KI beschäftigt und die Entwicklung von „Ethik-Leitlinien für eine vertrauenswürdige KI“ (2018)2 vorangetrieben. Diese Leitlinien basieren auf den Grundrechten und schlagen für den Umgang mit KI vier ethische Grundsätze vor: Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit. Darüber hinaus sollen sieben Anforderungen für die Umsetzung und Verwirklichung einer vertrauenswürdigen KI gelten. All diese Prinzipien bilden die Grundlage für eine KI, die nicht nur leistungsfähig ist, sondern auch gesellschaftlich akzeptiert wird.
KI-Systeme sollten die menschliche Autonomie und Entscheidungsfindung unterstützen. Dies erfordert, dass KI-Systeme sowohl einer demokratischen, florierenden und gerechten Gesellschaft dienen, als auch die menschliche Aufsicht ermöglichen.
Die technische Robustheit erfordert, dass KI-Systeme mit einem präventiven Herangehen an Risiken entwickelt werden, sodass sie sich zuverlässig gemäß ihrer Bestimmung verhalten. Dies sollte auch für potenziell veränderte Betriebsumgebungen oder die Anwesenheit von anderen Kräften gelten.
Um die Privatsphäre der Menschen zu schützen, ist beim Einsatz von KI-Systemen ein angemessenes Datenqualitätsmanagement nötig.
KI-Systeme müssen jederzeit nachvollziehbar und erklärbar arbeiten – sowohl in Bezug zu den Daten, dem System als auch dem zugrunde liegenden Geschäftsmodell.
Zur Schaffung einer vertrauenswürdigen KI müssen Inklusion und Vielfalt während des gesamten Lebenszyklus des KI-Systems garantiert sein. Das beinhaltet, dass alle betroffenen Interessenträger in den gesamten Prozess eingebunden sind und einen gleichberechtigten Zugang haben.
Während des gesamten KI-Lebenszyklus sollten auch die Gesellschaft und die Umwelt berücksichtigt werden. Die Nachhaltigkeit und ökologische Verantwortung der KI-Systeme sollten gefördert werden und die Erforschung von KI-Lösungen in Bezug auf globale Herausforderungen. Im Idealfall sollte die KI zum Wohle aller Menschen, auch künftiger Generationen, eingesetzt werden.
Vorkehrungen müssen getroffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse vor und nach deren Umsetzung gewährleisten.
Vertrauen in Künstliche Intelligenz ist kein Luxus, sondern eine strategische Notwendigkeit.
Dr. Frank Wisselink, Executive Produkt- und Projektmanager für KI bei T-Systems
Fast alle Prinzipien der Europäischen Kommission hat die Deutsche Telekom bereits 2018 mit ihren eigenen KI-Leitlinien umgesetzt. Denn Vertrauen ist auch einer der Grundpfeiler des Geschäfts der Deutschen Telekom. Diese Leitlinien waren schon damals – und sind es bis heute – beispielhaft:
Die Deutsche Telekom legt also schon seit über sieben Jahren großen Wert auf Vertrauenswürdigkeit von KI. Ihre KI-Leitlinien setzt die Deutsche Telekom in der Praxis um und hat sie in ihre Governance-Strukturen und -Prozesse integriert. Dazu gehören beispielweise der Privacy- und Security-Prozess und das eigens entwickelte Digital Ethics Assessment des Unternehmens. Bei dem Digital Ethics Assessment handelt es sich um ein in der gesamten Deutschen Telekom standardisiertes Verfahren, das alle KI-Systeme der Deutschen Telekom verpflichtend durchlaufen müssen. Es erfasst und prüft alle KI-Use Cases und -Modelle zentral.
Die Umsetzung der Prinzipien und Leitlinien zu vertrauenswürdiger KI ist teilweise anspruchsvoll. Technisch gesehen sind viele KI-Modelle komplexe „Black Boxes“, deren Entscheidungen schwer nachvollziehbar sind. Die Erklärbarkeit von Deep-Learning-Modellen ist bis heute eine Herausforderung.
In der breiten Gesellschaft fehlt zudem oft das technische Verständnis für KI-Systeme – was Unsicherheit und Misstrauen fördert. Gleichzeitig stehen Unternehmen unter Innovationsdruck: Schnelle Markteinführung und Wettbewerbsvorteile stehen nicht selten im Konflikt mit ethischen Standards und regulatorischen Anforderungen.
Auch aus wirtschaftlicher Perspektive ist vertrauenswürdige KI kein Selbstläufer. Die Entwicklung transparenter, fairer und sicherer Systeme erfordert Zeit, Ressourcen und interdisziplinäre Expertise. Aus meiner Sicht ist dies jedoch ein Aufwand, der sich langfristig auszahlt.
Mit dem EU AI Act ist die EU Kommission 2024 dann noch einen Schritt weiter in Richtung einer vertrauensbildenden Regulierung gegangen: Der EU AI Act bietet erstmals einen umfassenden Rechtsrahmen für KI in Europa. Diese Regulierung schafft nicht nur Rechtssicherheit, sondern auch Vertrauen – sowohl bei Nutzern als auch bei Unternehmen.
Vertrauenswürdige KI ist kein optionales Feature – sie ist die Voraussetzung für nachhaltige Innovation. Es ist möglich, KI-Systeme verantwortungsvoll zu gestalten. Doch es braucht klare Prinzipien, regulatorische Leitplanken und den Willen zur Umsetzung.
Die Zukunft der KI entscheidet sich nicht nur in Rechenzentren – sondern in der Frage, ob wir ihr vertrauen können.
1 EY-Studie „AI Seniment Index 2025“: https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025
2 European Commission: Ethics guidelines for trustworthy AI https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai