T-Systems-Claim-Logo
Suchen
Blaue Linien durch Punkte verbunden.

Welche Fehler darf eine KI machen?

KIs lenken Autos oder sieben Bewerber aus. Da will ich doch wissen, ob ich ihren Entscheidungen trauen kann

19. Juli 2022Pavol Bauer

Können wir der KI vertrauen?

Eine kostenlose Spritztour mit einem selbstfahrenden Taxi auf der Autobahn. Und? Steigen Sie ein? Das ist längst keine Fiktion mehr, sondern erst der Anfang. Klar ist, ohne Vertrauen geht es nicht. Besonders, wenn eine künstliche Intelligenz sensible und kritische Entscheidungen trifft, muss sie zuverlässig und robust sein. Wo die Risiken in der KI-Nutzung lauern und wie sie sich minimieren lassen, erfahren Sie hier.

Warum ist Vertrauen wichtig?

Person mit Brille

Privat wie beruflich ist Vertrauen das Schmiermittel reibungsloser Interaktion. In der Regel können wir gut einschätzen, wem wir vertrauen können und wem besser nicht. Diese Fähigkeit brauchen wir auch im Umgang mit KI. Klar ist: Wir trainieren sie mit Daten. Dadurch verbessert sie sich fortlaufend. Aber wie entscheidet sie und warum? Weshalb fällt der eine bei einer Bewerbung durchs Auswahlraster, die andere bei der Kreditvergabe? Bevor ich mich in ein autonomes Auto setze, möchte ich wissen, wie sich die KI in einer brenzligen Verkehrssituation verhalten wird. Wir müssen uns die Algorithmen daher doch mal genauer anschauen.

Algorithmus des Vertrauens

Algorithmen haben weder Weltanschauung noch Hintergedanken. Wir Menschen tragen die Verantwortung, denn wir sind es, die manipulieren. Nur, wer entscheidet, was richtig oder falsch ist? Fakt ist: Wir brauchen Standards, Leitlinien, Normen und Sicherheit für den gesamten Lebenszyklus einer KI. Sonst wird’s kritisch. Gerade im Health Umfeld oder Public Sektor sind Werte und Leitlinien extrem wichtig. Genauso Sicherheit. So gilt es, eingekaufte Daten für eine KI genauestens zu prüfen, denn nur mit einer hohen und präzisen Datenqualität lassen sich ML-Algorithmen trainieren und Muster erkennen. Wenn Sie mit einem autonomen Auto unterwegs sind, müssen Sie darauf vertrauen, dass Ihr Wagen alle Verkehrsschilder zuverlässig erkennt. Daher darf beim Datenlabeling, bei dem u.a. der Mensch dem KI-System erklärt, was auf einem Foto zu sehen ist, nichts schiefgegangen sein. Nicht zuletzt muss eine KI auch vor Hackern geschützt werden, um eine Beeinflussung von außen zu verhindern. 

Good KI, bad KI?

Wann darf man einer künstlichen Intelligenz vertrauen? Welche Eigenschaften muss sie haben, um als vertrauenswürdig zu gelten? Das EU-Parlament räumt den Weg für die KI-Regulierung gerade frei. 2019 hat die EU-Kommission Ethik-Leitlinien für eine vertrauenswürdige KI vorgelegt. Auf sie bezieht sich der Entwurf für den AI Act aus dem Jahr 2021. Demnach hat eine vertrauenswürdige KI drei Komponenten:

  • Sie ist rechtmäßig und hält alle anwendbaren Gesetze und Bestimmungen ein.
  • Sie ist ethisch und garantiert damit die Einhaltung ethischer Grundsätze und Werte.
  • Sie ist in technischer und sozialer Hinsicht robust und richtet keinen Schaden an – weder vorsätzlich noch unbeabsichtigt. 

Nur wenn alle drei Komponenten über den gesamten Lebenszyklus von KI-Systemen gegeben sind, sprechen wir von einer Trusted AI.

Rezeptur einer Trusted AI

Eine vertrauenswürdige künstliche Intelligenz, die künftigen Regulierungen standhalten soll, muss in risikobehafteten Einsatzfällen weitere Kriterien erfüllen: Es muss sich um eine erklärbare KI handeln – es muss also nachvollziehbar sein, wie sie ihre Entscheidungen trifft. Die Systeme dürfen keine Blackbox sein, sondern sind zur Transparenz verpflichtet. Auch Fairness spielt eine große Rolle: Verlässliche Algorithmen benachteiligen nicht aufgrund antrainierter Voreingenommenheit (Bias) systematisch bestimmte Gruppen oder Einzelpersonen. Vertrauenswürdige Modelle berücksichtigen die menschliche Autonomie, denn wir wollen ihre Entscheidungen korrigieren können. Überdies geht es auch um Sicherheit und Datenschutz, insbesondere um den Schutz personenbezogener Daten. Nicht bei jeder KI-Anwendung ist jede Dimension gleich relevant – wir müssen stets prüfen, welche Gefahren von einem System ausgehen könnten.

Gefahr erkannt…

… Gefahr gebannt? Bei all meiner Faszination für innovative Technologien und vor allem für KI bin ich mir ihrer Risiken stets bewusst und hinterfrage KI-Technologien abhängig vom Einsatzgebiet. Kommen wir zurück zum Beispiel autonomes Fahren. Technisch sind wir da schon sehr weit. Bereits heute fahren wir mit Assistenzsystemen effizienter, planen unsere Routen intelligenter, setzen dank KI-Technologie in der Logistik die Lkw mit höherer Taktung ein. Warum fahren wir noch nicht alle zu 100 Prozent autonom? Weil bislang der rechtliche Rahmen noch nicht final ist und das Vertrauen fehlt. Derzeit können wir nicht jede Frage beantworten: Kann ich mir sicher sein, dass ein autonom betriebener Wagen jedes Hindernis erkennt? Reagiert und entscheidet er in jeder Situation angemessen? Und wer trägt die Verantwortung, wenn etwas schiefgeht? Natürlich macht auch der Mensch Fehler, wenn er Auto fährt. Aber der Maschine verzeihen wir sie nicht.

Bei künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk. (…) Unsere Vorschriften werden zukunftssicher und innovationsfreundlich sein und nur dort eingreifen, wo dies unbedingt notwendig ist, nämlich wenn die Sicherheit und die Grundrechte der EU-Bürger auf dem Spiel stehen.

Margarethe Vestager, EU-Kommissarin für Wettbewerb

Verbot, Gebot oder KI-Gebot?

Was darf sich also eine KI überhaupt erlauben? An Kriterienkatalogen, die Mindestanforderungen an die sichere Verwendung von Methoden des maschinellen Lernens formulieren und sich mit der Ethik von Maschinen beschäftigen, mangelt es nicht. Aber der AI Act der EU reguliert erstmals, was künstliche Intelligenz darf und was nicht. Das Ziel: das Risiko beim Einsatz von KI reduzieren und damit das Vertrauen in die Algorithmen zu stärken. Das Gesetz tritt voraussichtlich 2023 in Kraft, vermutlich bleibt dann ein Jahr Karenzzeit, damit Unternehmen auf die neuen Anforderungen reagieren können. Ich empfehle schon jetzt, sich mit den Bestimmungen auseinanderzusetzen. Sprich: nicht mehr nur über Ethik, Transparenz, Sicherheit und Vertrauenswürdigkeit zu diskutieren, sondern diese Komponenten bei allen KI-Projekten von Anfang an mitzudenken. Das macht „KI made in Europe“ vertrauenswürdiger und sicherer, verhindert Diskriminierung und verbessert die Wettbewerbsposition europäischer Anbieter. 

Auf das Risiko kommt es an

Der AI Act ist für mich ein besonders wichtiges Werkzeug: Er schafft einen regulatorischen Rahmen mit weltweiter Rechtskraft und sorgt für mehr Verlässlichkeit. Genau der richtige Weg, um das Vertrauen in die künstliche Intelligenz zu stärken. Denn im AI Act sind KI-Anwendungen über ein Stufensystem in verschiedene Risikoklassen eingeteilt. Ist das Risiko inakzeptabel, verbietet sich der Einsatz der KI-Lösung – darunter fällt zum Beispiel Social Scoring von Regierungen. Ist ein hohes Risiko erkennbar, muss die KI bestimmte Anforderungen erfüllen. In diese Kategorie fällt das Gros der Anwendungen – dazu zählen etwa auch alle Lösungen, die mit dem autonomen Fahren zusammenhängen. Schließlich gilt es hier, die Unversehrtheit von uns Menschen zu schützen. Dagegen sind die Hürden deutlich niedriger gesteckt, wenn es sich um eine KI mit begrenzten (etwa bei Chatbots) oder minimalen Risiken (zum Beispiel bei Videospielen) handelt.

Brauchen Firmen eigene KI-Leitlinien?

Ein klares Ja! Ich meine, dass Unternehmen heute selbstbindende ethische KI-Leitlinien entwickeln müssen. Nur wenn ich den Produkten und Services eines Unternehmens vertraue, werde ich sie kaufen oder weiterempfehlen. Auch wir haben uns der digitalen Ethik der Telekom verpflichtet, die der künstlichen Intelligenz Leitplanken setzt. Und gehen noch weiter. Schon bei der Entwicklung berücksichtigen wir die eigenen Compliance-Richtlinien genauso wie bestehende oder kommende Regulierungen wie die Datenschutz-Grundverordnung, die EU-Guidelines oder den AI Act. Oder bei der Datenerhebung beschäftigen wir uns mit Datenschutzfragen sowie mit möglichen Bias im Modelltraining und schützen die KI während des Betriebs vor Hackerangriffen oder Missbrauch. Bei der Wartung und Weiterentwicklung achten wir darauf, dass alle Standards und Normen eingehaltenwerden. So wird Vertrauenswürdigkeit zu jenem Pfund, mit dem europäische Provider und Unternehmen punkten können. 

Ready for your Audit

Ethische Grundsätze und Regularien zu operationalisieren, ist offen gesagt nicht einfach. Deshalb wollen wir Unternehmen dabei künftig noch stärker unterstützen. Etwa, indem wir die Verfahren zur Entwicklung einer vertrauenswürdigen KI in MLOps-Tools integrieren. Werden die Anforderungen von Prüfkatalogen schon bei der Entwicklung berücksichtigt, erleichtert dies bei einem späteren Audit die Nachweise und sichert die kontinuierliche Weiterentwicklung einer vertrauenswürdigen künstlichen Intelligenz ab. Auch bieten wir zertifizierte Lösungen wie die smarten Sprach- und Chatbots unserer „Conversational AI Suite“, die wir als eines der ersten Unternehmen nach dem BSI-Kriterienkatalog für vertrauenswürdige KI (AIC4) haben überprüfen lassen. Kommen Sie gerne direkt auf mich zu, wenn Sie mehr wissen wollen.

Lesetipps zum Thema KI

Und zu guter Letzt noch etwas Lesestoff: René Phans Artikel über die Möglichkeiten der Technologie und wie sich deren Einsatz meistern lässt, ist absolut empfehlenswert! Oder wenn auch Sie argwöhnen, dass uns da in letzter Zeit so manche Mogelpackung untergeschoben wird, Stichwort Fake KI, dann dürfte dieser Beitrag Ihnen gefallen. Denn nicht überall, wo KI draufsteht, ist auch wirklich KI drin.

In diesem Sinne, bis zum nächsten Mal. Ihr Pavol Bauer.

Zur Person
Dr. Pavol Bauer

Pavol Bauer

Senior Data Scientist, T-Systems International GmbH

Profil und alle Artikel ansehen

Das könnte Sie auch interessieren

Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.