Das Forschungsfeld „Explainable AI“ hat einen neuen Motor: die europäische Datenschutzgrundverordnung. Denn die verpflichtet KI-Systeme zur Transparenz. Eine Forderung, die bis heute nicht ganz einfach zu erfüllen ist. Warum? Um das zu beantworten, lohnt ein Blick zurück auf Googles diesjährige Entwicklerkonferenz I/O Anfang Mai. Ihr Highlight: Google Duplex – eine KI, die selbstständig einen Friseurtermin am Telefon vereinbart. Spontane Sprechpausen, einige eingestreute „Hms“ – und schon war die Computerstimme nicht mehr von der eines Menschen zu unterscheiden. Die Resonanz? Jubel bei den Google-Experten im Publikum. Ansonsten? Eher durchwachsen. Grund: Google Duplex klingt einfach zu echt.
Denn: Ist es wirklich okay, wenn mich eine Software anruft und ich halte sie für einen Menschen? „Eindeutig nein“, sagt die europäische Datenschutzgrundverordnung (DSGVO) und zwingt die Unternehmen auch in Sachen künstlicher Intelligenz zu Transparenz. Sobald sich automatisierte Entscheidungen auf Personen auswirken, müssen sie nachvollziehbar und erklärbar sein. Unternehmen sind dazu verpflichtet, den KI-Anteil in ihren Leistungen, Produkten, Analysen oder Prozessen offenzulegen.
Meist ist die Forderung nach Transparenz aber schwerer zu erfüllen. Was genau beim maschinellen Lernen passiert, versteckt sich häufig in einer Blackbox. Selbst die Programmierer tappen im Dunkeln wenn es um die Beantwortung der Frage geht, wie die KI ihre Entscheidungen trifft. Deshalb fordert zum Beispiel Kate Crawford von Microsoft Research, dass die wichtigsten öffentlichen Einrichtungen in den Bereichen Strafjustiz, Gesundheit, Wohlfahrt und Bildung keine Algorithmen mehr verwenden sollten. Denn bei zu vielen KI-Programmen, so die Expertin, seien im Nachhinein diskriminierende Tendenzen oder fehlerhafte Annahmen entdeckt worden. Maschinen entscheiden zwar konsistent, aber bei unpassender Programmierung eben auch konstant unangemessen.
In immer mehr Lebensbereichen ist KI relevant. Ihre Bedeutung wird weiter wachsen. Sie kann vieles: medizinische Diagnosen stellen, Aktien für uns kaufen oder abstoßen, unsere Kreditwürdigkeit überprüfen, ganze Geschäftsberichte analysieren oder Stellenbewerber auswählen. Mit sogenannten „Scoring“-Verfahren bewertet uns Software nach bestimmten mathematischen Kriterien. Daher schreibt die DSGVO zum Schutz jeder einzelnen Person das „Recht auf Erklärung“ vor. Das heißt: Stellt eine betroffene Person einen Antrag, dann müssen Institutionen oder Unternehmen eine KI-Entscheidung oder -Risikobewertung nachvollziehbar erklären können.
„Wir sollten die Algorithmen mit einer Art KI-Governance versehen und verhindern, dass die künstliche Intelligenz aus dem Rahmen ethischer und moralischer Vorgaben ausbricht.“
An dieser Stelle aber wird es schwierig. „Die Rechtmäßigkeit von Entscheidungen kann nur prüfen, wer die Datengrundlage, Handlungsabfolge und Gewichtung der Entscheidungskriterien kennt und versteht“, schreibt der Rechtswissenschaftler Mario Martini in der JuristenZeitung (JZ). Weltweit arbeiten Wissenschaftler an dieser Erklärbarkeit. Ihr Forschungsfeld: Explainable Artificial Intelligence. Oder knackiger: XAI. Erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen möchten ins elektronische Gehirn blicken. So setzt die Beratungsgesellschaft PricewaterhouseCoopers (PwC) XAI auf die Liste der zehn wichtigsten Technologietrends im Bereich künstlicher Intelligenz.
Die buchstäblich erhellende Sicht in die Blackbox ist jedoch diffizil, weil neuronale Netze eben eine sehr komplexe Struktur aufweisen. Entscheidungen entstehen aus einem Zusammenspiel Tausender künstlicher Neuronen. Diese sind in Dutzenden bis Hunderten miteinander verbundenen Ebenen angeordnet – mit ihren vielfältigen Verschaltungen sind neuronale Netze dem menschlichen Gehirn nachempfunden. Auch in Berlin setzen Wissenschaftler jetzt das virtuelle Seziermesser an: Die Forschungsgruppe Machine Learning im Fraunhofer Heinrich-Hertz-Institut (HHI) hat dazu ein Verfahren mit dem Namen Layer-wise Relevance Propagation (LRP) entwickelt. Forschungsleiter Wojciech Samek und sein Team haben ihre Explainable-AI-Methode erstmals 2015 publiziert und ihr XAI-Verfahren bereits auf der CeBIT vorgestellt.
LRP lässt den Entscheidungsprozess eines neuronalen Netzes rückwärtslaufen: Die Forscher registrieren, an welchen Stellen welche Gruppen von künstlichen Neuronen aktiviert sind – und welche Entscheidungen sie treffen. Anschließend bestimmen sie, wie stark eine Einzelentscheidung das Endergebnis beeinflusst hat.
Diese Art von transparentem Pfad, quasi eine Dokumentation, spielt der DSGVO in die Hände, weil bei ihr wie früher im Matheunterricht nicht nur das Ergebnis, sondern auch der Lösungsweg zählt. Wenn es gelingt, Techniken des maschinellen Lernens zu entwickeln, mit denen sich besser erklärbare Modelle erzeugen lassen, dann dürfte dies das Vertrauen in die KI-Technologie auf Dauer stärken. PwC geht davon aus, dass viele Unternehmen die erklärbare KI zur Voraussetzung machen, ehe sie sich auf einer breiteren Basis auf Algorithmenanwendungen einlassen. Bei staatlichen Behörden könnte mit der DSGVO die Explainable AI sogar zur Vorschrift werden.
Und bis dahin? Bis zu diesem Zeitpunkt überprüfen Unternehmen wie die Telekom KI-Entscheidungen mithilfe eines Reviewprozesses. Permanent checken die Mitarbeiter, ob die KI im Sinne des Unternehmens und der Betroffenen entschieden hat. Ist dies nicht der Fall, können sie jederzeit korrigierend eingreifen. „Wir sollten die Algorithmen mit einer Art KI-Governance versehen und verhindern, dass die künstliche Intelligenz aus dem Rahmen ethischer und moralischer Vorgaben ausbricht“, empfiehlt Dr. Claus-Dieter Ulmer, Konzernbeauftragter für den Datenschutz bei der Deutschen Telekom AG. Unter dieser Voraussetzung steckt in KI jede Menge Potenzial. In ihrem Strategiepapier „Künstliche Intelligenz als Innovationsbeschleuniger im Unternehmen“ sind sich die PwC-Experten sicher, dass sich KI künftig zum entscheidenden Wettbewerbsvorteil entwickeln wird, der über Erfolg und Misserfolg jedes Unternehmens entscheidet.