Suchen
Nahaufnahme eines weiblichen Gesichts mit Polygon-Visuals

Wie gelingt Unternehmen die kluge Balance mit KI?

ChatGPT, Hyperautomation, Robotics – KI ermöglicht viele Innovationen. Doch im Umgang mit KI dürfen wir neu denken

05. September 2023Stephan de Haas

Rethink AI

Der Mensch und auch manche Unternehmen neigen dazu, komplexe Aufgaben auf die lange Bank zu schieben und Verantwortung abzugeben. Jüngstes Beispiel: die Frage nach der Ethik und Nachhaltigkeit von KI-Lösungen, mit denen Unternehmen ihre Prozesse automatisieren. Auch fordern EU-Regulierungen wie der AI Act, dass wir uns intensiv mit den Chancen und Risiken von KI auseinandersetzen. Damit eine verantwortungsvolle KI unser Leben besser macht.

KI ist gut – alles gut?

Mit dem vom Europa-Parlament verabschiedeten Artificial Intelligence Act will die EU die künstliche Intelligenz regulieren. Er gilt für Unternehmen, die KI-Systeme auf dem EU-Markt bereitstellen oder nutzen, unabhängig von deren Sitz. Der AI Act war für viele Unternehmen der notwendige Weckruf, sich mit dem Thema „verantwortungsvolle KI“ auseinanderzusetzen. Das ist ein erstes Ergebnis unseres jüngsten T-Systems Research-Projekts zum Thema KI. Mich hat es überrascht, dass Unternehmen bereits die Chancen von KI für sich nutzen, aber ihren verantwortungsvollen Einsatz von KI eher vernachlässigen. Doch genau das ist bei KI so entscheidend. Rethink AI – das heißt für mich, dass KI dem Wohl von uns Menschen und des Planeten dienen muss. Wir alle sollten uns daher jetzt die Frage stellen, wie die Transformation zu einem verantwortungsvollen KI-gesteuerten Unternehmen gelingt.

Unsere Balance im Umgang mit KI

Frauenhand zeigt futuristisches Benutzeroberflächen-Dashboard

Zu diesem Thema haben wir in unserer T-Systems Co-Creation Community Führungskräfte aus IT und Fachbereichen unterschiedlicher Branchen interviewt. Dabei ist uns eine interessante Dichotomie aufgefallen. Ich nenne sie „KI der zwei Geschwindigkeiten“. Es fällt Unternehmen schwer, ihre Experimentierfreude mit den Regulierungsvorgaben unter einen Hut zu bringen. Viele Befragte sorgen sich, dass deutsche und europäische Unternehmen den Anschluss verlieren könnten, wenn sie zu viele Auflagen erfüllen müssen. Unsicherheit macht sich breit. Denn einerseits entwickelt sich die Technologie rasant, denken Sie nur an ChatGPT und generative KI ganz allgemein. Andererseits können Unternehmen nur schwer abschätzen, was mit der Regulierung auf sie zukommt. Gefährlich wird’s, wenn diese Mischung all jene Unternehmen ausbremst, die KI nutzen und in ihre Geschäftsabläufe implementieren möchten.

Die Top 5 einer menschenzentrierten KI

Es geht nicht mehr darum, ob, sondern wie Unternehmen KI richtig einführen. Denn KI wird unsere Welt weiter verändern. Und noch haben wir Menschen es in der Hand, wie sich die smarten Algorithmen entwickeln. Wir Menschen müssen in die richtige Richtung denken und entscheiden, damit KI so handelt, wie wir es uns wünschen. Wenn wir eine menschenzentrierte, verantwortungsvolle KI erreichen wollen, müssen wir Vorsorge treffen.

  1. Wir trainieren KI verantwortungsvoll und berücksichtigen ethische Standards.
  2. Wir verstehen KI als Erweiterung menschlicher Fähigkeiten. KI-Experten nennen dies Augmentation.
  3. Wir reduzieren die Risiken, indem der Mensch KI-Resultate prüft und steuert.
  4. Wir setzen Verantwortung nicht mit Ethik gleich, sprechen erst dann von „Responsible AI“, wenn sie zusätzlich natürliche Ressourcen und das Klima schont. Wir müssen daher ihren ökologischen Fußabdruck reduzieren.
  5. Wir schulen die Beschäftigten im Umgang mit KI und nehmen ihre Ängste ernst.

Raus aus der Blackbox

KI-Robotergesicht durch Drahtrahmen mit Geschwindigkeitsbewegung

KI ist viel zu oft eine Blackbox, kann für Falschmeldungen und Deepfakes missbraucht werden. Daher verlangt der AI Act, der wahrscheinlich 2026 in Kraft treten wird, eine stärkere Überwachung des KI-Einsatzes und mehr Zuverlässigkeit, Transparenz und Kontrollierbarkeit. Abhängig vom Risikolevel des KI-Systems erfolgt eine Klassifizierung in vier Risikostufen – inakzeptabel, hoch, begrenzt oder gering. Ziel sind verbindliche Design- und Entwicklungsstandards. Und wer bei der Datenauswahl oder beim Training unsauber arbeitet, riskiert Datenschutzverletzungen, Diskriminierung oder reproduziert Stereotype. Bei Verstößen drohen Strafen von bis zu sechs Prozent des Umsatzes. Ein Grund mehr, warum wir bei KI auf eine menschenzentrierte KI und transparente Unternehmensverantwortung achten dürfen.

Kann KI unsere Welt grüner machen?

Der aktuelle Vorschlag des EU AI Act betont die Rolle von KI auch beim Klimawandel und für die Umwelt. Hauptziele sind Sicherheit und Marktentwicklung, doch die Umweltvorteile stehen ebenfalls im Fokus. Ich verstehe das als klaren Auftrag. Denn der digitale Fußabdruck des ICT-Sektors wächst. Allein das Training des Sprachmodells von GPT-3 hat laut der Uni Berkeley 1,287 Gigawattstunden Strom verbraucht. So viel, wie 120 US-Haushalte durchschnittlich in einem Jahr. Wir sollten daher nicht nur auf Green AI setzen – also KI-Verfahren, die die Welt grüner machen und dem Klima-, Natur- und Artenschutz dienen –, sondern stärker darauf achten, die Verfahren des maschinellen Lernens selbst ressourcenschonend zu entwickeln und zu betreiben. Mit mehr Tempo. Darum engagieren wir uns auch verstärkt im Rahmen unseres Co-Creation Advisory Boards für Nachhaltigkeit an dem UN Climate Change Global Innovation Hub und bei „Green Digital Action at COP28“ und wollen 2024 auf der COP 29 konkrete Lösungen vorstellen.

Wie werden wir gemeinsam nachhaltiger?

Genau deshalb verspreche ich mir vom Co-Creation-Ansatz so viel, mit dem wir Ideengeber aus allen Branchen zusammenbringen. Eines der Projekte, die wir im Rahmen des Co-Creation Advisory Boards for Sustainability vorantreiben, ist die „Nachhaltigkeits-Akademie“. Wir kooperieren bei dieser Initiative mit dem Umwelt-Campus Birkenfeld und einem KI-Start-up, das sich auf die Verbindung von KI und Umwelt spezialisiert hat. Wir stellen den Unternehmen maßgeschneiderte Lernmodule zum Thema nachhaltige Transformation zur Verfügung, mit denen sie ihre Belegschaft schulen können. Auch Nachhaltigkeits-Chatbots stehen bei den Firmen hoch im Kurs. Vielversprechende KI-Einsatzmöglichkeiten sehen wir zudem bei der ESG-Berichterstattung. Dazu bieten wir mit unseren #Experience Sessions einen regelmäßigen digitalen Austausch mit Experten.

Der frühe Vogel fängt den Wurm

Dieses Sprichwort trifft die Verantwortung im Umgang mit KI ganz gut. Auch für T-Systems ist dieses Thema nicht neu. Wir können auf den KI-Leitlinien der Telekom aufsetzen und bauen derzeit, mit Blick auf den AI Act, unser Risiko-Management-System aus. Auch im Digitale-Ethik-Framework der Detecon finden sich Anhaltspunkte für die KI-Weiterentwicklung hin zu Responsible AI. Dass sich unser Konzern intensiv mit der Thematik auseinandersetzt, unterstreicht auch das Manifest zur Nutzung von KI und unsere Mitarbeit am AI Act der EU. Ich bin überzeugt, dass sich Unternehmen viele Chancen bieten, wenn sie sich im neuen regulatorischen Umfeld engagieren. Denn es geht ja nicht nur darum, externe Anforderungen zu erfüllen. Wer mitgestaltet, stellt damit sicher, dass die eigenen Beschäftigten frühzeitig die Bedeutung und Umsetzung von verantwortungsvoller KI verinnerlichen. Und tut sich leichter, das Potenzial von Daten und KI auszuschöpfen und eine strategische Roadmap für den verantwortungsvollen Umgang mit künstlicher Intelligenz zu entwerfen. 

Wie geht’s mit Responsible AI weiter?

Wir wollen mit unserem Unternehmen und dem Co-Creation-Ansatz einen Unterschied machen und setzen uns beim Thema KI nicht nur die Ethik und Verantwortungs-, sondern auch die Sustainability-Brille auf. Wenn wir von menschenzentrierter KI sprechen, dann erweitern wir damit unsere bisherige Kundenzentriertheit. Technologie soll dem Menschen sowie der Umwelt und dem Klima nutzen. Unser Ziel heißt „AI for People & Planet“. Daher wollen wir auf der Grundlage unserer Research-Ergebnisse eine Checkliste für „Responsible AI“ entwickeln. Und unseren Kunden damit erklären, worauf sie etwa beim Umgang mit Datenmodellen achten müssen. Ich bin davon überzeugt, dass wir gemeinsam eine AI for Good schaffen können. Sind Sie dabei? Ich freue mich auf die Zusammenarbeit.

Zur Person
Stephan De Haas

Stephan de Haas

Head of Co-Creation & Client Consulting, T-Systems International GmbH

Profil und alle Artikel ansehen

Das könnte Sie auch interessieren

KI in der Praxis

Wie sich lässt im Finanzsektor, Transport, Einzelhandel und Gesundheitswesen KI, Analytik und IoT zu ihrem Vorteil nutzen? Das berichten Experten von Intel, IDC und T-Systems in diesem aufgezeichneten Webinar. 

Besuchen Sie t-systems.com außerhalb von Germany? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.