T-Systems-Claim-Logo
Zoeken
Blauwe lijnen verbonden door punten.

Welke fouten mag een AI maken?

Een AI kan een auto besturen of een sollicitant afwijzen. Dan wil ik wel weten of ik hun beslissingen kan vertrouwen.

08. november 2022

Kunnen we AI vertrouwen?

Stel je voor: je krijgt een gratis ritje met een zelfrijdende taxi op de snelweg aangeboden. Stap jij in? Hoe staat het met het vertrouwen in AI? Vooral wanneer kunstmatige intelligentie gevoelige en kritieke beslissingen neemt. Is deze betrouwbaar en robuust? Lees hier waar de risico's bij het gebruik van AI liggen en hoe ze tot een minimum kunnen worden beperkt.

AI kan een grote hoeveelheid gegevens beter en sneller verwerken, kan correlaties herkennen en fouten opsporen. Maar waardeoordelen kunnen alleen door mensen gemaakt worden en dat toont de beperkingen van AI aan.

 Pavol Bauer, Senior Data Scientist, T-Systems International GmbH

Waarom is vertrouwen belangrijk?

Persoon met bril

In ons persoonlijke leven en in ons werk is vertrouwen het smeermiddel voor bijna alles. In het algemeen zijn we goed in het beoordelen wie wij wel en niet kunnen vertrouwen. Dit vermogen hebben we ook nodig als we met AI te maken hebben. Eén ding is duidelijk: we trainen AI met gegevens. Daardoor kan AI zich steeds verbeteren. Maar hoe beslist AI en op grond waarvan? Waarom komt iemand niet door de selectieprocedure bij een sollicitatie of bij het aanvragen van een lening? Voordat ik in een zelfrijdende auto stap, wil ik weten hoe de AI zich zal gedragen in een onveilige verkeerssituatie. Dus moeten we de algoritmen eens nader bekijken.

Het algoritme van vertrouwen

Algoritmen hebben geen ideologie maar ook geen bijbedoelingen. Wij mensen zijn verantwoordelijk, omdat wij degenen zijn die manipuleren. Maar wie bepaalt wat goed of fout is? Feit is dat we standaarden, richtlijnen, normen en beveiliging nodig hebben voor de hele levenscyclus van AI. Anders wordt het kritiek. Waarden en richtlijnen zijn uiterst belangrijk, vooral in de gezondheidszorg of in de publieke sector. Hetzelfde geldt voor veiligheid. Het is dus van cruciaal belang dat aangekochte gegevens voor een AI uitvoerig worden getest, want ML-algoritmen kunnen alleen getraind worden en patronen herkennen als ze gevoed worden met hoogwaardige, precieze gegevens. Als je in een zelfrijdende auto onderweg bent, moet je erop kunnen vertrouwen dat je auto alle verkeersborden goed herkent. Er mag dus niets fout gaan bij het labelen van de gegevens, waarbij bijv. een mens aan het AI-systeem uitlegt wat er op een foto staat. Ten slotte moet een AI ook tegen hackers worden beschermd om beïnvloeding van buitenaf te voorkomen.

AI: goed of slecht?

Wanneer kun je kunstmatige intelligentie vertrouwen? Welke eigenschappen moet AI hebben om als betrouwbaar te worden beschouwd? Het EU-parlement maakt momenteel de weg vrij voor AI-regelgeving. In 2019 heeft de EU-Commissie ethische richtlijnen voor betrouwbare AI gepresenteerd. Het concept voor de AI-wet van 2021 is daarop gebaseerd en op grond daarvan bestaat een betrouwbare AI uit drie componenten.

  • De AI is rechtmatig en in overeenstemming met alle toepasselijke wet- en regelgeving.
  • De AI is ethisch en garandeert dus de naleving van ethische principes en waarden.
  • De AI is in technisch en sociaal opzicht robuust en brengt geen schade toe – noch opzettelijk, noch onopzettelijk. 

Pas als alle drie de componenten gedurende de hele levenscyclus van AI-systemen aanwezig zijn, spreken we van Trusted AI.

Recept voor een Trusted AI

Betrouwbare kunstmatige intelligentie die de toekomstige regelgeving moet kunnen bijhouden, moet bij risicovolle toepassingen aan nog meer criteria voldoen. De AI in kwestie moet verklaarbaar zijn – het moet traceerbaar zijn hoe de AI zijn beslissingen neemt. De systemen mogen niet een “black box” zijn, maar moeten transparant zijn. Ook eerlijkheid speelt een belangrijke rol: betrouwbare algoritmen discrimineren bepaalde groepen of individuen niet systematisch op grond van aangeleerde vooroordelen (bias). Betrouwbare modellen houden rekening met de menselijke autonomie, want wij willen hun beslissingen kunnen corrigeren. Bovendien gaat het ook om veiligheid en gegevensbescherming, met name om de bescherming van persoonsgegevens. Niet elk aspect is even relevant in elke AI-toepassing – we moeten altijd nagaan welke risico's een systeem kan dragen.

Gevaar ontdekt...

... gevaar afgewend? In mijn fascinatie voor innovatieve technologieën en in het bijzonder voor AI, ben ik me altijd bewust van de risico’s ervan. Ik ben, afhankelijk van het toepassingsgebied, zeer kritisch als het gaat om AI-technologieën. Laten we teruggaan naar het voorbeeld van autonoom rijden. Technisch gezien zijn we al heel ver. Vandaag rijden we met assistentiesystemen al efficiënter, plannen we onze routes intelligenter en zetten we, dankzij AI-technologie in de logistiek, vrachtwagens doelgerichter in. Waarom rijden we dan al niet volledig autonoom? Omdat het wettelijke kader nog niet voltooid is en het vertrouwen ontbreekt. Op dit moment kunnen we niet elke vraag beantwoorden: Kan ik er zeker van zijn dat een zelfrijdende auto elk obstakel zal herkennen? Zal de auto in elke situatie correct reageren en de juiste beslissing nemen? En wie is verantwoordelijk als er iets fout gaat? Ook mensen maken fouten als ze achter het stuur zitten. Maar fouten die door een machine worden gemaakt, vergeven we niet.

Bij kunstmatige intelligentie is vertrouwen een must (…) Onze bepalingen zullen toekomstbestendig zijn en openstaan voor innovatie, en zullen alleen ingrijpen als dat absoluut noodzakelijk is, dat wil zeggen als de veiligheid en de fundamentele rechten van de EU-burgers in het geding zijn.

Margarethe Vestager, Eurocommissaris voor Mededinging

Leggen wij AI de regels op of legt AI ons de regels op?

Wat kan AI eigenlijk doen? Er is geen gebrek aan lijsten met criteria die minimum eisen formuleren voor het veilig toepassen van methoden voor machine learning en die zich bezig houden met de ethiek van machines. Maar de AI-wet van de EU formuleert in eerste instantie wat kunstmatige intelligentie wel en niet mag. Het doel: het risico bij het gebruik van AI zo klein mogelijk maken en daardoor het vertrouwen in de algoritmes versterken. De wet zal naar verwachting in 2023 in werking treden, zodat bedrijven nog een jaar respijt hebben om op de nieuwe eisen te reageren. Ik adviseer bedrijven om zich nu al met de voorschriften bezig te gaan houden. Oftewel: niet alleen meer discussiëren over ethiek, transparantie, veiligheid en betrouwbaarheid, maar vanaf het allereerste begin deze aspecten meenemen in alle AI-projecten. Dit maakt "AI made in Europe" betrouwbaarder en veiliger, voorkomt discriminatie en verbetert de concurrentiepositie van Europese aanbieders. 

Het gaat om het risico

De AI-wet is een bijzonder belangrijk instrument voor mij. Deze voorziet in een regelgevend kader met wereldwijde rechtskracht en zorgt voor meer betrouwbaarheid. Precies de juiste manier om het vertrouwen in kunstmatige intelligentie te versterken. Want de AI-wet verdeelt AI-toepassingen in verschillende risicoklassen aan de hand van een gradatiesysteem. Als het risico onaanvaardbaar is, wordt het gebruik van de AI-oplossing verboden – hieronder valt bijv. social scoring door overheden. Als een hoog risico wordt vastgesteld, moet de AI aan bepaalde eisen voldoen. De meeste toepassingen vallen in deze categorie – hieronder vallen ook alle oplossingen voor zelfrijdende auto's. Hier gaat het uiteindelijk om het beschermen van de integriteit van de mens. Er staat daarentegen veel minder op het spel als het gaat om AI met beperkte (chatbots bijvoorbeeld) of minimale risico's (videospelletjes bijvoorbeeld).

Hebben bedrijven eigen AI-richtlijnen nodig?

Een volmondig ja! Ik denk dat bedrijven vandaag de dag hun eigen bindende ethische AI-richtlijnen moeten ontwikkelen. Alleen als ik de producten en diensten van een bedrijf vertrouw, zal ik ze kopen of aanbevelen aan anderen. Ook wij verbinden ons aan de digitale ethiek van Telekom, die het kader voor kunstmatige intelligentie aangeeft. En we gaan nog een stap verder. Al tijdens de ontwikkeling houden we rekening met onze eigen compliance-richtlijnen en met bestaande of toekomstige regelgeving, zoals de Algemene Verordening Gegevensbescherming, de EU-richtlijnen of de AI-wet. En bij de gegevensverzameling letten we erop dat er zich geen privacyproblemen voordoen en ook geen vertekeningen bij de training van modellen. Daarnaast beschermen we de AI tijdens het gebruik tegen aanvallen van hackers of misbruik. Bij het onderhoud en de verdere ontwikkeling zorgen wij ervoor dat alle standaarden en normen worden nageleefd. Op die manier wordt betrouwbaarheid de troef waarmee Europese aanbieders en bedrijven kunnen scoren. 

Klaar voor controle

Het in de praktijk brengen van ethische principes en regels is, als we eerlijk zijn, niet eenvoudig. Daarom willen wij in de toekomst bedrijven daarbij nog meer ondersteunen. Bijvoorbeeld door de processen voor de ontwikkeling van betrouwbare AI in de MLOps-tools te integreren. Als al tijdens de ontwikkeling rekening wordt gehouden met de eisen van testcatalogi, dan maakt dit het leveren van bewijs in geval van een latere audit gemakkelijker en waarborgt het een continue verdere ontwikkeling van een betrouwbare kunstmatige intelligentie. Wij bieden ook gecertificeerde oplossingen, zoals de slimme spraak- en chatbots van onze "Conversational AI Suite", die wij als een van de eerste bedrijven hebben laten testen volgens de BSI-criteriacatalogus voor betrouwbare AI (AIC4). Neem gerust contact met me op als je meer wilt weten.

Leestips over het onderwerp AI

En ten slotte nog wat leesvoer: Het artikel van René Phan over de mogelijkheden van de technologie en hoe je de toepassing ervan onder de knie kunt krijgen, is een absolute aanrader! Of als je vermoedt dat er de laatste tijd veel nep in omloop is - Fake AI dus - dan ben je misschien in dit artikel geïnteresseerd. Want niet alles wat het stempel AI krijgt, is ook echt AI.

Ik ben benieuwd wanneer jij voor het eerst in een zelfrijdende taxi stapt. 

Torsten Deutsch.

Dit is misschien ook interessant voor jou

Dit is misschien ook interessant voor jou

Do you visit t-systems.com outside of Netherlands? Visit the local website for more information and offers for your country.