Responsible AI: prestatie maakt plaats voor plicht

Sinds de inburgering van ChatGPT schieten generatieve AI-tools als paddenstoelen uit de grond. Maar na de initiële wauw-fase waarin we overdonderd worden door de kracht van innovatie, volgt onherroepelijk de vraagteken-fase. De AI-bubbel wordt doorprikt en we houden massaal het hoofd schuin over hoe verantwoord het gebruik van AI-tools eigenlijk is. Prestatie maakt plaats voor plicht en we kunnen niet meer om de nood aan responsible AI heen. 

Responsible AI kunnen we op twee niveaus bekijken. Enerzijds het reguleren en controleren van artificiële intelligentie om risico’s te vermijden en een veilige omgeving te waarborgen. Anderzijds het bouwen van betrouwbare AI-tools die waardevol bijdragen aan de wereld waarin wij leven.

Nalantis - Responsible AI
 

ETHISCHE KWESTIES

AI-processen zijn complex. Ze kunnen op een haast wonderbaarlijke manier data analyseren en output genereren. Maar ze zijn niet perfect: er is altijd kans op fouten, misleidende resultaten en zelfs datagestuurde catastrofen. Zoals bij het toeslagenschandaal dat in 2017 aan het licht kwam in Nederland. Mensen met een dubbele nationaliteit werden door het algoritme aangeduid als mogelijke fraudeur, ten onrechte en door verkeerde data. Want wat bleek: het algoritme was ‘hertraind’ nadat een kleine groep mensen van Bulgaarse afkomst frauduleus had opgetreden. Het systeem benadeelde daardoor iedereen vreemde afkomst.

Verdere voorbeelden zijn legio:

  • De HR-tool van Amazon bleek een vooringenomenheid te vertonen tegenover vrouwen en mensen van een andere kleur, waardoor zij minder snel werden aangeworven. 

  • In de VS zetten banken volop in op AI-gestuurde credit scoring die bepaalt of je al dan niet een lening kan aangaan. Maar ook dat kan fout uitlopen als de AI niet op basis van de juiste data wordt getraind - en er is nagenoeg nog niet voldoende wetgeving rond.  

  • In 2014 dreigde Daniel Santos zijn job als leraar op een middelbare school in Houston te verliezen. De reden: een algoritme dat hem als ongeschikt had bestempeld. Een resultaat dat ver van de realiteit lag, want dit gebeurde een week nadat hij was uitgeroepen tot leraar van de maand. Hij klaagde het systeem aan en kreeg daarvoor steun van de lerarenvakbond.

Ja, AI kan ons helpen om efficiënter te werken en processen te automatiseren. Maar het kan ook vooroordelen treffen (bias), onze privacy verstoren en ongeoorloofde beslissingen maken. Responsible AI daarentegen maakt het verschil om organisaties én particulieren te beschermen tegen deze risico’s. 

CONTROLE EN REGULATIE VAN AI-PROCESSEN

Wereldwijd ontstaan daarom regels en richtlijnen voor AI-technologieën. Vanuit het Europees Parlement gaat het vooral over het uitschakelen van discriminatie in AI-gestuurde processen, van onderwijs tot ordehandhaving. En regulatie op vlak van automatische gezichtsherkenning in de publieke ruimte. 

Het moet ook duidelijker zijn waar AI wordt ingezet en op welke manier. Volgens onderzoek van Stanford University in 2022 is slechts 50% van de wereldbevolking zich hiervan bewust. Vandaag zien we vanuit verschillende hoeken een tegenbeweging die duidelijkheid wil scheppen. Vooral het identificeren van AI-gegenereerde teksten, beelden, deepfake video’s en chatbots staat daarbij op de agenda. 

Zo werkt OpenAI, tevens het bedrijf achter de generatieve chatbot ChatGPT, aan de Text Classifier. Die zal kunnen verifiëren of een tekst door mensen of door AI is geschreven. En gaat de organisatie WorldCoin met zijn Orbs ver om onze menselijke digitale identiteit te garanderen aan de hand van oogscans (volgens WorldCoin zelf gebeurt dit met respect voor privacy en bewaart het bedrijf geen biometrische data, tenzij je dit zelf wilt). 

AI you can trust

Bij Nalantis erkennen we de nood aan regels en richtlijnen om de risico’s van artificiële intelligentie in te perken. Zelf pakken we responsible AI vanuit de bron aan: we bouwen enkel AI-tools you can trust en die worden ingezet voor positieve verandering.

Met onze ‘no black box’-aanpak werken we maximaal aan het uitsluiten van bias en het vergroten van transparantie. Dit doen we door elke stap in de besluitvorming te controleren en de uitkomst aanpasbaar te maken indien nodig. Neem ons Talent Acquisition Platform als voorbeeld: als een kandidaat wordt afgewezen, is het duidelijk waarom dit zo is en krijgt de recruiter de mogelijkheid om zijn of haar cv alsnog te bekijken. Zo zetten we AI niet in als de grote waarheid, wel als een hulpmiddel om het werk in bepaalde jobs te verlichten, versnellen en verbeteren.

Andere toepassingen van Nalantis helpen studenten inzicht krijgen in regionale jobs die passen bij hun interesses, competenties en vaardigheden. En we zetten AI in voor een betere dienstverlening in steden en gemeenten. Met het project Flying Forward 2020 werken we zelfs mee aan de regularisatie en vlotte integratie van zelfsturende voertuigen, door onze menselijke wetgeving naar hun ‘taal’ om te zetten. Robots die de wereld overnemen? Thanks to responsible AI, they know our rules.

Of je nu inzicht wil krijgen in AI, de tools toepast of er effectief zelf aan bouwt: responsible AI moet met stip op één staan. Bij organisaties, overheden én particulieren. Wil je meer weten over onze ethische AI-toepassingen en samenwerken aan betrouwbare tools? Let’s talk.


 

Geschreven door Frank Aernout, CEO bij Nalantis

Meer lezen en op de hoogte blijven? Connecteer met Frank op LinkedIn.

Previous
Previous

Openbaarheid van bestuur: geen loze belofte meer, dankzij AI-technologie

Next
Next

Wat als AI-technologie en de generatieve chatbot ChatGPT de krachten bundelen?