Laten we dit artikel beginnen met een raadsel die luidt als volgt: “Een vader en zijn zoon krijgen een ernstig auto-ongeluk. De vader overlijdt ter plekke. De zoon wordt met gillende sirenes naar het ziekenhuis gebracht voor een levensreddende operatie. Vlak voor de operatie werpt de chirurg die de operatie zal uitvoeren een blik naar de jongen en zegt: “Ik kan deze jongen niet opereren, want hij is mijn zoon!”. Rara hoe kan dit?
Het merendeel van degene die dit raadsel voorgeschoteld krijgen, ervaren grote moeite met het vinden van de oplossing. Antwoorden als: “Het is de zoon van een homostel”, “De jongen is geadopteerd” of “De moeder is vreemdgegaan, en de chirurg is de echte vader”, passeren de revue. Slechts een kleine groep draagt de simpele oplossing aan dat de chirurg de moeder van de jongen moet zijn.
“If you want the bias out get the algorithm in?” – Andrew McAfee of MIT
Dit eenvoudige voorbeeld toont aan dat er bepaalde vooroordelen diepgeworteld zitten in ons menselijk brein. Zonder enig besef koppelen onze hersenen automatisch het beroep “chirurg” aan het mannelijke geslacht. De razendsnel groeiende Artificial Intelligence ontwikkelingen kunnen een veelbelovende oplossing bieden om biases in besluitvorming te voorkomen – “If you want the bias out get the algorithm in”. Een computer wordt namelijk niet geleid door persoonlijke voorkeuren en kan geen slechte dag hebben. Bovendien heeft een computer meer capaciteit om informatie te verwerken dan ons eigen brein.
Tegelijkertijd worden dergelijke algoritmes gecreëerd door mensen en getraind aan de hand van historische data. Dit kan ervoor zorgen dat er onbewust een bias in het model wordt ingebouwd. Deze bias kan zelf worden versterkt door het algoritme met als gevolg dat er een discriminerend of seksistisch algoritme ontstaat. In praktijk kan dit leiden tot ongewenste uitkomsten. Dit baart grote zorgen bij onderzoekers en het heeft ook zijn weerslag op de gewone burger. Een welbekend voorbeeld van een dergelijk schandaal is de toeslagen affaire waarbij ouders ten onrechte door een algoritme werden gelabeld als potentieel fraudegeval op basis van hun nationaliteit met alle ernstige gevolgen van dien. Deze kwestie benadrukt het in acht nemen van de nodige zorgvuldigheid bij de toepassing van algoritmes die een directe of indirecte invloed hebben op de maatschappij.
Bewuste en onbewuste bias
Er kan een onderscheid gemaakt worden tussen twee vormen van biases, simpel gezegd de “goede” en de “slechte” bias. Een bias is namelijk niet per definitie te bestempelen als slecht of onwenselijk. In zekere zin is het uiteindelijke doel van een algoritme om te komen tot een bewust gecreëerde bias. Dixon et al. (2018) geeft ons een verduidelijkend voorbeeld: een algoritme dat wordt ingezet om “toxic comments” te detecteren, zal als het goed is een hogere score toekennen aan toxische opmerkingen. Niet deze bewust gecreëerde bias, maar een onbewuste bias vormt de boosdoener. Dit model zou namelijk niet per definitie een hogere score moeten toekennen aan comments die het woord “gay” bevatten, denk aan comments als: “I am gay”. Doordat de term “gay” regelmatig wordt gebruikt in een toxische context, associeert het algoritme het woord “gay” direct met een toxische comment. Dergelijke structuren en patronen resulteren in discriminerende algoritmes.
Garbage in, Garbage out
In plaats van het streven naar complete unbiased systemen – in de ruime zin van het woord – zouden we ons moeten focussen op het ontwikkelen van eerlijke algoritmes door slechts onbewuste biases te elimineren. Om tot een niet discriminerende output te komen, dient er geen vooringenomenheid aanwezig te zijn in de input, want “garbage in, garbage out” – een veelgebruikte uitspraak binnen de data science. Vooringenomen input data, zal leiden tot een onrechtvaardige en discriminerende eindbeslissing. Een simpel voorbeeld: een algoritme dat getraind wordt op basis van data over het huidige personeel wat voornamelijk bestaat uit mannen, zal bij de inzet tijdens een sollicitatieprocedure automatisch kandidaten van het mannelijke geslacht eerder bestempelen als geschikt voor de desbetreffende functie dan potentiele vrouwelijke kandidaten.
Voorkomen is beter dan genezen
Het ontwikkelen van eerlijke algoritmes rust in beginsel op de schouders van de data scientist. Vanaf de start van het proces tot en met de inwerkingtreding dient de ontwikkelaar voortdurend alert te zijn op onwenselijke biases die het algoritme binnensluipen. Tips en tricks om onbewuste biases in modellen te bestrijden, lees je in de volgende blogpost.
Wil je meer lezen over de verschillende type biases binnen AI? Lees dan het volgende artikel:
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2019). A survey on bias and fairness in machine learning. ACM Computing Surveys (CSUR), 54(6), 1-35.