In het vorige artikel werd de problematiek van (onwenselijke) biases in AI onder de aandacht gebracht. Er werd duidelijk dat een “slechte” bias in een algoritme kan leiden tot benadeling van minderheden. Het aan de kaak stellen van deze kwestie is een eerste stap om te kunnen komen tot eerlijke algoritmes. Daarnaast is het treffen van “de-biasing” maatregelen van essentieel belang. In de loop der jaren zijn er tal van methodes voorgesteld die hun toepassing vinden in verschillende fases binnen het ontwerpproces. In dit artikel bespreken we een aantal van deze technieken.
Het ontwerpproces van een algoritme kan grofweg worden onderverdeeld in de volgende drie stages: pre-processing, in-processing en post-processing. Tijdens elke van deze fases kan een bias de uitkomst van het algoritme beïnvloeden. Daarom dienen er maatregelen getroffen te worden die specifiek ontworpen zijn voor een van de fases. Recentelijk hebben wetenschappers verschillende oplossing voorgedragen die ongewenste biases bestrijden.
Pre-processing
In de pre-processing stage focussen we ons op de trainingsdata. Vaak bevat deze data een onderliggende vooringenomenheid wat leidt tot biased resultaten. De output van het algoritme zal namelijk net zo bevooroordeeld zijn als de data die je het voedt – zoals in een eerder artikel besproken “garbage in, garbage out”. Er dient gekeken te worden of de data bijvoorbeeld seksistische of racistische ongelijkheden bevat – zijn er bepaalde groepen ondervertegenwoordigd in de data wat kan leiden tot discriminerende uitkomsten? Daarnaast zal de ontwikkelaar nauwkeurig moeten kijken welke factoren er wel en niet meegenomen moeten worden in het beslissingsproces – is het bijvoorbeeld ethisch verantwoord om iemands tweede nationaliteit mee te nemen in fraudedetectie algoritmes? Ook is het belangrijk om de representativiteit van de data set te beoordelen. Tijdens de selectieprocedure kan er namelijk al een bias zijn intreden hebben gemaakt. De menselijke betrokkenheid tijdens de selectie is groot, wat een negatieve impact kan hebben op de resultaten. Uiteindelijk zal er een gebalanceerde training data set moeten ontstaan die representatief is voor de populatie en gebruikt kan worden om het model te trainen.
In-processing
Tijdens de in-processing stage focussen we ons op een ander aspect dan in de voorgaande fase. In deze fase wordt namelijk niet de data, maar het “traditionele” algoritme aangepast om ervoor te zorgen dat het model eerlijke en ook accuraat handelt. Binnen de wetenschap zijn er drie interventies voorgesteld die toegepast kunnen worden tijdens deze stage om te komen tot een eerlijk algoritme:
- Classification with fairness constraints
- Adversarial debiasing
- Prejudice remover regularizer
Hoe deze methodes precies werken valt buiten de scope van deze blogpost. Voor meer informatie over de toepassing van deze technieken verwijzen wij je graag door naar de artikelen onderaan de post.
Post-processing
Tot slot kunnen post-processing technieken worden toegepast na de trainingsfase. Deze methodes worden pas ingezet nadat een uitkomst is gegenereerd. Het doel is om biases in de voorspellingen te bestrijden door de uitkomst aan te passen in plaats van de trainingsdata of de classifier. Deze technieken zorgen er dus voor dat de output wordt gecorrigeerd zodat de resultaten uiteindelijk voldoen aan specifiek gedefinieerde vereisten voor een “eerlijk” algoritme. Een nadeel van deze methode is dat de accuracy van het model tegelijkertijd wordt aangetast om de gewenste “eerlijke” uitkomsten te bereiken.
Uit de bovenstaande informatie blijkt dat er dus heel wat te sleutelen valt tijdens de verschillende fases in het ontwikkelingsproces om biases in AI tegen te gaan. Data scientists dienen allereerst hun verantwoordelijkheid hierin te nemen. Zij kunnen ervoor zorgen dat er zo min mogelijk biases het algoritme binnentreden. Toch is technologie niet de uiteindelijk oplossing voor de fundamentele challenge van fairness en discriminatie in AI. Men zal de handen ineen moeten slaan. Niet alleen technici, maar ook ethici, filosofen en beleidsmakers zullen betrokken moeten worden in de procesvoering om vat te krijgen op deze problematiek. Menselijke biases zijn onoverkoombaar en algoritmes zouden een uitkomst kunnen bieden. Maar het is aan ons om te verzekeren dat algoritmes ons meer zullen helpen dan dat ze ons kunnen schaden.