ai & discriminatie vrouwen
Image: iStock

Versterken algoritmen patronen van discriminatie in de maatschappij? Een kritische reflectie over de ethische rol van AI.

Advertentie

Op Internationale Vrouwendag staan we stil bij de culturele, maatschappelijke en sociale verwezenlijkingen van vrouwen. En geloof me, er heerst heel wat girlpower in de wereld van vandaag. Maar tegelijkertijd voelt het wel dubbel. Waarom krijgt de Internationale Vrouwendag zoveel aandacht?

Het antwoord is simpel, de oplossing complex. Tot op heden bestaat er nog een mijlengrote kloof tussen mannen en vrouwen. Enkel al op professioneel vlak zijn de cijfers pijnlijk: gemiddeld verdienen vrouwen nog steeds minder dan mannen, ze vertegenwoordigen minder high-level managementfuncties dan mannen, krijgen minder onderwijs- en doorgroeikansen dan mannen… En in de tech-wereld zijn ze overduidelijk in de grote minderheid. De lijst is ellenlang, de cijfers zijn zeer schrijnend en de concrete voorbeelden te frequent aanwezig in onze – wat ik dacht – geciviliseerde maatschappij.

De droom bij velen, en zeker bij mij, is om naar een wereld te evolueren waarin er geen onderscheid gemaakt wordt tussen man, vrouw of welke genderidentiteit ook. Laat me duidelijk zijn: een jobfunctie aangeboden krijgen omdat je vrouw bent, en niet omdat je per se de beste papieren hebt, is niet de oplossing! Gelijkheid wil zeggen dat geslacht op geen enkele manier een invloed heeft in de beslissingen die we nemen.

Responsible AI

Ik ben ondertussen een tiental jaar actief in het domein van Artificiële Intelligentie (of data mining zoals we het tien jaar geleden noemden). Een topic dat zeer veel aandacht krijgt de laatste tijd is de ontwikkeling en implementatie van Responsible AI, het verantwoord gebruik van AI. Met het voorstel van de nieuwe Europese AI Act, wordt het des te belangrijker om AI te ontwikkelen dat niet alleen accuraat en effectief is, maar ook fair en onbevooroordeeld ten opzichte van minderheidsgroepen.

Een belangrijk aspect van Artificiële Intelligentie is dat de intelligentie die het zichzelf aanleert gebaseerd is op data. Data waartoe wij allemaal bijdragen en dat door ons allen gemaakt en geproduceerd is.

Bias in AI-systemen

De vaak onuitgesproken maatschappelijke bias kan vertaald worden in expliciete bias in AI-modellen en systemen. Dit leidt vaak tot controversiële AI-systemen. Denk aan het AI-gebaseerde wervingssysteem dat Amazon in 2014 bouwde om sneller en efficiënter de juiste kandidaat te selecteren voor de job. Al snel bleek dat het AI-systeem de voorkeur gaf aan mannelijke kandidaten en dat vrouwelijke kandidaten bijna geen schijn van kans maakten om te worden aangenomen. Een studie uit 2015 toonde aan dat vrouwen minder vaak advertenties op Google kregen voor goedbetaalde banen. Diezelfde tech-gigant was het onderwerp van een onderzoek rond discriminatie in zijn zoekresultaten. Zoekopdrachten voor afbeeldingen in Google naar termen zoals CEO of professor leverden opmerkelijk minder resultaten met vrouwen dan mannen. Na verder onderzoek van de zoekresultaten bleek dat de eerste afbeelding van een vrouwelijke CEO een afbeelding van het speelgoedfiguur Barbie was. In 2019 gaf Apple toe dat het AI-systeem de creditcardlimieten van hun mannelijke klanten typisch hoger legde dan van hun vrouwelijke klanten ondanks dat ze dezelfde kredietkwalificaties hadden.

Hoewel de resultaten vaak schokkend zijn, moeten we de AI-systemen dankbaar zijn dat ze de eigenlijke situatie tastbaar maken. De controversiële AI-systemen zijn gebaseerd op het in kaart brengen van patronen in data. En opnieuw, deze data zijn data die wij zelf opbouwen en produceren. Het recruitmentsysteem van Amazon had zijn kennis geleerd op basis van de analyse van tien jaar aanwervingsprocedures die werden uitgevoerd door menselijke recruiters. Google’s advertenties en zoekresultaten zijn gebaseerd op het klikgedrag van jou en anderen. Het leert van en rankt het materiaal dat online gepost wordt. Als er geen foto’s van vrouwelijke CEO’s gepost worden, kan het algoritme onmogelijk foto’s van vrouwelijke CEO’s teruggeven. Apple’s algoritme voor creditcard beheer leert zijn kennis uit historische gegevens en gedrag van klanten.

Er is dus nog veel werk te verzetten voordat alle vooroordelen volledig uit onze wereld zullen verdwenen zijn. Alvorens we AI-systemen veroordelen als discriminerende duivels, laat ons eerst naar onszelf kijken en reflecteren hoe zulke AI-systemen tot stand zijn gekomen. Enkel door een goede samenwerking tussen menselijke intelligentie en artificiële intelligentie, zullen we onze wereld een tikkeltje beter kunnen maken. En een wereld van gelijkheid en zonder vooroordeel – op elk vlak – dat is waar we voor gaan op internationale vrouwendag.


Dit opiniestuk werd geschreven door Véronique Van Vlasselaer, Data & Decision Scientist bij SAS. De redactie van TechPulse Business is niet verantwoordelijk voor de inhoud.


Geen velden gevonden.

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here