Nieuws

IBM lanceert detectietool voor AI-vooringenomenheid

Belgische bedrijven raken zo langzamerhand steeds meer overtuigd van de meerwaarde van AI, zo bewees recent nog ons event “Business Meets AI”, waar de laatste bedrijfsinnovaties op vlak van AI werden toegelicht.

 

Toch blijft de implementatie van AI op grote schaal een uitdaging voor veel Belgische bedrijven. Uit een studie van IBM blijkt nochtans dat acht op tien bedrijven wel AI wil beginnen toepassen in bedrijfsprocessen, maar dat de vaardigheden om AI binnen een team te gebruiken vaak ontbreken, en dat bedrijven in veel gevallen terugdeinzen voor aansprakelijkheidskwesties.

 

Bezorgdheid

 

Die bezorgdheid wordt grotendeels verklaard door de vooringenomenheid die AI soms vertoont, wat al eens verontrustende resultaten genereert. Het ironische aan dat fenomeen is dat een AI op zich nooit vooringenomen kan zijn, maar voor zijn resultaten afhankelijk is van de data die het gevoed krijgt. En aangezien datasets niet van nature objectief zijn, moet de dataselectie al heel zorgvuldig uitgevoerd zijn om objectieve resultaten te genereren.

 

Daar gaat het vaak mis. Zo werkt Google Translate met vertaalalgoritmen en baseert de software zich daarvoor op gigantische datasets van allerlei soorten tekstuele informatie. Aangezien het algoritme in die dataset meer voorbeelden vindt van hardwerkende mannen dan van vrouwen, vertaalt Google Translate het Turkse persoonlijk voornaamwoord van de derde persoon enkelvoud steevast naar ‘hij’.

 

Flagrant 

 

Dergelijke voorbeelden zijn al flagrant genoeg wanneer je ze geïsoleerd tegenkomt, maar zijn ronduit gevaarlijk wanneer ze op grote schaal toegepast en geïnstitutionaliseerd worden. In het verleden toonde gezichtsherkenningssoftware al aan dat het moeite had met het herkennen van gezichten van niet-Kaukasische oorsprong. In 2015 ontstond er nog een kleine rel toen bekend raakte dat de gezichtsherkenningssoftware van Google personen van Afro-Amerikaanse origine als gorilla’s had gemarkeerd.

 

Geen moraalridders 

 

Bedrijven zien zulke scenario’s niet graag gebeuren in eigen achtertuin en houden hun deontologie liever zuiver. Niet omdat ze noodzakelijk moraalridders zijn, maar omdat ze liever niet geconfronteerd worden met torenhoge schadeclaims. En dat kan je hen niet echt kwalijk nemen.

 

IBM heeft daarom een speciale tool ontwikkeld die vooringenomenheid bij algoritmen zou kunnen detecteren. De Fairness 360 Kit zal je voortdurend uitleg geven over hoe AI-beslissingen worden genomen, maar brengt daarnaast ook eventuele bias aan het licht. Als kers op de taart geeft de tool ook nog eens aanbevelingen over hoe je de vooringenomenheid van je algoritme kan wegwerken.

 

De software van IBM is open-source, en werkt samen met een verscheidenheid aan veelgebruikte kaders voor algoritmen. Consumenten en bedrijven zullen aan de hand van een virtueel dashboard kunnen zien hoe hun algoritmen nu precies beslissingen uitvoeren en welke factoren ze daarbij in acht nemen. Voor IBM is de tool alvast een stap in een nieuwe, ethische richting.

Gerelateerde artikelen

Volg ons

Ga jij apps uit alternatieve appstores installeren?

  • Nee, App Store of Play Store is goed genoeg (57%, 109 Votes)
  • Alleen als ik een app écht nodig heb (29%, 56 Votes)
  • Ja, ik wil apps van andere bronnen installeren (14%, 27 Votes)

Aantal stemmen: 194

Laden ... Laden ...
69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business