Nieuws

Hoe we blindelings vertrouwen op racistische algoritmes

In plaats van machines aan te passen, is het beter dat software-ontwikkelaars op het matje worden geroepen. Van mensen verwacht je immers vooroordelen, bij machines reken je op een zekere objectiviteit.

 
Artificiële intelligentie wordt steeds geavanceerder. Terwijl de technologie vroeger enkel de simpelste taken van ons overnam, is het nu zelfs al in staat om keuzes te maken. En dat brengt een aantal ethische kwesties met zich mee. Volgens technologiewebsite CIO vertonen algoritmes vaak racistische trekjes. Wetenschappers maken zich zorgen op basis van welke factoren software beslissingen neemt, en of die wel ethisch zijn.
 

Recidivisme en werving

Vorig jaar publiceerde ProPublica een artikel dat er software in omloop is die voorspelt of criminelen opnieuw in de fout zou gaan. Niet-blanken zouden in deze code benadeeld worden. Dit is slechts een van de vele voorbeelden van vooringenomen algoritmes die in omloop zijn.
 
Ook vooroordelen over geslacht, leeftijd en ras vinden zo hun weg naar artificiële intelligentie, bijvoorbeeld in sollicitatie-procedures en programma’s die bepalen of een klant in aanmerking komt voor een lening. Technische Universiteit MIT vindt dat dit beter kan en heeft onlangs een hele conferentie aan dit onderwerp gespendeerd.
 

Opvoeding

Algoritmen zijn onmisbaar geworden in onze moderne maatschappij, maar menselijke input blijft belangrijk. In plaats van ethiek te leren aan de machines, is het beter dat mensen hierin opgeleid worden. Van mensen verwacht je immers subtiele vooroordelen, bij machines wordt er onterecht vertrouwd op hun objectiviteit.

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business