Google-algoritme voor automatisch aanvullen mailtjes blijkt voorkeur te hebben voor mannen

Yoeri Nijs  | Deel:  
Artikel-plaatje

Gmail-gebruikers kunnen niet langer gebruik maken van het automatisch aanvullen van zinnen. Dat zegt een Google-topman tegen persbureau Reuters. Aanleiding is een incident waarbij de kunstmatige intelligentie een voorkeur te hebben voor een specifiek geslacht.

Toen een Google-onderzoeker begin dit jaar gebruik maakte van de Gmail-functie Slim Opstellen, waarmee teksten automatisch kunnen worden aangevuld, bleek de kunstmatige intelligentie mannen voor te trekken. Toen de medewerker intikte dat-ie volgende week een investeerder ontmoet, maakte Slim Opstellen de zin af met: ‘Wil je hem ontmoeten?’

LEES OOK: Wat is explainable AI en wat moet je erover weten?

Vaker problemen
Het incident stond niet op zichzelf. Google heeft inmiddels al een verleden wat betreft ongepaste teksten. Zo gaf de zoekmachine van het bedrijf eerder de suggestie ‘are jews evil?’ bij het intypen van de woorden ‘are’ en ‘jews’. Dit leverde de techgigant veel kritiek op, waarna Google besloot het algoritme van zijn zoekmachine aan te passen.

Ook bij Slim Opstellen van Gmail heeft Google besloten voorzichtig te zijn. Een topman van het bedrijf zegt tegen persbureau Reuters dat een team van vijftien ingenieurs bezig was om workarounds te bedenken, zodat het algoritme geen voorkeur had voor een geslacht. Dit bleek niet haalbaar.

“De enige betrouwbare techniek die wij hebben, is om terughoudend te zijn”, aldus topan Prabhakar Raghavan. Hij stond eerder aan de leiding van de ontwikkeling van de populaire maildienst Gmail.

LEES OOK: Vrouwen uitgesloten van solliciteren bij Amazon door voorkeur kunstmatige intelligentie

Vooroordelen bij sollicitanten
Kunstmatige intelligentie kampt vaker met ongepaste voorkeuren. Zo zette de internationale webwinkelgigant Amazon naar verluidt kunstmatige intelligentie in voor het selecteren van sollicitanten. De tool bleek echter een sterke voorkeur te hebben voor mannelijke kandidaten.

Kunstmatige intelligentie kan niet zomaar een besluit nemen. Hiervoor moet het algoritme eerst op basis van voorbeelden leren wat goed is en wat slecht. Als die voorbeelden niet goed zijn of bepaalde vooroordelen bevatten, neemt het algoritme dat over.

LEES OOK: Zo herkennen computers emoties in berichten op sociale media

In het geval van Amazon gebruikte de software alleen maar mannelijke sollicitanten als voorbeeld. Hierdoor werden vrouwen automatisch uitgesloten.




Wil je deelnemen aan dit gesprek? Log in of meld je aan.