Google ’s ongepaste zoeksuggesties

AI-gegenereerde afbeelding
AI-gegenereerde afbeelding

Google Search heeft sinds vorige week een klachtenknop. Het is voor het eerst dat Google informatiezoekers zo expliciet de mogelijkheid geeft zich te beklagen over haatdragende en anderszins ongepaste resultaten. Rechtsonder het lijstje met automatische aanvulsuggesties staat in minuscule lettertjes de optie ‘Ongepaste voorspellingen melden’. Met één klik kom je zo op een schermpje met een formulier waarmee je kunt aangeven dat je bepaalde zoeksuggesties misplaatst vindt.

Vooroordelen

Die klachtenknop komt kennelijk tegemoet aan de aanhoudende verwijten over ongepaste suggesties voor zoektermen. Google wordt al jaren verweten dat bepaalde zoeksuggesties niet door de beugel kunnen. Google’s lijstjes met zoeksuggesties staan vol vooroordelen. De autocomplete functie genereert seksistische en racistische content. Een bekend voorbeeld van seksisme komt voor in het filmpje ‘The Autocomplete Truth’ dat de vrouwenorganisatie van de Verenigde Naties (UNWomen) voor een campagne voor gelijke rechten liet maken. Daarbij werd onderstaand seksistische autoaanvul lijstje gebruikt.

(De autocomplete geeft ondertussen andere, minder seksistische, resultaten. Zie ook het voorbeeld verderop)

Google autocomplete genereerde ook racistische zoeksuggesties. Joden waren ‘evil’ en Maori’s ‘scum’. Een bekend voorbeeld is ook dat de zoekterm ‘unprofessional hairstyle’ vooral zwarte vrouwen in beeld bracht. Er waren de afgelopen jaren veel meer voorbeelden van racisme in Google’s zoekresultaten en autoaanvulsuggesties. De allerergste heeft Google ondertussen aangepast.

Doorgeefluik?  

De rijtjes met suggesties voor zoektermen zijn gebaseerd op de zoektermen die mensen overal op wereld intikken. De populariteit en actualiteit van zoektermen zijn bepalend voor de selectie van de zoeksuggesties (als je bent ingelogd met je Google-account, je zoekgeschiedenis bewaart en je locatie aanzet, wordt dat ook meegewogen bij de suggesties). De autoaanvul rijtjes weerspiegelen dus collectief en individueel zoekgedrag. De vraag is of Google verantwoordelijk is voor seksistische, racistische en andere haatdragende zoektermen in de gepresenteerde resultaten. Google zelf vond van niet. De vooroordelen werden wel herkend, en de allerergste verwijderd, maar men beriep zich vooral op de rol van neutraal doorgeefluik. Google benadrukt dat de autoaanvul zoektermen geen suggesties zijn, maar voorspellingen. De bewering dat een zoekmachine de werkelijkheid van het Web moet representeren klinkt neutraal, maar dat zijn Google’s algoritmes niet. Hoewel Google de algoritmes voor zoekresultaten (Pagerank) en voor de automatische aanvullingen geheim houdt, is duidelijk dat het populariteitscriterium een bepaald type informatie privilegieert (zie ook Poell en Van Dijck, 2015). De nieuwe klachtenknop laat zien dat Google dit impliciet toegeeft en toch wel bereid is enige maatschappelijke verantwoordelijkheid te nemen.

Ongepast of niet?

Bij de game Googlefeud scoor je punten als je goed voorspelt welke aanvullingen Google gaat geven bij bepaalde zoektermen. Het is geen gemakkelijk spel. Probeer maar eens te voorspellen welke automatische aanvullingen Google genereert als je ‘Vrouwen moeten… ‘ typt. Maar nog lastiger is het te bedenken of je de klachtenknop wilt gebruiken, als je deze resultaten krijgt (search in Google.com, zonder locatie en zonder inlog met Google-account):

Over Journalismlab

Onderzoek in de context van de digitale wereld

Het lectoraat Kwaliteitsjournalistiek in Digitale Transitie (JournalismLab) doet aan de hand van diverse thema’s praktijkgericht onderzoek. Hierbij kijken we naar de wederkerigheid tussen drie journalistieke processen: productie, inhoud en effect.

Deel dit artikel:

Lees meer

Thema's

Meld je aan voor onze nieuwsbrief

Wil je op de hoogte blijven van Journalismlab en alle ontwikkelingen schrijf je dan in voor onze nieuwsbrief.