AI-gebaseerde werving: Experiment legt racisme door OpenAI's GPT bloot
Geautomatiseerde aanwervingsprogramma's op basis van OpenAi's GPT worden door bedrijven gebruikt om kandidaten te selecteren voor vacatures. Recruiters gebruiken de tool om tijd te besparen, maar zoals een Bloomberg-experiment, geïnspireerd door baanbrekende studies, heeft aangetoond, is kunstmatige intelligentie bevooroordeeld bij het evalueren en selecteren van kandidaten heeft aangetoond dat kunstmatige intelligentie bevooroordeeld is bij het evalueren en selecteren van kandidaten.
Het probleem is dat het onderliggende AI-model zijn informatie haalt uit enorme hoeveelheden gegevens zoals artikelen, online opmerkingen en berichten op sociale media, die racistische, vrouwonvriendelijke en vele andere discriminerende inhoud kunnen bevatten. In het uitgebreide onderzoek werden bijvoorbeeld fictieve namen (en cv's) gebruikt die geassocieerd werden met een bepaalde etniciteit om te solliciteren naar een echte baan.
Er werden namen gekozen die geassocieerd werden met zwarte, blanke, Latijns-Amerikaanse of Aziatische vrouwen en mannen. Het experiment werd 1000 keer uitgevoerd voor een echte baan als financieel analist met honderden verschillende namen en naamcombinaties en werd daarna nog eens herhaald voor vier andere banen voor software-ingenieurs en andere beroepsgroepen.
Namen van bepaalde demografische groepen werden duidelijk geprefereerd door GPT-3. Zo werden namen van Aziatisch-Amerikaanse vrouwen het hoogst gerangschikt voor een functie als financieel analist, terwijl namen die duidelijk duidden op zwarte mannen het laagst werden gerangschikt, maar namen die duidden op zwarte vrouwen werden ook slechts ongeveer 11% van de tijd gerangschikt als topkandidaat voor een functie als software-ingenieur - ongeveer 36% minder vaak dan de hoogst scorende groep.
Als topkandidaat voor een functie in Human Resources - een carrièregebied waarin van oudsher meer vrouwen werken - selecteerde GPT significant vaker namen die in verband worden gebracht met Latijns-Amerikaanse vrouwen, en als topkandidaat voor een functie op HR Business Partner positie werden namen die geassocieerd werden met mannen bijna twee keer zo vaak geselecteerd. Dit zijn slechts enkele voorbeelden uit het grote experiment.
Hoewel vaak wordt aangenomen dat AI neutraler is en beter kan oordelen, toont dit experiment het tegenovergestelde aan. Het vooroordeel werd niet alleen bij GPT-3 gevonden, maar ook bij GPT-4.
Bron(nen)
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon