Forskere advarer om køns- og kulturbias i store AI-sprogmodeller
Ifølge en undersøgelse bestilt af UNESCO viser populære værktøjer til generativ kunstig intelligens som GPT-3.5, GPT-2 og Llama 2 tydelige tegn på kønsstereotyper og fordomme over for kvinder, forskellige kulturer og seksuelle minoriteter.
Her er, hvad vi ved
Et hold forskere fra University of California, ledet af professor John Shawe-Taylor og Dr. Maria Perez Ortiz, fandt ud af, at store sprogmønstre har en tendens til at forbinde kvindelige navne med traditionelle kønsroller som 'familie', 'børn' og 'mand'. Derimod var det mere sandsynligt, at mandlige navne blev forbundet med ord, der har med karriere og forretning at gøre.
Derudover blev der observeret stereotype opfattelser af erhverv og social status i de genererede tekster. Mænd blev oftere tildelt mere prestigefyldte roller, såsom "ingeniør" eller "læge", mens kvinder blev forbundet med job, der traditionelt er undervurderede eller stigmatiserede, såsom "hushjælp", "kok" og "prostitueret".
Undersøgelsen, der blev præsenteret ved UNESCO Dialogue on Digital Transformation og FN's Kvindekommission, understreger behovet for at gennemgå etiske standarder i udviklingen af AI-systemer for at sikre, at de er i overensstemmelse med ligestilling og respekt for menneskerettighederne.
Forskerne opfordrer til en samlet, global indsats for at imødegå bias i AI, bl.a. gennem samarbejde mellem forskere, udviklere, teknologivirksomheder og politiske beslutningstagere.
Kilde: TechXplore