Meta AI har svært ved at generere billeder af mennesker af forskellige racer
Meta AI/Engadget screenshot
Meta AI's billedgenerator viser tegn på bias, når den modtager anmodninger om billeder, der viser mennesker af forskellige racer sammen.
Her er, hvad vi ved
Som nylige tests har vist, kæmper virksomhedens værktøj med at håndtere tilsyneladende enkle instruktioner som "en asiatisk mand med en hvid kvindes ven" eller "en asiatisk mand med en hvid kone". I stedet for at gengive anmodningen nøjagtigt, genererer Meta AI ofte billeder af mennesker af samme race.
I et eksempel, hvor programmet blev bedt om at skabe "en mangfoldig gruppe af mennesker", producerede det et gitter med ni hvide ansigter og én person af en anden race. Anmeldere har også bemærket mere subtile manifestationer af bias.
For eksempel har generatoren en tendens til at gøre asiatiske mænd ældre og kvinder yngre. Derudover tilføjede værktøjet også nogle gange "kulturelt specifik påklædning" til billederne, selv om det ikke var en del af opgaven.
Årsagerne til disse fejl i generatorens ydeevne er endnu ikke klare. Tidligere har andre AI-systemer, herunder Googles Gemini, begået lignende fejl, når de afbildede mennesker af forskellige racer.
Meta AI har betegnet sin generator som en "betaversion" og indrømmet, at den er tilbøjelig til at lave fejl. Virksomheden har også tidligere advaret om, at dens værktøj ikke altid kan svare korrekt på simple spørgsmål om aktuelle begivenheder og personligheder.