OpenAI har oprettet et team, der skal indarbejde offentlighedens idéer i styringen af AI-modeller.
Mariia Shalabaieva/Unsplash
OpenAI har annonceret dannelsen af en ny forskningsgruppe, Collective Alignment, som skal udvikle et system til at indsamle og tage hensyn til den offentlige mening, når der træffes beslutninger om adfærden hos virksomhedens modeller for kunstig intelligens.
Her er, hvad vi ved
Ifølge udviklerne vil Collective Alignment sikre, at fremtidige AI-modeller er i tråd med samfundets værdier og forventninger.
Oprettelsen af teamet var resultatet af et tilskudsprogram, der blev lanceret sidste år, og som finansierede eksperimenter med at indføre offentlig kontrol og "demokratiske processer" i styringen af AI-systemer.
OpenAI offentliggør nu koden og resultaterne af støttemodtagernes arbejde. I fremtiden vil Collective Alignment-teamet integrere lovende prototyper i virksomhedens produkter og tjenester.
Udviklerne hævder, at initiativet er designet til at gøre OpenAI AI så nyttig og sikker for samfundet som muligt. Nogle eksperter bemærker dog, at virksomheden har kommercielle interesser og risikerer at udøve lobbyvirksomhed i forhold til lovgivningen.
Kilde: OpenAI