OpenAI lancerer Red Teaming Network-gruppe for at forbedre pålideligheden af sine modeller
OpenAI har annonceret lanceringen af Red Teaming Network-programmet, en gruppe af eksperter, der vil vurdere og afbøde risici i modeller for kunstig intelligens.
Her er, hvad vi ved
Ifølge OpenAI vil gruppen hjælpe med at identificere bias i modeller som DALL-E 2 og GPT-4, samt finde spor, der får AI til at ignorere sikkerhedsfiltre.
Tidligere har virksomheden også inddraget tredjepartstestere, men dette arbejde er nu formaliseret for at "uddybe og udvide" kontrollerne med eksperter og organisationer.
Deltagerne i netværket vil være i stand til at interagere med hinanden om fælles AI-testproblemer. Når det er sagt, vil ikke alle, der er involveret i projektet, arbejde på nye OpenAI-produkter.
Virksomheden inviterer også eksperter inden for en række forskellige områder til at deltage, herunder lingvistik, biometri, finans og sundhed. Tidligere erfaring med AI-systemer er ikke påkrævet, men fortrolighedsaftalen kan påvirke anden forskning, advarede OpenAI.
Kilde: OpenAI: OpenAI