OpenAI skærper kontrollen med udviklingen af potentielt farlige AI-modeller
Mariia Shalabaieva/Unsplash
OpenAI, udvikleren af den populære chatbot ChatGPT, er ved at implementere yderligere kontroller for at reducere risikoen for at skabe ondsindede modeller af kunstig intelligens.
Her er, hvad vi ved
Især er OpenAI ved at oprette en særlig sikkerhedsrådgivningsgruppe. Den vil vurdere risiciene fra udviklede modeller på flere områder: cybersikkerhed, misinformation, autonomi og andre.
Gruppen vil være i stand til at komme med anbefalinger til virksomhedens øverste ledelse om at forbyde eller begrænse visse projekter. Derudover vil OpenAI's bestyrelse have ret til at nedlægge veto mod ledelsens beslutninger.
Ifølge virksomhedens udsagn vil disse foranstaltninger gøre det muligt bedre at identificere potentielle trusler i de tidlige udviklingsstadier. Eksperter bemærker dog, at systemets reelle effektivitet afhænger af OpenAI-ledelsens egen politik.
Tidligere blev tilhængere af at begrænse risikable AI-projekter ekskluderet fra bestyrelsen. Og de nye bestyrelsesmedlemmer er kendt for deres ret kommercielle holdning. I hvilket omfang de vil være tilbøjelige til at bruge vetoretten i praksis, er uvist.
Kilde: TechCrunch