OpenAI har dannet en gruppe, der skal vurdere katastroferisici fra AI
Mariia Shalabaieva/Unsplash
OpenAI har annonceret oprettelsen af et nyt team, der skal afbøde potentielt farlige risici forbundet med kunstig intelligens.
Her er, hvad vi ved
Beredskabsteamet vil overvåge, vurdere og forebygge alvorlige problemer, som AI kan forårsage. Disse omfatter atomtrusler, biologiske våben, menneskeligt bedrag og cyberangreb.
OpenAI bemærker, at det nye team vil udvikle risikobaserede AI-udviklingspolitikker. Aleksander Madry, en MIT-ekspert i maskinlæring, er blevet udpeget til at lede teamet.
Ifølge OpenAI kan avancerede AI-modeller give fordele, men også indebære stigende risici. Virksomhedens CEO, Sam Altman, har tidligere advaret om de potentielle katastrofale konsekvenser af AI og opfordret regeringer til at tage teknologien lige så alvorligt som atomvåben.
Kilde: OpenAI: OpenAI