Store AI-virksomheder er enige om at tackle billeder af overgreb mod børn
Steve Johnson/Unsplash
Førende virksomheder inden for kunstig intelligens, herunder Google, Meta, OpenAI, Microsoft og Amazon, er blevet enige om at tage skridt til at forhindre, at materiale om seksuel udnyttelse af børn (CSAM) bliver brugt i træningsdatasæt til AI-modeller.
Her er, hvad vi ved
Tech-giganterne har underskrevet et nyt sæt principper, der har til formål at begrænse spredningen af CSAM. De forpligter sig til at sikre, at træningsdata ikke indeholder skadeligt indhold, undgå datasæt med høj risiko for at indeholde sådant materiale og fjerne sådanne billeder eller links til dem fra datakilder.
Derudover har virksomhederne til hensigt at "stressteste" AI-modeller for at sikre, at de ikke genererer CSAM-indhold, og først frigive modeller efter at have vurderet, om de overholder kravene til børns sikkerhed.
Virksomheder som Anthropic, Civitai, Metaphysic, Mistral AI og Stability AI har også tilsluttet sig initiativet.
Den voksende popularitet af generativ AI har givet næring til spredningen af falske billeder online, herunder syntetiske fotos af seksuel udnyttelse af børn. Nyere forskning har afsløret tilstedeværelsen af CSAM-referencer i nogle populære træningsdatasæt til AI-modeller.
Thorn, en non-profit organisation, der er dedikeret til at bekæmpe børnemisbrug, og som hjalp med at udvikle retningslinjerne, advarer om, at generering af CSAM gennem AI kan forhindre ofre i at blive identificeret, skabe større efterspørgsel og gøre det lettere at finde og distribuere problematisk materiale.
Google oplyser, at virksomheden samtidig med vedtagelsen af principperne også har øget sit reklametilskud til National Centre for Missing and Exploited Children (NCMEC) for at fremme initiativer, der skal øge bevidstheden og give folk værktøjer til at identificere og rapportere overgreb.
Kilde: The Verge The Verge