Google har udvidet sit bug bounty-program for sårbarheder i generative AI-systemer
Jakub Porzycki/Getty Images
Google har suppleret sit belønningsprogram for at finde sårbarheder med angrebsscenarier, der er specifikke for generativ kunstig intelligens.
Her er, hvad vi ved
I bug bounty-programmet betaler Google etiske hackere en kontant belønning for at finde og afsløre sårbarheder på en ansvarlig måde. Ifølge virksomheden giver det et incitament til at forske i AI-sikkerhed og vil hjælpe med at identificere potentielle problemer for at gøre teknologien mere sikker.
På grund af de nye sikkerhedsproblemer med AI har Google besluttet at genoverveje, hvordan de kategoriserer fejl i deres systemer. For at gøre dette bruger virksomheden data fra sit AI Red Team, der modellerer forskellige cyberangreb.
Teamet opdagede især sprogmodellernes sårbarhed over for indførelsen af ondsindede hints og angribernes udvinding af træningsdata. Sådanne scenarier er nu dækket af bug bounty-programmet.
Bugs, der involverer krænkelse af ophavsret eller udtrækning af ufølsomme data, vil dog ikke blive belønnet.
Belønningens størrelse vil afhænge af, hvor alvorlig den fundne sårbarhed er. Google betalte forskere mere end 12 millioner dollars i 2022.
Kilde: TechCrunch