Myte afkræftet: ChatGPT-anmodning bruger mindre end 1 W/t

ChatGPT er blevet en integreret del af mange brugeres arbejdsgange, men med dens popularitet er bekymringen for det høje strømforbrug også vokset. En ny undersøgelse fra Epoch AI afkræfter dog disse bekymringer.
Her er, hvad vi ved
Forskeren Joshua Yu har beregnet, at et enkelt spørgsmål til ChatGPT (baseret på GPT-4o) bruger ca. 0,3 W/t, hvilket er meget mindre end tidligere antaget. Til sammenligning troede man tidligere, at hver chatbot-forespørgsel brugte 3 W/t, men denne beregning var baseret på forældede data og mindre effektiv hardware.
Joshua bemærker, at dette strømforbrug er meget lavere end for de fleste husholdningsapparater. Desuden arbejder teknologivirksomheder aktivt på at forbedre energieffektiviteten i kunstig intelligens. Nye generationer af AI-chips bliver ikke kun mere kraftfulde, men også mindre energiforbrugende.
Men i takt med at AI udvikler sig, vil elforbruget stadig stige. Modeller med fokus på mere komplekse opgaver vil kræve mere computerkraft, og fremtidige AI-agenter vil være i stand til at udføre forskellige opgaver på menneskeligt niveau.
Det forventes, at fremtidige AI-agenter vil være i stand til at arbejde på menneskeligt niveau inden for forskellige områder, hvilket vil føre til en stigning i antallet af datacentre og dermed en stigning i energiforbruget.
"AI vil fortsætte med at udvikle sig, og træningen af den vil kræve flere og flere ressourcer. I fremtiden vil disse systemer arbejde meget mere intensivt og udføre mere komplekse opgaver, end de gør nu", konkluderede forskeren.
Kilde: Android-overskrifter