AMD afslørede chips til accelereret træning af kunstig intelligens

Af : Bohdan Kaminskyi | 08.12.2023, 19:18

PaulSakuma.com.

AMD har annonceret nye acceleratorer og processorer med fokus på Large Language Models (LLM).

Her er, hvad vi ved

Chipproducenten har afsløret Instinct MI300X-chippen og Instinct M1300A-processoren til træning og kørsel af LLM'er. Som virksomheden hævder, overgår begge nye produkter deres forgængere med hensyn til hukommelseskapacitet og strømeffektivitet.

Ifølge AMD's CEO, Lisa Su, er MI300X "verdens højest ydende accelerator". Den kan sammenlignes med Nvidias H100-chip med hensyn til LLM-træning, men overgår den med 1,4 gange i inferens på Metas Llama 2 (70 milliarder parametre).

AMD annoncerede også et partnerskab med Microsoft om at implementere MI300X i Azure cloud computing. Meta annoncerede også planer om at implementere MI300-processorer i sine datacentre.

Derudover annoncerede Su MI300A APU'er til datacentre, som de sagde ville øge markedet til 45 milliarder dollars. APU'erne kombinerer CPU'er og GPU'er for hurtigere behandling. AMD hævder, at MI300A leverer høj ydeevne, hurtig modelindlæring og 30 gange højere energieffektivitet. Den har 1,6 gange så stor hukommelseskapacitet som H100 og implementerer unified memory.

MI300A vil blive brugt i supercomputeren El Capitan, som er bygget af Hewlett Packard Enterprise til Livermore National Laboratory. Det er en af de kraftigste installationer i verden med en ydeevne på mere end 2 exaflops.

Virksomheden gav ikke oplysninger om priser for de nye produkter.

Derudover annoncerede AMD Ryzen 8040 - chips, der vil gøre det muligt at introducere flere AI-funktioner i mobile enheder. Ifølge meddelelsen giver 8040-serien 1,6 gange mere AI-behandlingsydelse sammenlignet med den forrige generation og har også indlejrede neurale behandlingsenheder (NPU'er).

Virksomheden forventer, at Ryzen 8040-baserede produkter vil være tilgængelige i 1. kvartal 2024.

Kilde: The Verge