Code Llama fra Meta er tæt på GPT-4 i kodegenereringsnøjagtighed

Af : Bohdan Kaminskyi | 30.01.2024, 20:34
Code Llama fra Meta er tæt på GPT-4 i kodegenereringsnøjagtighed
Dima Solomin/Unsplash

Meta har opdateret sin store sprogmodel til kodegenerering Code Llama 70B. Ifølge udvikleren er dens nøjagtighed nu tæt på OpenAI's GPT-4.

Her er, hvad vi ved

Ifølge Meta kan den opdaterede Code Llama 70B håndtere flere forespørgsler og producere mere præcise resultater. Den scorede 53% på nøjagtighedsmåling i HumanEval-testen. Til sammenligning har GPT-3.5 en score på 48,1 procent, og GPT-4 har en score på 67 procent.

Meta's Code Llama hjælper programmører med at generere kodestykker baseret på hints og debugge eksisterende programmer. 70B-modellen blev trænet på 1 TB programmeringsrelaterede data. Den er gratis tilgængelig for forskning og erhvervsliv.

Meta har tidligere introduceret de sprogspecifikke værktøjer Code Llama Python og Code Llama Instruct. Nu siger virksomheden, at dens AI-modeller viser "de bedste resultater, når det gælder om at hjælpe udviklere."

Kilde: The Verge