OpenAI frigiver gratis ChatGPT-4o, der kan tale, grine, synge og se
Husk, at han vil være i stand til at forstå, at du lyver.
Den 13. maj annoncerede OpenAI udgivelsen af en ny version af ChatGPT-4o, som ifølge dem "vil gøre interaktion mellem menneske og computer et skridt mere naturlig". Det nye neurale netværk accepterer enhver kombination af tekst, lyd og billeder og genererer svar i alle disse formater. Ifølge virksomheden genkender AI'en følelser, kan afbryde midt i en sætning og svarer næsten lige så hurtigt som et menneske.
Sig goddag til GPT-4o, vores nye flagskibsmodel, der kan ræsonnere på tværs af lyd, syn og tekst i realtid: https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13. maj 2024
Tekst- og billedinput udrulles i dag i API og ChatGPT med stemme og video i de kommende uger. pic.twitter.com/uuthKZyzYx
Bogstavet "o" i ChatGPT-4o's navn efterligner ikke kun 40, men står også for omni, som betyder altomfattende eller altædende. CTO for OpenAI Mira Murati sagde, at ChatGpt-4o vil være en kunstig intelligens på ChatGPT-4-niveau for alle, selv brugere uden et betalt abonnement.
Ved præsentationen løste ChatGPT-4o en lineær ligning skrevet på papir og gav også tips til dyb vejrtrækning ved blot at lytte til vejrtrækningslyde.
De tidligere sprogmodeller ChatGpt-3.5 og ChatGPT-4 kunne også kommunikere med stemmen, men til dette formål blev stemmen først oversat til tekst og derefter behandlet. Med andre ord behandlede et neuralt netværk først stemmen, og derefter behandlede et andet netværk teksten. Nu behandler det samme neurale netværk både lyden og den information, den bærer. Med denne tilgang forsøger OpenAI at få mere kontekst ud af det tilgængelige materiale, f.eks. samtalepartnerens følelsesmæssige tilstand. Det er også meget hurtigere.