I mandags introducerede OpenAI GPT-4o, en ny generativ AI-model. “o” står for “omni”, hvilket afspejler dens evne til at behandle tekst, tale og video. OpenAI’s teknologichef, Mira Murati, fremhævede, at GPT-4o overgår GPT-4 i håndtering af flere modaliteter.
GPT-4o er sat til at forbedre ChatGPT betydeligt. AI’en tilbyder nu mere naturlige stemmeinteraktioner, hvilket gør det muligt for brugerne at afbryde og interagere med den som en rigtig assistent. Den kan genkende nuancer i tale og svare med forskellige følelsesmæssige stilarter.
Desuden forbedrer GPT-4o visionsevnerne. Den kan analysere billeder eller skærmbilleder for at besvare relaterede spørgsmål, hvilket gør ChatGPT mere alsidig. Modellen er flersproget og understøtter omkring 50 sprog, og den er hurtigere og mere omkostningseffektiv end sin forgænger, GPT-4 Turbo.
Se den fulde præsentation her:
Stemmefunktioner i GPT-4o API’en vil i første omgang være begrænset til udvalgte partnere for at forhindre misbrug. GPT-4o er tilgængelig i ChatGPT’s gratis tier og vil snart blive integreret i OpenAI’s premium planer med højere beskedgrænser. En opdateret ChatGPT-brugerflade og en macOS desktop-app er også en del af udrulningen, der sigter mod at gøre AI-interaktion mere naturlig og brugervenlig.
Så…:
Hvordan kan du udnytte alle de nye muligheder, og AI generelt, i din virksomhed?”
Kilde og billede:
techcrunch.com, OpenAI