AI-utviklingen går inn i «produktæraen» med nye OpenAI-modeller
OpenAI har nylig lansert nye modeller, inkludert en åpen kildekode-variant kalt GPTO OSS og en ny frontlinjemodell, GPT5. Disse lanseringene signaliserer et potensielt skifte i AI-utviklingen, der fokus flyttes fra generelle gjennombrudd til mer spesialisert funksjonalitet.
OpenAI har nylig lansert flere nye modeller, inkludert en åpen kildekode-modell kalt GPTO OSS og en ny frontlinjemodell, GPT5, begge i ulike varianter. Disse lanseringene reiser spørsmål om retningen for AI-utviklingen, og om æraen med banebrytende fremskritt nå er over.
Mange sammenligner dagens AI-utvikling med «Samsung Galaxy-æraen» for smarttelefoner. Tidligere generasjoner av smarttelefoner bød på revolusjonerende nyvinninger, mens vi nå ser mer inkrementelle forbedringer. Dette antyder at generell kunstig intelligens (AGI) kanskje ikke er så nært forestående som tidligere antatt, da frontlinjemodeller fra OpenAI og andre aktører viser en lignende trend.
Det antas at OpenAI har brukt omfattende syntetiske datasett og forsterkningslæring i treningen av disse nye modellene. Dette innebærer at modellene er skreddersydd for spesifikke bruksområder, med koding og benchmarking som sannsynlige hovedfokus. Analysene av innebygde data fra åpen kildekode-modellene, som viser en spesiell distribusjon, underbygger antagelsene om datasammensetning og treningsparadigme. Selv om modellene kan ha mindre «verdensforståelse» og åpen kildekode-variantene kan «hallusinere» mer, utmerker de seg i instruksjonsfølging og verktøykall.
Fremtiden for store språkmodeller (LLM-er) ser ut til å ligge i deres evne til å fungere som en «lim» mellom ulike verktøy, der de ruter informasjon og utfører agentisk atferd. Dette er allerede en funksjon som er tilgjengelig fra de fleste LLM-leverandører. Det som vil være avgjørende fremover er tilgangen til og kvaliteten på verktøyene, samt LLM-enes evne til å integreres med disse. En utfordring er imidlertid at mange verktøykall fortsatt krever en betydelig grad av verdensforståelse, noe som kan bli en balansegang.
Et bemerkelsesverdig aspekt ved GPT5 er prisen. Modellen er priset svært konkurransedyktig, spesielt med tanke på dens ytelse. Den presterer på nivå med andre frontlinjemodeller, spesielt innen koding og verktøykall, men til en lavere kostnad. Dette kan tyde på at den grunnleggende forskningen for å gjøre modellene bedre har nådd et platå.
Det har lenge vært antatt at det var mye å hente på å skalere treningsdata og datakraft, men dette synet utfordres nå. I stedet fokuseres det på smartere metoder for å skape syntetiske datasett og forme belønninger i forsterkningslæring. Dette er en retur til mer «smart» maskinlæring, i motsetning til den tidligere æraen med massiv datainnsamling og datakraft. Med treningskjøringer som nå koster millioner av dollar, blir det viktig å kunne forutsi resultater fra små eksperimenter og tidlige treningsforløp.
De nye OpenAI-modellene er altså i stor grad trent på syntetiske data og forsterkningslæring, og er sannsynligvis rettet mot «pengegenererende situasjoner» snarere enn ren intelligens. Det virker som om utviklingen har flatet ut på dette området, og at AGI ikke er nært forestående. Vi er nå i en «produktæra» for AI, og det gjenstår å se hvilke nye, interessante forskningsområder som vil dukke opp.