Det går noen ganger litt fort i svingene når nyheter skal rapportere om kunstig intelligens. Det kommer konstant nye artikler om nye modeller med litt bedre ytelse og litt raskere output med et litt større kontekstvindu, uten at det nødvendigvis er lett å få øye på de reelle forbedringene. Da DeepSeek kom på banen i starten av januar, handlet mye av ståheien om at det kinesiske firmaet bare hadde brukt en hundredel av utgiftene og gamle microchipper for å lage den imponerende modellen som kunne måle seg med OpenAIs flaggskip.
Dette er selvfølgelig interessant nok, men det er kanskje like spennende at DeepSeek gjorde selve resonneringen i modellene synlige og gratis.
Både Gemini, Chatgpt og DeepSeek har en eller annen versjon av en resonneringsspråkmodell. Rent teknisk er dette en språkmodell som er trent i step by-step-resonnering og som lager en plan om hvordan den prøver å løse de problemet du setter opp og etterfølgende løser utfordingen skrittvis. OpenAI hadde allerede denne typen modell da DeepSeek ble lansert, men du kunne ikke se selve resonneringene i motsetning til med DeepSeek
Med DeepSeek vises hver del av tankerekken i klartekst, og dette kan gi en bedre forståelse av modellens styrker og svakheter. Dette har også en praktisk nytte: Hvis en modell resonnerer feil, blir det lettere å identifisere hvor den tar feil og eventuelt justere inputen for å få et bedre svar.
Nå har alle de store aktørene fått åpen resonnering, men hvorfor har ikke OpenAI, Google og andre gjort dette før? Var dette en teknisk begrensning, en strategisk beslutning, eller handlet det om kontroll?
Vennligst merk at hos OpenAI kan det være litt forvirrende med de forskjellige modellene, men både o1 og o3 er resonneringsmodeller der du kan se hvordan språkmodellen tenker, i tillegg til resonneringsmodellen DeepResearch som er optimert for å lage lengre rapporter med solide kildehenvisninger.
Forvirret? Du er ikke den eneste. Uansett. Hvordan kan vi bruke resonneringsmodellene?
La oss først ta en titt på Perplexity og dens DeepResearch og gi modellen et komplisert spørsmål som krever både søk, vurdering av pris, vurdering av kvalitet og lokale forhold:
Perplexity tenker seg litt om, forteller oss at dette kan ta litt tid, og går i gang med oppgaven. Etter et par minutter har den spyttet ut en rimelig fyllestgjørende rapport om bilmarkedet i Norge og hvilken bil som gir best verdi for pengene i 2025. Fun fact: Det er enten Volvo EX30, Hyundai Ionic 5, eller Tesla model Y i følge Perplexity. Du kan lese hele rapporten her.
La oss prøve noe av det samme hos ChatGPTs Deep Research
Her kan du se at ChatGPT ber meg om å klargjøre problemstillingen og dette er en svært nyttig funksjon. Jeg forteller den hva jeg vil og så går den i gang med prosjektet.
Etter 8 minutter og 55 sekunder har ChatGPT laget en (rimelig skremmende) rapport med solide kilder om mikroplastikk og hvordan det påvirker oss. Du kan se denne rapporten her.
Rent personlig synes jeg resonneringsmodellene er helt fantastiske og jeg bruker de hver dag til emner som krever litt mer research. Jeg har enda ikke oppdaget særlig mye hallusinering så langt, men det er nok en god ide å alltid sjekke kildene.
For mer informasjon om hvordan man lager gode promts/forespørsler spesifikt for resonneringsmodeller, så denne (litt avanserte) Prompt Engineering with Reasoning Models eller denne litt enklere How to Prompt Thinking Models like DeepSeek R1 and OpenAI o3.
Ukens verktøy:
Pika - En elegant og lettvint måte å skape og endre i videoer. Du kan enkelt skifte ut personer, ting eller videoer med kommandoer. Her ser man virkelig hvor langt generativ video har kommet det siste året.
Sora - OpenAIs Sora er endelig tilgjengelig i EU & Storbritannia. Gå hit eller les mer her.
Nyheter
Det skjer mye for tiden:
Ny Claude versjon 3.7 fra Anthropic som utmerker seg innen koding
Ny ChatGPT 4.5 som foreløpig bare er tilgjengelig for Pro-brukere
AI cracks superbug problem in two days that took scientists years
Meta lanserer sin egen AI-app som skal konkurrere med OpenAI, Anthropic og Google
Dette kan vel raskt bli kontroversielt tenker jeg: Teleperformance rolls out AI software that ‘neutralizes’ Indian call agents’ accents
Det var det for denne gang. L8er g8er. John