Kontakt med oss

Kunstig intelligens

Hva lanseringen av OpenAIs o1-modell forteller oss om deres skiftende AI-strategi og visjon

mm

OpenAI, pioneren bak GPT-serien, har nettopp avduket en ny serie AI-modeller, kalt o1, som kan "tenke" lenger før de svarer. Modellen er utviklet for å håndtere mer komplekse oppgaver, spesielt innen naturfag, koding og matematikk. Selv om OpenAI har holdt mye av modellens arbeid skjult, gir noen ledetråder innsikt i dens evner og hva den kan signalisere om OpenAIs utviklende strategi. I denne artikkelen undersøker vi hva lanseringen av o1 kan avsløre om selskapets retning og de bredere implikasjonene for AI-utvikling.

Avduking av o1: OpenAIs nye serie med resonneringsmodeller

O1 er OpenAIs nye generasjon AI-modeller designet for å ta en mer gjennomtenkt tilnærming til problemløsning. Disse modellene er opplært til å avgrense tenkningen, utforske strategier og lære av feil. OpenAI rapporterer at o1 har oppnådd imponerende gevinster i resonnement, og løst 83 % av problemene i den internasjonale matematikk-olympiade (IMO) kvalifiserende eksamen – sammenlignet med 13 % av GPT-4o. Modellen utmerker seg også i koding, og når den 89. persentilen i Codeforces-konkurranser. I følge OpenAI vil fremtidige oppdateringer i serien fungere på nivå med PhD-studenter på tvers av fag som fysikk, kjemi og biologi.

OpenAIs Evolving AI-strategi

OpenAI har lagt vekt på skaleringsmodeller som nøkkelen til å låse opp avanserte AI-funksjoner siden starten. Med GPT-1, som inneholdt 117 millioner parametere, var OpenAI banebrytende for overgangen fra mindre, oppgavespesifikke modeller til ekspansive, generelle systemer. Hver påfølgende modell – GPT-2, GPT-3 og den nyeste GPT-4 med 1.7 billioner parametere – demonstrert hvordan økende modellstørrelse og data kan føre til betydelige forbedringer i ytelsen.

Nyere utvikling indikerer imidlertid et betydelig skifte i OpenAIs strategi for utvikling av AI. Mens selskapet fortsetter å utforske skalerbarhet, dreier det seg også mot å lage mindre, mer allsidige modeller, som eksemplifisert av ChatGPT-4o mini. Innføringen av "lengre tenkning" o1 antyder videre en avvik fra den eksklusive avhengigheten av nevrale nettverks mønstergjenkjenningsevner mot sofistikert kognitiv prosessering.

Fra raske reaksjoner til dyp tenkning

OpenAI opplyser at o1-modellen er spesielt utviklet for å ta mer tid til å tenke før den leverer et svar. Denne funksjonen til o1 ser ut til å stemme overens med prinsippene for dobbel prosess teori, et veletablert rammeverk innen kognitiv vitenskap som skiller mellom to tenkemåter—raskt og sakte.

I denne teorien representerer System 1 rask, intuitiv tenkning, tar beslutninger automatisk og intuitivt, omtrent som å gjenkjenne et ansikt eller reagere på en plutselig hendelse. Derimot er System 2 assosiert med langsom, bevisst tanke som brukes til å løse komplekse problemer og ta gjennomtenkte beslutninger.

Historisk sett har nevrale nettverk – ryggraden i de fleste AI-modeller – utmerket seg med å emulere System 1-tenkning. De er raske, mønsterbaserte og utmerker seg i oppgaver som krever raske, intuitive svar. Imidlertid kommer de ofte til kort når det er behov for dypere, logiske resonnementer, en begrensning som har gitt næring til den pågående debatten i AI-fellesskapet: Kan maskiner virkelig etterligne de langsommere, mer metodiske prosessene i System 2?

Noen AI-forskere, som Geoffrey Hinton, antyder at med nok fremgang, kan nevrale nettverk til slutt vise mer gjennomtenkt, intelligent oppførsel på egen hånd. Andre forskere, som Gary Marcus, argumenterer for en hybrid tilnærming, som kombinerer nevrale nettverk med symbolsk resonnement for å balansere raske, intuitive svar og mer bevisst, analytisk tanke. Denne tilnærmingen er allerede testet i modeller som Alfageometri og AlphaGo, som bruker nevrale og symbolske resonnementer for å takle komplekse matematiske problemer og lykkes med å spille strategiske spill.

OpenAIs o1-modell gjenspeiler denne økende interessen for å utvikle System 2-modeller, og signaliserer et skifte fra rent mønsterbasert AI til mer gjennomtenkte, problemløsende maskiner som er i stand til å etterligne menneskelig kognitiv dybde.

Vedtar OpenAI Googles nevrosymbolske strategi?

I årevis har Google fulgt denne veien, og laget modeller som AlphaGeometry og AlphaGo for å utmerke seg i komplekse resonneringsoppgaver som de i International Mathematics Olympiad (IMO) og strategispillet Go. Disse modellene kombinerer den intuitive mønstergjenkjenningen av nevrale nettverk som store språkmodeller (LLM) med den strukturerte logikken til symbolske resonneringsmotorer. Resultatet er en kraftig kombinasjon der LLM-er genererer rask, intuitiv innsikt, mens symbolske motorer gir langsommere, mer bevisst og rasjonell tanke.

Googles skifte mot nevrosymbolsk systemer var motivert av to betydelige utfordringer: den begrensede tilgjengeligheten av store datasett for å trene nevrale nettverk i avansert resonnement og behovet for å blande intuisjon med streng logikk for å løse svært komplekse problemer. Mens nevrale nettverk er eksepsjonelle til å identifisere mønstre og tilby mulige løsninger, klarer de ofte ikke å gi forklaringer eller håndtere den logiske dybden som kreves for avansert matematikk. Symboliske resonnementmotorer adresserer dette gapet ved å gi strukturerte, logiske løsninger – om enn med noen avveininger i hastighet og fleksibilitet.

Ved å kombinere disse tilnærmingene har Google vellykket skalert modellene sine, slik at AlphaGeometry og AlphaGo kan konkurrere på høyeste nivå uten menneskelig innblanding og oppnå bemerkelsesverdige bragder, slik som at AlphaGeometry tjener en sølvmedalje ved IMO og AlphaGo beseirer verdensmestere i spillet Go. . Disse suksessene til Google antyder at OpenAI kan ta i bruk en lignende nevrosymbolsk strategi, etter Googles ledelse i dette utviklende området for AI-utvikling.

o1 og Next Frontier of AI

Selv om den nøyaktige funksjonen til OpenAIs o1-modell forblir ukjent, er én ting klar: selskapet fokuserer sterkt på kontekstuell tilpasning. Dette betyr å utvikle AI-systemer som kan justere svarene deres basert på kompleksiteten og spesifikasjonene til hvert problem. I stedet for å være løsere for generelle formål, kan disse modellene tilpasse tankestrategiene sine for bedre å håndtere ulike applikasjoner, fra forskning til hverdagslige oppgaver.

En spennende utvikling kan være fremveksten av selvreflekterende AI. I motsetning til tradisjonelle modeller som utelukkende er avhengige av eksisterende data, antyder o1s vekt på mer gjennomtenkte resonnement at fremtidig AI kan lære av sine egne erfaringer. Over tid kan dette føre til modeller som avgrenser deres problemløsningstilnærminger, og gjør dem mer tilpasningsdyktige og motstandsdyktige.

OpenAIs fremgang med o1 antyder også et skifte i treningsmetoder. Modellens ytelse i komplekse oppgaver som IMO-kvalifiseringseksamenen antyder at vi kan se mer spesialisert, problemfokusert opplæring. Denne evnen kan resultere i mer skreddersydde datasett og treningsstrategier for å bygge dypere kognitive evner i AI-systemer, slik at de kan utmerke seg i generelle og spesialiserte felt.

Modellens fremragende ytelse på områder som matematikk og koding gir også spennende muligheter for utdanning og forskning. Vi kunne se AI-veiledere som gir svar og hjelper studentene gjennom resonneringsprosessen. AI kan hjelpe forskere i forskning ved å utforske nye hypoteser, designe eksperimenter eller til og med bidra til oppdagelser innen felt som fysikk og kjemi.

Bunnlinjen

OpenAIs o1-serie introduserer en ny generasjon AI-modeller laget for å løse komplekse og utfordrende oppgaver. Mens mange detaljer om disse modellene forblir uavslørte, gjenspeiler de OpenAIs skifte mot dypere kognitiv prosessering, og går utover bare skalering av nevrale nettverk. Ettersom OpenAI fortsetter å foredle disse modellene, kan vi gå inn i en ny fase i AI-utviklingen der AI utfører oppgaver og engasjerer seg i gjennomtenkt problemløsning, potensielt transformerende utdanning, forskning og mer.

Dr. Tehseen Zia er en fast førsteamanuensis ved COMSATS University Islamabad, med en doktorgrad i AI fra Wiens teknologiske universitet, Østerrike. Med spesialisering i kunstig intelligens, maskinlæring, datavitenskap og datasyn, har han gitt betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet ulike industrielle prosjekter som hovedetterforsker og fungert som AI-konsulent.