Connect with us

AGI

Utforsk Gemini 1.5: Hvordan Googles siste multimodale AI-modell løfter AI-landskapet beyond sin forgjenger

mm

I det raskt utviklende landskapet av kunstig intelligens, fortsetter Google å lede med sine banebrytende utviklinger i multimodal AI teknologier. Kort tid etter debuten av Gemini 1.0, deres banebrytende multimodal stor språkmodell, har Google nå lansert Gemini 1.5. Denne iterasjonen ikke bare forbedrer kapasiteten etablert av Gemini 1.0, men bringer også betydelige forbedringer i Googles metode for prosessering og integrering av multimodal data. Denne artikkelen gir en utforskning av Gemini 1.5, og kaster lys over dens innovative tilnærming og distinkte trekk.

Gemini 1.0: Laying the Foundation

Lansert av Google DeepMind og Google Research den 6. desember 2023, introduserte Gemini 1.0 en ny type multimodal AI-modeller som kan forstå og generere innhold i ulike formater, som tekst, lyd, bilder og video. Dette markerte et betydelig skritt i AI, og utvidet omfanget for håndtering av ulike informasjonstyper.
Gemini’s standout feature er dens evne til å sammenføye flere datatyper på en sammenhengende måte. I motsetning til konvensjonelle AI-modeller som kan spesialisere seg i en enkelt dataformat, integrerer Gemini tekst, visuelle og lyd. Denne integreringen gjør det mulig for den å utføre oppgaver som å analysere håndskrevne notater eller tyde komplekse diagrammer, og løse et bredt spekter av komplekse utfordringer.
Gemini-familien tilbyr modeller for ulike anvendelser: Ultra-modellen for komplekse oppgaver, Pro-modellen for hastighet og skalerbarhet på større plattformer som Google Bard, og Nano-modellene (Nano-1 og Nano-2) med 1,8 milliarder og 3,25 milliarder parametre, henholdsvis, designet for integrering i enheter som Google Pixel 8 Pro-smarttelefonen.

The Leap to Gemini 1.5

Googles siste utgivelse, Gemini 1.5, forbedrer funksjonaliteten og operasjonelle effektiviteten til dens forgjenger, Gemini 1.0. Denne versjonen antar en ny Mixture-of-Experts (MoE) arkitektur, et brudd med den enhetlige, store modelltilnærmingen som ble sett i dens forgjenger. Denne arkitekturen inkorporerer en samling av mindre, spesialiserte transformer-modeller, hver adept til å håndtere bestemte segmenter av data eller distinkte oppgaver. Denne oppsettet gjør det mulig for Gemini 1.5 til å dynamisk engasjere den mest passende eksperten basert på innkommende data, og strømlinje modellens evne til å lære og prosessere informasjon.
Denne innovative tilnærmingen forbedrer betydelig modellens trening og utrullings-effektivitet ved å aktivere bare de nødvendige ekspertene for oppgaver. Derfor er Gemini 1.5 i stand til å raskt mestre komplekse oppgaver og levere høykvalitetsresultater mer effektivt enn konvensjonelle modeller. Slike fremskritt gjør det mulig for Googles forskningsteams å akselerere utviklingen og forbedringen av Gemini-modellen, og utvide mulighetene innen AI-domenet.

Expanding Capabilities

En bemerkelsesverdig forbedring i Gemini 1.5 er dens utvidede informasjonsbehandlingskapasitet. Modellens kontekstvindu, som er mengden av brukerdata den kan analysere for å generere svar, utvides nå til opptil 1 million token — en betydelig økning fra de 32 000 tokenene i Gemini 1.0. Denne forbedringen betyr at Gemini 1.5 Pro kan samtidig prosessere omfattende mengder data, som en time med videoinnhold, elleve timer med lyd, eller store kodebaserte og tekstbaserte dokumenter. Den har også blitt testet med opptil 10 millioner token, og viser en usedvanlig evne til å forstå og tolke enorme datasamlinger.

A Glimpse into Gemini 1.5’s Capabilities

Gemini 1.5s arkitektoniske forbedringer og den utvidede kontekstvinduet gir den mulighet til å utføre sofistikert analyse over store informasjonssamlinger. Uansett om det er å dykke ned i de intrikate detaljene i Apollo 11-misjonens transkripter eller å tolke en stumfilm, viser Gemini 1.5 en usedvanlig evne til å løse komplekse problemer, spesielt med lange kodeblokker.
Utviklet på Googles avanserte TPUv4-akseleratorer, har Gemini 1.5 Pro blitt trenet på en diversifisert datasamling, som omfatter ulike domener og inkluderer multimodale og flerspråklige innhold. Denne brede treningsbasen, kombinert med finjustering basert på menneskelig preferansedata, sikrer at Gemini 1.5 Pros utdata resonnerer godt med menneskelige persepsjoner.
Gjennom rigorøs benchmarktesting mot en rekke oppgaver, utgår Gemini 1.5 Pro ikke bare sin forgjenger i en overveldende majoritet av evalueringene, men står også på lik linje med den større Gemini 1.0 Ultra-modellen. Gemini 1.5 Pro viser sterke “in-context learning”-evner, og tilegner seg ny kunnskap fra detaljerte instruksjoner uten behov for ytterligere justeringer. Dette var særlig tydelig i dens ytelse på Machine Translation from One Book (MTOB)-benchmarket, hvor den oversatte fra engelsk til Kalamang — et språk talt av et lite antall mennesker — med en ferdighet som er sammenlignbar med menneskelig læring, og understreker dens tilpasningsevne og lærings-effektivitet.

Limited Preview Access

Gemini 1.5 Pro er nå tilgjengelig i en begrenset forhåndsvisning for utviklere og bedriftskunder gjennom AI Studio og Vertex AI, med planer for en videre utgivelse og tilpassede alternativer på horisonten. Denne forhåndsvisningsfasen tilbyr en unik mulighet til å utforske dens utvidede kontekstvindu, med forbedringer i prosesseringshastighet forventet. Utviklere og bedriftskunder som er interesserte i Gemini 1.5 Pro kan registrere seg gjennom AI Studio eller kontakte sine Vertex AI-kontaktteam for ytterligere informasjon.

The Bottom Line

Gemini 1.5 representerer et betydelig skritt fremover i utviklingen av multimodal AI. Bygget på grunnlaget lagt av Gemini 1.0, bringer denne nye versjonen forbedrede metoder for prosessering og integrering av ulike typer data. Introduksjonen av en ny arkitektonisk tilnærming og utvidede dataprosesseringskapasiteter understreker Googles pågående innsats for å forbedre AI-teknologien. Med dens potensiale for mer effektiv oppgavehåndtering og avansert læring, viser Gemini 1.5 den kontinuerlige utviklingen av AI. For tiden tilgjengelig for en selektert gruppe utviklere og bedriftskunder, signaliserer det spennende muligheter for fremtiden av AI, med videre utgivelse og ytterligere fremskritt på horisonten.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.