Connect with us

Google’s Multimodal AI Gemini – En Teknisk Djupdykning

Artificiell intelligens

Google’s Multimodal AI Gemini – En Teknisk Djupdykning

mm
Google's First Multimodal Model: Gemini

Sundar Pichai, Googles VD, tillsammans med Demis Hassabis från Google DeepMind, har presenterat Gemini i december 2023. Denna nya stora språkmodell är integrerad över hela Googles omfattande utbud av produkter, vilket erbjuder förbättringar som sprider sig genom tjänster och verktyg som används av miljontals människor.

Gemini, Googles avancerade multimodala AI, är född ur de samarbetsinsatser som gjorts av de förenade DeepMind och Brain AI-laboratorierna. Gemini står på axlarna av sina föregångare, med löftet att leverera en mer sammanhängande och intelligent svit av applikationer.

Tillkännagivandet av Google Gemini, som ligger nära efter debuterna av Bard, Duet AI och PaLM 2 LLM, markerar en tydlig avsikt från Google att inte bara konkurrera utan också leda i AI-revolutionen.

Till skillnad från eventuella antaganden om en AI-vinter, tyder lanseringen av Gemini på en blomstrande AI-vår, full av potential och tillväxt. När vi ser tillbaka på ett år sedan uppkomsten av ChatGPT, som i sig var ett banbrytande ögonblick för AI, indikerar Googles drag att branschens expansion är långt ifrån över; faktum är att den kanske bara håller på att ta fart.

Vad är Gemini?

Googles Gemini-modell kan bearbeta olika typer av data, såsom text, bilder, ljud och video. Den finns i tre versioner — Ultra, Pro och Nano — var och en anpassad för specifika tillämpningar, från komplex resonemang till användning på enheten. Ultra excellerar i multifacetterade uppgifter och kommer att finnas tillgänglig på Bard Advanced, medan Pro erbjuder en balans mellan prestanda och resurseffektivitet, redan integrerad i Bard för textprompt. Nano, som är optimerad för distribution på enheten, finns i två storlekar och har hårdvaruoptimeringar som 4-bitars kvantisering för offlineanvändning i enheter som Pixel 8 Pro.

Gemini-arkitekturen är unik i sin naturliga multimodala utmatningsförmåga, med användning av diskreta bildtoken för bildgenerering och integrering av ljudfunktioner från Universal Speech Model för nyanserad ljudförståelse. Dess förmåga att hantera videodata som sekvenser av bilder, vävda samman med text- eller ljudinmatningar, exemplifierar dess multimodala duglighet.

Gemini stöder sekvenser av text, bild, ljud och video som inmatningar

Gemini stöder sekvenser av text, bild, ljud och video som inmatningar

Tillgång till Gemini

Gemini 1.0 rullas ut över hela Googles ekosystem, inklusive Bard, som nu dra nytta av de raffinerade förmågorna hos Gemini Pro. Google har också integrerat Gemini i sin Sök, Annons och Duet-tjänster, förbättrar användarupplevelsen med snabbare och mer exakta svar.

För dem som är angelägna om att utnyttja Gemini-förmågorna erbjuder Google AI Studio och Google Cloud Vertex tillgång till Gemini Pro, med den senare som erbjuder större anpassningsmöjligheter och säkerhetsfunktioner.

För att uppleva de förbättrade förmågorna hos Bard som drivs av Gemini Pro kan användarna följa följande enkla steg:

  1. Navigera till Bard: Öppna din föredragna webbläsare och gå till Bard-webbplatsen.
  2. Säker inloggning: Kom åt tjänsten genom att logga in med ditt Google-konto, vilket säkerställer en smidig och säker upplevelse.
  3. Interaktiv chatt: Du kan nu använda Bard, där Gemini Pros avancerade funktioner kan väljas.

Kraften i multimodalitet:

I sin kärna använder Gemini en transformer-baserad arkitektur, liknande de som används i framgångsrika NLP-modeller som GPT-3. Men Gemini-unikhet ligger i dess förmåga att bearbeta och integrera information från flera modaliteter, inklusive text, bilder och kod. Detta uppnås genom en ny teknik som kallas cross-modal uppmärksamhet, som tillåter modellen att lära sig relationer och beroenden mellan olika typer av data.

Här är en nedbrytning av Gemini-nyckelkomponenter:

  • Multimodal encoder: Denna modul bearbetar indata från varje modalitet (t.ex. text, bild) oberoende, extraherar relevanta funktioner och genererar individuella representationer.
  • Cross-modal attention-nätverk: Detta nätverk är hjärtat i Gemini. Det tillåter modellen att lära sig relationer och beroenden mellan de olika representationerna, vilket möjliggör för dem att “prata” med varandra och berika sin förståelse.
  • Multimodal decoder: Denna modul använder de berikade representationer som genereras av cross-modal attention-nätverket för att utföra olika uppgifter, såsom bildbeskrivning, text-till-bild-generering och kodgenerering.

Gemini-modellen handlar inte bara om att förstå text eller bilder — det handlar om att integrera olika typer av information på ett sätt som är mycket närmare hur vi, som människor, uppfattar världen. Till exempel kan Gemini titta på en sekvens av bilder och bestämma den logiska eller rumsliga ordningen på föremål inom dem. Den kan också analysera designfunktionerna hos föremål för att fatta beslut, såsom vilken av två bilar som har en mer aerodynamisk form.

Men Geminis talanger går utöver bara visuell förståelse. Den kan omvandla en uppsättning instruktioner till kod, skapa praktiska verktyg som en nedräkningstimer som inte bara fungerar som avsett utan också innehåller kreativa element, såsom motivations-emoji, för att förbättra användarinteraktionen. Detta indikerar en förmåga att hantera uppgifter som kräver en blandning av kreativitet och funktionalitet — färdigheter som ofta anses vara distinkt mänskliga.

Geminis förmågor : Rumslig resonemang

Geminis förmågor : Rumslig resonemang (Källa)

 

Geminis förmågor sträcker sig till att utföra programmeringsuppgifter

Geminis förmågor sträcker sig till att utföra programmeringsuppgifter(Källa)

Geminis sofistikerade design bygger på en rik historia av neurala nätverksforskningar och utnyttjar Googles senaste TPU-teknik för utbildning. Gemini Ultra har satt nya benchmark-rekord i olika AI-domäner, visar en anmärkningsvärd prestandaförbättring i multimodala resonemangs-uppgifter.

Med sin förmåga att analysera och förstå komplexa data erbjuder Gemini lösningar för verkliga tillämpningar, särskilt inom utbildning. Den kan analysera och korrigera lösningar på problem, som i fysik, genom att förstå handskrivna anteckningar och ge korrekt matematisk typsättning. Sådana förmågor antyder en framtid där AI assisterar i utbildningsmiljöer, erbjuder studenter och lärare avancerade verktyg för lärande och problemlösning.

Geminis har använts för att skapa agenter som AlphaCode 2, som excellerar i konkurrenskraftiga programmeringsproblem. Detta visar Geminis potential att fungera som en generalist AI, kapabel att hantera komplexa, multi-stegsproblem.

Gemini Nano bringar AI-kraften till vardagsenheter, behåller imponerande förmågor i uppgifter som sammanfattning och läsförståelse, samt kodning och STEM-relaterade utmaningar. Dessa mindre modeller är finjusterade för att erbjuda högkvalitativa AI-funktioner på enheter med låg minne, vilket gör avancerad AI mer tillgänglig än någonsin.

Utvecklingen av Gemini involverade innovationer inom utbildningsalgoritmer och infrastruktur, med användning av Googles senaste TPUs. Detta möjliggjorde effektiv skalning och robusta utbildningsprocesser, vilket säkerställde att även de minsta modellerna levererade exceptionell prestanda.

Träningsdataset för Gemini är lika varierat som dess förmågor, inklusive webbdokument, böcker, kod, bilder, ljud och videor. Detta multimodala och multilingvala dataset säkerställer att Gemini-modeller kan förstå och bearbeta en stor mängd olika innehållstyper effektivt.

Gemini och GPT-4

Trots uppkomsten av andra modeller är frågan på alla människors sinnen hur Googles Gemini står sig i jämförelse med OpenAIs GPT-4, branschens benchmark för nya LLM. Googles data tyder på att medan GPT-4 kan excellerera i vanligt förnuft-resonemangs-uppgifter, har Gemini Ultra övertaget i nästan alla andra områden.

Gemini VS GPT-4

Gemini VS GPT-4

Ovanstående benchmark-tabell visar den imponerande prestandan hos Googles Gemini AI över en mängd olika uppgifter. Noterbart har Gemini Ultra uppnått anmärkningsvärda resultat i MMLU-benchmarken med 90,04% noggrannhet, vilket indikerar dess överlägsna förståelse i flervalsfrågor över 57 ämnen.

I GSM8K, som utvärderar grundskolematematikfrågor, uppnår Gemini Ultra 94,4%, visar dess avancerade aritmetiska bearbetningsförmåga. I kodningsbenchmark, med Gemini Ultra som uppnår 74,4% i HumanEval för Python-kodgenerering, indikerar dess starka programmeringsspråksförståelse.

DROP-benchmarken, som testar läsförståelse, ser Gemini Ultra leda med 82,4% poäng. Medan i en vanligt förnuft-resonemangs-test, HellaSwag, utför Gemini Ultra bra, även om den inte överträffar den extremt höga benchmark som satts av GPT-4.

Slutsats

Geminis unika arkitektur, driven av Googles senaste teknik, positionerar den som en formidabel spelare i AI-arenan, utmanar befintliga benchmark som satts av modeller som GPT-4. Dess versioner — Ultra, Pro och Nano — var och en tillgodoser specifika behov, från komplexa resonemangs-uppgifter till effektiva på-enhet-tillämpningar, visar Googles engagemang för att göra avancerad AI tillgänglig över olika plattformar och enheter.

Integreringen av Gemini i Googles ekosystem, från Bard till Google Cloud Vertex, belyser dess potential att förbättra användarupplevelser över ett spektrum av tjänster. Den lovar inte bara att förfinare befintliga applikationer utan också att öppna nya vägar för AI-drivna lösningar, antingen i personlig assistans, kreativa företag eller företagsanalys.

När vi ser framåt, understryker de kontinuerliga framstegen i AI-modeller som Gemini vikten av pågående forskning och utveckling. Utmaningarna med att träna sådana sofistikerade modeller och säkerställa deras etiska och ansvarsfulla användning förblir i främsta rummet i diskussionen.

Jag har under de senaste fem åren dykt ner i den fascinerande världen av Machine Learning och Deep Learning. Min passion och expertis har lett mig till att bidra till över 50 olika mjukvaruutvecklingsprojekt, med särskild fokus på AI/ML. Min pågående nyfikenhet har också dragit mig mot Natural Language Processing, ett område som jag är angelägen om att utforska vidare.