Connect with us

Beyond Large Language Models: How Large Behavior Models Are Shaping the Future of AI

Kunstig intelligens

Beyond Large Language Models: How Large Behavior Models Are Shaping the Future of AI

mm

Kunstig intelligens (AI) har kommet langt, med store språkmodeller (LLMs) som demonstrerer imponerende evner i naturlig språkbehandling. Disse modellene har endret måten vi tenker om AI sin evne til å forstå og generere menneskespråk. Mens de er utmerkede til å gjenkjenne mønster og syntetisere skrevne kunnskaper, sliter de med å etterligne måten mennesker lærer og oppfører seg på. Ettersom AI fortsetter å utvikle seg, ser vi en skiftning fra modeller som bare prosesserer informasjon til modeller som lærer, tilpasser seg og oppfører seg som mennesker.

Store atferdsmodeller (LBMs) er i ferd med å bli en ny frontier i AI. Disse modellene går utenfor språk og fokuserer på å replikere måten mennesker samhandler med verden. I motsetning til LLMs, som hovedsakelig er trenet på statiske datasett, lærer LBMs kontinuerlig gjennom erfaring, noe som gjør det mulig for dem å tilpasse seg og resonere i dynamiske, sanntids situasjoner. LBMs former fremtiden for AI ved å enable maskiner til å lære på samme måte som mennesker.

Hvorfor atferds-AI er viktig

LLMs har vist seg å være usedvanlig kraftfulle, men deres evner er uavhengig knyttet til deres treningsdata. De kan bare utføre oppgaver som stemmer overens med mønsterene de har lært under treningsperioden. Mens de excellerer i statiske oppgaver, sliter de med dynamiske miljøer som krever sanntids beslutning eller læring fra erfaring.

I tillegg er LLMs hovedsakelig fokusert på språkbehandling. De kan ikke prosessere ikke-lingvistisk informasjon som visuelle signaler, fysiske sansninger eller sosiale interaksjoner, som alle er avgjørende for å forstå og reagere på verden. Denne gapet blir særlig tydelig i scenarier som krever multimodal resonnering, som tolkning av komplekse visuelle eller sosiale kontekster.

Mennesker, på den andre siden, er livslange lærere. Fra barndommen, samhandler vi med vår omverden, eksperimenterer med nye ideer og tilpasser oss uforutsette omstendigheter. Menneskelig læring er unik i sin tilpasningsevne og effektivitet. I motsetning til maskiner, trenger vi ikke å oppleve hver enkelt mulig scenario for å fatte beslutninger. Isteden extrapolerer vi fra tidligere erfaringer, kombinerer sanseinntrykk og forutsier resultater.

Atferds-AI søker å lukke disse gapene ved å skape systemer som ikke bare prosesserer språkdata, men også lærer og vokser fra interaksjoner og kan lett tilpasse seg nye miljøer, på samme måte som mennesker gjør. Denne tilnærmingen skifter paradigmet fra “hva vet modellen?” til “hvordan lærer modellen?”

Hva er store atferdsmodeller?

Store atferdsmodeller (LBMs) har som mål å gå utenfor å bare replikere hva mennesker sier. De fokuserer på å forstå hvorfor og hvordan mennesker oppfører seg på den måten de gjør. I motsetning til LLMs som avhenger av statiske datasett, lærer LBMs i sanntid gjennom kontinuerlig interaksjon med deres omverden. Denne aktive læreprosessen hjelper dem til å tilpasse seg atferden sin, akkurat som mennesker gjør – gjennom prøving, observasjon og justering. For eksempel, et barn som lærer å sykle, ikke bare leser instruksjoner eller ser videoer, men fysisk samhandler med verden, faller, justerer og prøver igjen – en læreprosess som LBMs er designet til å etterligne.

LBMs går også utenfor tekst. De kan prosessere en rekke data, inkludert bilder, lyder og sanseinntrykk, noe som gjør det mulig for dem å forstå omverdenen sin mer helhetlig. Denne evnen til å tolke og reagere på komplekse, dynamiske miljøer gjør LBMs særlig nyttige for applikasjoner som krever tilpasning og kontekstbevissthet.

Nøkkel egenskaper ved LBMs inkluderer:

  1. Interaktiv læring: LBMs er trenet til å utføre handlinger og motta tilbakemelding. Dette gjør det mulig for dem å lære fra konsekvenser i stedet for statiske datasett.
  2. Multimodal forståelse: De prosesserer informasjon fra ulike kilder, som syn, lyd og fysisk interaksjon, for å bygge en helhetlig forståelse av omverdenen.
  3. Tilpasningsevne: LBMs kan oppdatere sin kunnskap og strategier i sanntid. Dette gjør dem svært dynamiske og egnet for uforutsette scenarier.

Hvordan LBMs lærer som mennesker

LBMs muliggjør menneske-lignende læring ved å inkorporere dynamisk læring, multimodal kontekstforståelse og evnen til å generalisere over ulike domener.

  1. Dynamisk læring: Mennesker lærer ikke bare fakta; vi tilpasser oss nye situasjoner. For eksempel, et barn lærer å løse puslespill ikke bare ved å memorere løsninger, men ved å gjenkjenne mønster og justere sin tilnærming. LBMs søker å replikere denne læreprosessen ved å bruke tilbakemeldingsløkker til å finjustere kunnskap mens de samhandler med verden. Isteden for å lære fra statiske data, kan de justere og forbedre sin forståelse mens de opplever nye situasjoner. For eksempel, en robot drevet av en LBM kunne lære å navigere i en bygning ved å utforske, i stedet for å avhenge av forhåndsinnlastede kart.
  2. Multimodal kontekstforståelse: I motsetning til LLMs som er begrenset til å prosessere tekst, integrerer mennesker sømløst syn, lyd, berøring og emosjoner for å forstå verden på en dypt multimodal måte. LBMs søker å oppnå en lignende multimodal kontekstforståelse hvor de ikke bare kan forstå muntlige kommandoer, men også gjenkjenne gestus, tone og ansiktsuttrykk.
  3. Generalisering over domener: En av kjennetegnene ved menneskelig læring er evnen til å anvende kunnskap over ulike domener. For eksempel, en person som lærer å kjøre bil, kan raskt overføre denne kunnskapen til å operere en båt. En av utfordringene med tradisjonell AI er å overføre kunnskap mellom ulike kontekster. Mens LLMs kan generere tekst for ulike felt som jus, medisin eller underholdning, sliter de med å anvende kunnskap over ulike kontekster. LBMs er derimot designet til å generalisere kunnskap over domener. For eksempel, en LBM trenet til å hjelpe med husholdningsoppgaver, kunne lett tilpasse seg å arbeide i en industriell setting som et lager, og lære mens den samhandler med omverdenen, i stedet for å trenes på nytt.

Reelle anvendelser av store atferdsmodeller

Selv om LBMs fortsatt er et relativt nytt felt, er deres potensiale allerede tydelig i praktiske anvendelser. For eksempel, et selskap kalt Lirio bruker en LBM til å analysere atferdsdata og skape personlige helseanbefalinger. Ved å lære kontinuerlig fra pasientinteraksjoner, Lirios modell tilpasser sin tilnærming for å støtte bedre behandlingsadhærens og generelle helseresultater. For eksempel, kan den peke ut pasienter som sannsynligvis vil gå glipp av medisinen og gi rettidige, motivasjonelle påminnelser for å oppmuntre til adhærens.

I en annen innovativ anvendelse, har Toyota samarbeidet med MIT og Columbia Engineering for å utforske robotlæring med LBMs. Deres “Diffusion Policy”-tilnærming gjør det mulig for roboter å tilegne seg nye ferdigheter ved å observere menneskelige handlinger. Dette gjør det mulig for roboter å utføre komplekse oppgaver som å håndtere ulike kjøkkenobjekter, raskere og mer effektivt. Toyota planlegger å utvide denne kapasiteten til over 1 000 ulike oppgaver innen utgangen av 2024, og viser dermed fleksibiliteten og tilpasningsevnen til LBMs i dynamiske, sanntids miljøer.

Utfordringer og etiske overveielser

Selv om LBMs viser stort potensiale, bringer de også med seg flere viktige utfordringer og etiske bekymringer. En nøkkelutfordring er å sikre at disse modellene ikke kan etterligne skadelig atferd fra treningsdataene. Ettersom LBMs lærer fra interaksjoner med omverdenen, er det en risiko for at de kan uforvarende lære eller replikere fordommer, stereotyper eller upassende handlinger.

En annen betydelig bekymring er personvern. Evnen til LBMs til å simulere menneske-lignende atferd, særlig i personlige eller sensitive kontekster, åpner for muligheten for manipulasjon eller inntrenging i personlig sfære. Ettersom disse modellene blir mer integrert i dagliglivet, vil det være avgjørende å sikre at de respekterer brukerens autonomi og konfidensialitet.

Disse bekymringene understreker det presserende behovet for klare etiske retningslinjer og reguleringer. Riktig tilsyn vil hjelpe med å guide utviklingen av LBMs på en ansvarlig og transparent måte, og sikre at deres implementering er til nytte for samfunnet uten å kompromittere tillit eller rettferdighet.

Det viktigste

Store atferdsmodeller (LBMs) tar AI i en ny retning. I motsetning til tradisjonelle modeller, prosesserer de ikke bare informasjon – de lærer, tilpasser seg og oppfører seg mer som mennesker. Dette gjør dem nyttige i områder som helse og robotikk, hvor fleksibilitet og kontekst teller.

Men det finnes utfordringer. LBMs kan tilegne seg skadelig atferd eller inntrenging i personlig sfære hvis de ikke håndteres forsvarlig. Derfor er det viktig med klare regler og omsorgsfull utvikling.

Med riktig tilnærming, kan LBMs transformere hvordan maskiner samhandler med verden, og gjøre dem smartere og mer nyttige enn noensinne.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.