Connect with us

Tankeledere

DeepSeek: Effektivitetsgevinster, ikke en paradigmeskift i AI-innovasjon

mm

Den nylige begeistringen omkring DeepSeek, en avansert stor språkmodell (LLM), er forståelig gitt den betydelige forbedringen av effektiviteten den bringer til rommet. Likevel ser noen reaksjoner på dens lansering ut til å misforstå størrelsen på dens innvirkning. DeepSeek representerer et sprang fremover i den forventede utviklingen av LLM, men det signaliserer ikke en revolusjonær skift mot kunstig generell intelligens (AGI), og det markerer heller ikke en plutselig transformasjon i tyngdepunktet for AI-innovasjon.

Snarere er DeepSeeks prestasjon en naturlig fremgang langs en velkartet vei – en av eksponentiell vekst i AI-teknologi. Det er ikke et disruptivt paradigmeskift, men en kraftig påminnelse om den akselererende takten i teknologisk endring.

DeepSeeks effektivitetsgevinster: Et sprang langs den forventede trajektorien

Kjernen i begeistringen omkring DeepSeek ligger i dens imponerende effektivitetsforbedringer. Dens innovasjoner er hovedsakelig om å gjøre LLMs raskere og billigere, som har betydelige implikasjoner for økonomien og tilgjengeligheten av AI-modeller. Likevel, til tross for buzzet, er disse fremgangene ikke fundamentalt nye, men snarere forbedringer av eksisterende tilnærminger.

På 1990-tallet krevde høyendekomputergrafikkrendering supercomputere. I dag kan smarttelefoner utføre samme oppgave. Liksom ansiktsgjenkjenning – en tidligere nisje, høykostnads-teknologi – har nå blitt en allmenn, standardfunksjon i smarttelefoner. DeepSeek passer inn i denne mønsteret for teknologi: en optimalisering av eksisterende evner som leverer effektivitet, men ikke en ny, banebrytende tilnærming.

For de som er kjent med prinsippene for teknologisk vekst, er denne raske fremgangen ikke uventet. Teorien om teknologisk singularitet, som hevder akselererende fremgang i nøkkelområder som AI, forutsier at gjennombrudd vil bli mer hyppige når vi nærmer oss singularitetspunktet. DeepSeek er bare et øyeblikk i denne pågående trenden, og dens rolle er å gjøre eksisterende AI-teknologier mer tilgjengelige og effektive, snarere enn å representere et plutselig sprang inn i nye evner.

DeepSeeks innovasjoner: Arkitektoniske justeringer, ikke et sprang mot AGI

DeepSeeks hovedbidrag er å optimalisere effektiviteten av store språkmodeller, spesielt gjennom dens Mixture of Experts (MoE)-arkitektur. MoE er en etablert ensemble-læringsteknikk som har blitt brukt i AI-forskning i år. Det DeepSeek har gjort særlig godt, er å forbedre denne teknikken, og inkorporere andre effektivitetsforbedringer for å minimere beregningskostnadene og gjøre LLMs mer overkommelige.

  • Parameter-effektivitet: DeepSeeks MoE-design aktiverer bare 37 milliarder av dens 671 milliarder parametre på et gitt tidspunkt, og reduserer beregningskravene til bare 1/18 av tradisjonelle LLMs.
  • Forsterket læring for resonnering: DeepSeeks R1-modell bruker forsterket læring for å forbedre kjedetankingsresonnering, et vitalt aspekt av språkmodeller.
  • Multi-token-trening: DeepSeek-V3s evne til å forutsi flere tekststykker samtidig øker effektiviteten av trening.

Disse forbedringene gjør DeepSeek-modellene dramatisk billigere å trene og kjøre sammenlignet med konkurrenter som OpenAI eller Anthropic. Mens dette er et betydelig skritt fremover for tilgjengeligheten av LLMs, er det en ingeniørforbedring snarere enn en konseptuell gjennombrudd mot AGI.

Impakt av åpen kildekode-AI

En av DeepSeeks mest merkbare beslutninger var å gjøre sine modeller åpen kildekode – en klar avvik fra de proprietære, innhegnede tilnærmingene til selskaper som OpenAI, Anthropic og Google. Denne åpen kildekode-tilnærmingen, forkjempet av AI-forskere som Meta’s Yann LeCun, fremmer en mer desentralisert AI-økosystem hvor innovasjon kan trives gjennom kollektiv utvikling.

Den økonomiske rasjonaliteten bak DeepSeeks åpen kildekode-beslutning er også tydelig. Åpen kildekode-AI er ikke bare en filosofisk holdning, men en forretningsstrategi. Ved å gjøre sin teknologi tilgjengelig for en bred rekke forskere og utviklere, posisjonerer DeepSeek seg for å dra nytte av tjenester, bedriftsintegrering og skalerbar vertning, snarere enn å være avhengig av salg av proprietære modeller. Denne tilnærmingen gir den globale AI-samfunnet tilgang til konkurranseutsatte verktøy og reduserer grepet til store vestlige teknologiselskaper på området.

Kinas økende rolle i AI-kappløpet

For mange kan det faktum at DeepSeeks gjennombrudd kom fra Kina være overraskende. Likevel bør denne utviklingen ikke ses med sjokk eller som en del av en geopolitisk konkurranse. Etter å ha brukt år på å observere Kinas AI-landskap, er det tydelig at landet har investert betydelige summer i AI-forskning, noe som har resultert i en voksende reservoar av talent og ekspertise.

Snarere enn å ramme denne utviklingen som en utfordring til vestlig dominans, bør den sees som et tegn på den stadig mer globale naturen av AI-forskning. Åpen samarbeid, ikke nasjonalistisk konkurranse, er den mest lovende vei mot ansvarlig og etisk utvikling av AGI. En desentralisert, globalt distribuert innsats er langt mer sannsynlig å produsere en AGI som tjener hele menneskeheten, snarere enn en som tjener interessene til en enkelt nasjon eller korporasjon.

De bredere implikasjonene av DeepSeek: Se beyond LLMs

Mens mye av begeistringen omkring DeepSeek dreier seg om dens effektivitet i LLM-rommet, er det viktig å ta et skritt tilbake og vurdere de bredere implikasjonene av denne utviklingen.

Til tross for deres imponerende evner, er transformer-baserte modeller som LLMs fortsatt langt ifra å oppnå AGI. De mangler essensielle kvaliteter som grunnlagt komposisjonell abstraksjon og selvstyrt resonnering, som er nødvendig for generell intelligens. Mens LLMs kan automatisere en rekke økonomiske oppgaver og integrere i ulike industrier, representerer de ikke kernen av AGI-utvikling.

Hvis AGI skal oppstå i det neste tiåret, er det usannsynlig at det vil være basert på ren transformer-arkitektur. Alternative modeller, som OpenCog Hyperon eller nevro-morfe datamaskiner, kan være mer grunnleggende i å oppnå sanne generelle intelligens.

Kommodifiseringen av LLMs vil flytte AI-investeringer

DeepSeeks effektivitetsgevinster akselererer trenden mot kommodifiseringen av LLMs. Etterhvert som kostnadene til disse modellene fortsetter å synke, kan investorer begynne å se beyond tradisjonelle LLM-arkitekturer for det neste store gjennombruddet i AI. Vi kan se en skift i finansiering mot AGI-arkitekturer som går beyond transformatorer, samt investeringer i alternative AI-hardware, som nevro-morfe chip eller assosiative prosesseringsenheter.

Desentralisering vil forme AIens fremtid

Etterhvert som DeepSeeks effektivitetsforbedringer gjør det enklere å distribuere AI-modeller, bidrar de også til den bredere trenden mot desentralisering av AI-arkitektur. Med fokus på personvern, interoperabilitet og brukerkontroll, vil desentralisert AI redusere vår avhengighet av store, sentraliserte teknologiselskaper. Denne trenden er kritisk for å sikre at AI tjener behovene til en global befolkning, snarere enn å være kontrollert av en håndfull mektige spillere.

DeepSeeks plass i AI-kambrium-eksplosjonen

I konklusjon, mens DeepSeek er en betydelig milepæl i effektiviteten av LLMs, er det ikke et revolusjonært skift i AI-landskapet. Snarere akselererer det fremgangen langs en etablert trajektorie. Den bredere impakt av DeepSeek føles i flere områder:

  • Press på etablerte spillere: DeepSeek utfordrer selskaper som OpenAI og Anthropic til å omtenke sine forretningsmodeller og finne nye måter å konkurrere.
  • Tilgjengelighet av AI: Ved å gjøre høykvalitetsmodeller mer overkommelige, demokratiserer DeepSeek tilgangen til banebrytende teknologi.
  • Global konkurranse: Kinas økende rolle i AI-utvikling signaliserer den globale naturen av innovasjon, som ikke er begrenset til Vesten.
  • Eksponentiell fremgang: DeepSeek er et tydelig eksempel på hvordan rask fremgang i AI blir normen.

Mest viktig, DeepSeek tjener som en påminnelse om at mens AI fremmer raskt, er sanne AGI sannsynlig å oppstå gjennom nye, grunnleggende tilnærminger snarere enn å optimalisere dagens modeller. Etterhvert som vi kappløper mot singulariteten, er det kritisk å sikre at AI-utvikling forblir desentralisert, åpen og samarbeidende.

DeepSeek er ikke AGI, men det representerer et betydelig skritt fremover i den pågående reisen mot transformasjonell AI.

Dr Ben Goertzel er en AI-forsker og entreprenør som spesialiserer seg på kunstig generell intelligens (AGI), maskinlæring og desentraliserte AI-systemer. Med over tre tiår med erfaring, har han ledet utviklingen av avanserte AI-rammeverk, inkludert OpenCog-prosjektet og SingularityNET, en desentralisert AI-plattform. Han har skrevet flere bøker og forskningsartikler om AI, kognitiv vitenskap og komplekse systemer, og taler ofte om den transformative potensialet til AGI.