Connect with us

Tankeledere

Tilfældet for at decentralisere din AI-teknologi-stack

mm
Decentralized AI

Så meget af samtalen om AI-udvikling er blevet domineret af en futuristisk og filosofisk debat – skal vi nærme os generel kunstig intelligens, hvor AI bliver avanceret nok til at udføre enhver opgave på samme måde som et menneske? Er det overhovedet muligt?

Mens acceleration versus deceleration-diskussionen er vigtig og aktuel med fremskridt som Q-star-modellen, er der også andre aspekter, der er vigtige. Især vigtigheden af at decentralisere din teknologi-stack og hvordan man gør det uden at gøre det for dyrt. Disse to udfordringer kan føles som modsætninger: at bygge og implementere modeller er utrolig dyrt, men at afhænge for meget af en enkelt model kan være skadeligt på længere sigt. Jeg kender denne udfordring personligt som AI-stifter.

For at bygge intelligens, har du brug for talent, data og skalerbar beregning. For at accelerere tid til markedet og gøre mere med mindre, vil mange virksomheder vælge at bygge på eksisterende modeller i stedet for at bygge fra bunden. Og denne tilgang giver mening, når det, du bygger, er så ressourcekrævende. Denne udfordring forværres af, at de fleste af fremgangene inden for AI hidtil er blevet opnået ved at tilføje mere skala, hvilket kræver mere beregningskraft og derfor omkostninger.

Men hvad sker der, når virksomheden, i hvilken du har bygget din løsning, oplever en governance-fejl eller et produktudfald? Fra et praktisk synspunkt betyder det at afhænge af en enkelt model til at bygge dit produkt, at du nu er en del af en negativ rippleffekt for alt, der sker.

Vi skal også huske på risikoen ved at arbejde med systemer, der er probabilistiske. Vi er ikke vant til det, og verden, vi lever i, er indtil nu blevet designet til at fungere med et definitivt svar. Modeller er flydende i forhold til output, og virksomheder justerer konstant modellerne, hvilket betyder, at koden, du har skrevet til at understøtte disse, og resultaterne, dine kunder er afhængige af, kan ændre sig uden din viden eller kontrol.

Centralisering skaber også sikkerhedsproblemer, fordi den introducerer et enkelt fejlpunkt. Hver virksomhed arbejder i eget bedste interesse. Hvis der er en sikkerheds- eller risikoproblem med en model, har du langt mindre kontrol over at løse dette problem eller mindre adgang til alternativer.

Hvor bringer det os?

AI er uden tvivl gået hen og blive bedre til at forbedre, hvordan vi lever. Der er så meget, det kan opnå og løse, fra hvordan vi indsamler information til, hvordan vi forstår enorme mængder af data. Men med denne mulighed følger også risiko. Hvis vi afhænger for meget af en enkelt model, åbner alle virksomheder sig op for både sikkerheds- og produktudfordringer.

For at løse dette, har vi brug for at bringe omkostningerne ved slutledning ned og gøre det lettere for virksomheder at have en multi-model-tilgang. Og selvfølgelig kommer alt tilbage til data. Data og dataejerskab vil være vigtigt. Jo mere unik, høj kvalitet og tilgængelig data, desto mere nyttig vil det være.

Til mange problemer kan du optimere modeller for en bestemt anvendelse. Den sidste mile af AI er virksomheder, der bygger routing-logik, evalueringer og orkestreringslag på toppen af disse forskellige modeller, specialiserer dem for forskellige vertikaler.

Der har været flere betydelige investeringer i dette område, der bringer os tættere på dette mål. Mistal’s seneste (og imponerende) kapitalindsamling er en lovende udvikling mod en OpenAI-alternativ. Der er også virksomheder, der hjælper andre AI-udbydere med at gøre cross-model-multiplexing til virkelighed og reducerer slutledningsomkostninger via specialiseret hardware, software og modeldestillation, som få eksempler.

Vi vil også se open-source-takeoff, og regeringsorganer må aktivere open source for at forblive åben. Med open-source-modeller er det lettere at have mere kontrol. Men performancesforskellene er stadig der.

Jeg formoder, at vi ender i en verden, hvor du vil have junior-modeller, der er optimeret til at udføre mindre komplekse opgaver i stor målestok, mens større superintelligente modeller vil fungere som orakler til opdateringer og vil tilbringe mere tid på at løse komplekse problemer. Du har ikke brug for en trillion-parameter-model til at besvare en kundeserviceanmodning. Jeg ligner det med, at man ikke har en senior leder, der styrer en opgave, som en praktikant kan håndtere. Ligesom vi har flere roller for menneskelige modparte, vil de fleste virksomheder også afhænge af en samling af modeller med forskellige niveauer af sofistikation.

For at opnå denne balance, har du brug for en klar opgaveafbrydelse og benchmarking, hvor du tager hensyn til tid, beregningskompleksitet, omkostninger og den nødvendige skala. Afhængigt af brugsfaldet kan du prioritere efter behov. Bestem en grundsandhed, en ideel udfald til sammenligning, og et eksempel på ind- og udgangsdata, så du kan køre forskellige prompts for at optimere og få det tætteste udfald til grundsandheden.

Hvis AI-virksomheder kan decentralisere deres teknologi-stack og bygge på multiple modeller, kan vi forbedre sikkerheden og pålideligheden af disse værktøjer og dermed maksimere den positive effekt af AI. Vi er ikke længere på et sted for teoretiske debatter – det er tid til at fokusere på, hvordan vi kan sætte AI til at arbejde for at gøre disse teknologier mere effektive og robuste.

Naré Vardanyan er administrerende direktør og medstifter af Ntropy, det finansielle datastandardiserings- og berigelses-API.