Connect with us

Tankeledare

Hur AI kan gå bust och överleva, precis som internet gjorde

mm

De pågående dramatiska marknadssvängningarna bland AI-drivna teknikjättar, med publika företag som förlorar mer än $1 biljon i värdering på mindre än en månad, illustrerar tydligt att värderingarna är kopplade från grundläggande faktorer. Men den riktiga frågan att ställa just nu är inte när bubblan kommer att brista, utan hur branschen kan ansvarsfullt urholka bubblan och förbereda sig för AI:s framtid.

Under de senaste åren har AI blivit synonymt med stora värderingar, obegränsad skalbarhet och en känsla av att ingen kan konkurrera med de största spelarna. Men den tekniska verkligheten har förändrats och pekar på en annan typ av framtid för AI: De riktiga pengarna ligger inte i enormt dyra AI-modeller som en dag kommer att ge avkastning i form av överdimensionerade avkastningar. Alltmer kommer AI:s värde att ligga i hur det integreras och används för att tjäna pengar för företag, med tanke på att gränsöverskridande frontier AI-modeller bör bli billigare, inte dyrare. Singuläritetsmyten är över. Skalbarhet ensam ger inte längre steg-funktionens vinster. Exekvering, distribution och ekosystem betyder mer än rå modellstorlek.

Att anpassa förväntningarna till denna nya verkligheten kommer att tillåta den växande AI-bubblan att långsamt urholkas, snarare än att brista och förstöra ekonomin och de finansiella marknaderna som dotcom-bubblan gjorde för ett kvart sekel sedan.

På 90-talet antog teknikbranschen att internet kunde och skulle göra allt; och att allt som byggdes på internet skulle, av naturen, lyckas. De hade fel och bubblan brast verkligen – men internet överlevde. Kraschen betonade hur onlineframgång inte bara handlade om den underliggande tekniken – internet – utan om förmågan att utveckla smarta och effektiva användningsfall, produkter och hårdvara. Internet vann inte på protokoll ensam. Det vann när webbläsare, innehållsleveransnätverk och utvecklarekosystem gjorde det användbart.

Amazon överlevde och trivs fortfarande, medan Pets.com misslyckades eftersom de aldrig hade en lönsam metod för att hantera utskick av hundmat, en utmaning som förbises av den förtrollande idén att de skulle kunna ha kunder över hela landet på grund av internet.

Det är exakt där Big AI är idag, uppslukad av drömmar och förväntningar om teknikens framtida potential. Det råder ingen tvekan om att det är den mest fantastiska tekniken vi har idag. Men AI-modeller är bara den underliggande tekniken, inte själva svaren, och absolut inte där pengarna och värdet kommer att förbli. Transformer- och diffusionsarkitekturer, som ligger till grund för de flesta generativa AI, är offentliga; optimeringsramverk är öppna; beräkningskraft är alltmer tillgänglig. Barriären är inte längre teoretisk kunskap. Det är hantverket att bygga tillförlitliga system och integrera dem i befintliga kreativa och produktionspipeliner som kommer att avgöra vem som lyckas. Dessa produkter och tjänster behöver inte längre investerare som sätter in trillions av dollar. Jag vet detta från min egen erfarenhet. Vårt team i Jerusalem byggde en öppen källkodsmodell för audio-video för att skapa AI-videor till ungefär en tiondel av kostnaden för de som tillverkades av marknadsledarna, och som genererar längre kontinuerliga scener, ofta med högre upplösning och hastighet. Detta uppnåddes på cirka $100 miljoner, inte miljarder. Vår historia visar att modern AI-förbättring är mindre om hemlig sås och mer om disciplinerad ingenjörskonst.

Liksom med internet kommer de som överlever att vara de som utnyttjar AI för de bästa användningsfallen, hårdvaruapplikationerna, produkterna och tjänsterna. Det är sant att vad exakt dessa kommer att vara är svårt att förutsäga. När människor använde AOL eller Prodigy i början av 90-talet kunde ingen ha föreställt sig Gmail.

Men utan kraften av klärvoajans, finns det smarta frågor att ställa längs vägen för att vägleda AI-branschen och dess investerare att arbeta på ett sätt som kommer att långsamt och gradvis urholka bubblan, samtidigt som de bygger ut ekonomin för framtiden.

Investerare, inklusive riskkapitalister och pensionsfonder som pumpar in pengar i AI-företag, behöver fråga vad värde som skapas. Miljarder dollar har pumpats in i forskning vid de stora teknikföretagen för att bygga AI som i slutändan lätt kunde replikeras på andra platser. Stora AI-budgetar garanterar inte unik immateriell egendom, användarinfångning eller försvarbar ekonomi längre. Nu behöver investerare utvärdera hur företag bygger, optimerar och integrerar modeller i verkliga arbetsflöden för kunder, skapar faktiska produkter och tjänster. Investerare bör fråga efter mått som ekonomi per arbetsbelastning när de tittar på AI-applikationer.

Dessa, inte bara modellens egenskaper eller den proprietära naturen, är de viktigaste värdeelementen. Det är också viktigt att förstå värdet av öppen källkodsmodeller. Dessa itererar ofta snabbare än stängda API:er eftersom forskare och utvecklare kan anpassa dem lokalt. Den adoptionen ackumuleras till en vallgrav runt ett företag eller produkt, vilket hjälper till att garantera vinster och framgång

Både investerare och entreprenörer som är oroliga för en effektiv användning av kapital behöver ta ett steg tillbaka och utvärdera den verkliga kostnaden för AI och alla relaterade komponenter; dessa är ofta överdrivna och högre än de behöver vara. Den allmänna strategin bör vara att hårdvarukostnader är volatila, så AI-design bör inte bero på någon specifik enhet eller hårdvara. Värdet och vad som differentierar ett företag är dess genomströmning per dollar, inte leverantörsrabatter som gynnar en viss typ av hårdvara. Försvarbarheten av AI-utgifter ligger nu i infrastrukturoptimering, proprietär data och integreringsdjup. Entreprenörer med bra idéer för lösningar som noggrant konstruerar eller använder modeller med det slutliga prestandamålet i åtanke kommer att vinna över dem som söker stora modeller som kan skalas för olika potentiella användningar. En annan fördel är att erbjuda öppna distributionsalternativ för studior och plattformar som inte kan förlita sig på en fjärr-API för realtidsupplevelser.

Beslutsfattare och branschen behöver också tänka mer logiskt om reglering. Framstegen har varit långsamma i dessa områden och fokuserar tungt på frontier-modeller som körs på stora enheter; detta är inte längre en praktisk approach. Momentum är överväldigande mot att sådana modeller kan köras på konsumentenheter, vilket gör reglering av modellerna själva omöjlig. Den öppna källkodsmodellens natur presenterar en annan formidabel utmaning för den nuvarande tillvägagångssättet för reglering. Återigen är den rätta strategin att fokusera på distribution via applikationer och produkter och utveckla regleringsramar runt dessa för olika industrier, inte övergripande principer om modeller. Målet bör vara att reglera applikationer och sektorer, med standarder för ursprung, säkerhetsräcken i produkter och avslöjande för syntetisk media. Historien från 90-talet och tidigt 2000-tal håller återigen en visdomslekion på detta koncept: Fallet mot den populära musikfildelningsföretaget Napster fokuserade inte på att begränsa fildelning i sig – den tekniken växte och blev mycket snabbare, och gav till slut plats för streaming – men snarare på en plattforms ansvarsfulla distribution av tekniken. (Även genom konkurs lyckades Napster faktiskt klamra sig fast som varumärke genom att anpassa hur de distribuerade sin teknik och köptes för mer än $200 miljoner tidigare i år.)

Slutpunkten är att marknaden kommer att konsolideras runt ett fåtal enhetliga multimodala AI-modeller som kan destilleras för effektivitet och anpassas för olika användningar. Alla intressenter behöver vara mer uppmärksamma på applikationer och det faktiska affärsvärdet som AI kan ge, och inte förlora sig i modellernas löften. Branschen blåser upp snabbare än den skapar värde. Oavsett om detta slutar i en dramatisk korrektion – liknande den tidiga internetbubblan – är öppen för debatt. Men tydlighet nu betyder motståndskraft senare.

Zeev Farbman är medgrundare och VD för Lightricks, det AI-första kreativa teknikföretaget bakom LTX-2 AI-modellen, LTX Studio och Facetune. Med en doktorsexamen i datavetenskap från Hebrew University of Jerusalem, har Farbman tillbringat sin karriär vid skärningspunkten mellan AI-forskning, beräkningsfotografering och kreativitet. Under hans ledning har Lightricks byggt proprietär teknik och generativa AI-modeller som driver nästa generations innehållsskapande. En före detta forskare som blivit entreprenör, är Farbman passionerad om att omvandla akademiska genombrott till tillgängliga kreativa verktyg för företag över hela världen.