Connect with us

Tankeledare

Hur man inte kokar haven med AI

mm

Medan vi navigerar på gränsen för artificiell intelligens, finner jag mig ständigt reflekterande över den dubbla naturen av den teknik vi är banbrytande. AI, i sin essens, är inte bara en samling av algoritmer och datamängder; det är en manifestation av vår kollektiva genialitet, inriktad på att lösa några av de mest invecklade utmaningar som mänskligheten står inför. Ändå, som medgrundare och VD för Lemurian Labs, är jag starkt medveten om det ansvar som åtföljer vår kapplöpning mot att integrera AI i själva tyget av dagligt liv. Det tvingar oss att fråga: hur kan vi utnyttja AI:s obegränsade potential utan att kompromissa med planetens hälsa?

Innovation med en sidodisk av global uppvärmning

Teknisk innovation kommer alltid med en kostnad av bieffekter som du inte alltid räknar med. I fallet med AI idag, kräver det mer energi än andra typer av beräkningar. Den internationella energibyråns rapport nyligen att utbildning av en enda modell använder mer el än 100 amerikanska hem konsumerar under ett helt år. All denna energi kommer med en pris, inte bara för utvecklare, utan för vår planet. Bara förra året nådde energirelaterade koldioxidutsläpp en rekordhög nivå på 37,4 miljarder ton. AI bromsar inte, så vi måste fråga oss själva – är energin som krävs för att driva AI och de resulterande implikationerna på vår planet värt det? Är AI viktigare än att kunna andas vår egen luft? Jag hoppas att vi aldrig når en punkt där det blir en verklighet, men om ingenting förändras är det inte långt borta.

Jag är inte ensam i min uppmaning till mer energoeffektivitet över AI. Vid den senaste Bosch Connected World-konferensen noterade Elon Musk att med AI är vi “på gränsen till förmodligen den största tekniska revolution som någonsin har funnits”, men uttryckte att vi kunde börja se elbrist redan nästa år. AI:s effektbehov är inte bara ett tekniskt problem, det är ett globalt problem.

Att föreställa sig AI som ett komplext system

För att lösa dessa ineffektiviteter måste vi se AI som ett komplext system med många sammanlänkade och rörliga delar snarare än en fristående teknik. Detta system omfattar allt från de algoritmer vi skriver, till bibliotek, kompilatorer, körningar, drivrutiner, hårdvara vi är beroende av och den energi som krävs för att driva allt detta. Genom att anta denna holistiska vy kan vi identifiera och åtgärda ineffektiviteter på varje nivå av AI-utveckling, banar väg för lösningar som inte bara är tekniskt avancerade utan också miljömässigt ansvarsfulla. Att förstå AI som ett nätverk av sammanlänkade system och processer belyser vägen till innovativa lösningar som är lika effektiva som de är effektiva.

En universell programvarustack för AI

Den nuvarande utvecklingsprocessen för AI är starkt fragmenterad, med varje hårdvarutyp som kräver en specifik programvarustack som bara körs på den enheten, och många specialiserade verktyg och bibliotek som är optimerade för olika problem, de flesta av vilka är i stort sett oförenliga. Utvecklare kämpar redan med att programmera system-on-chips (SoCs) som de i edge-enheter som mobiltelefoner, men snart kommer allt som hände i mobiltelefoner att hända i datacenter och bli hundratals gånger mer komplicerat. Utvecklare måste sy och arbeta sig igenom ett intrikat system av många olika programmeringsmodeller, bibliotek för att få prestanda ut ur sina alltmer heterogena kluster, mycket mer än de redan har. Och det är bara för utbildning. Till exempel är programmering och att få prestanda ut ur en superdator med tusentals till tiotusentals processorer och GPU:er mycket tidskrävande och kräver mycket specialiserad kunskap, och ändå lämnas mycket kvar på bordet eftersom den nuvarande programmeringsmodellen inte skalar till denna nivå, vilket resulterar i överdriven energiförbrukning, som bara kommer att bli värre när vi fortsätter att skala modeller.

Detta kräver en sorts universell programvarustack som kan hantera fragmenteringen och göra det enklare att programmera och få prestanda ut ur alltmer heterogen hårdvara från befintliga leverantörer, samtidigt som det underlättar att komma igång med ny hårdvara från nya aktörer. Detta skulle också tjäna till att påskynda innovation inom AI och i datormarkitektur, och öka antagandet av AI i många fler branscher och tillämpningar.

Krav på effektiv hårdvara

Förutom att implementera en universell programvarustack är det avgörande att överväga optimering av den underliggande hårdvaran för bättre prestanda och effektivitet. Grafikprocessorer (GPU:er), ursprungligen designade för spel, trots att de är oerhört kraftfulla och användbara, har många källor till ineffektivitet som blir mer uppenbara när vi skalar dem till superdatornivå i datacenter. Den nuvarande obegränsade skalförändringen av GPU:er leder till förhöjda utvecklingskostnader, brist på hårdvarutillgänglighet och en betydande ökning av koldioxidutsläpp.

Dessa utmaningar är inte bara ett enormt hinder för inträde, utan deras inverkan känns över hela branschen. För låt oss vara ärliga – om världens största techföretag har svårt att få tillräckligt med GPU:er och tillräckligt med energi för att driva sina datacenter, finns det ingen hopp för resten av oss.

En avgörande vändpunkt

På Lemurian Labs stod vi inför detta förstahands. Tillbaka 2018 var vi ett litet AI-startup som försökte bygga en grundläggande modell, men den renodlade kostnaden var oförsvarlig. Mängden beräkningskraft som krävdes ensam var tillräckligt för att driva utvecklingskostnaderna till en nivå som var oacceptabel, inte bara för oss som ett litet startup, utan för alla utanför världens största techföretag. Detta inspirerade oss att vända från att utveckla AI till att lösa de underliggande utmaningar som gjorde det otillgängligt.

Vi började med grunderna och utvecklade en helt ny grundläggande aritmetik för att driva AI. Kallad PAL (parallell adaptiv logaritm), denna innovativa talssystem gav oss möjlighet att skapa en processor som kunde uppnå upp till 20 gånger högre genomströmning än traditionella GPU:er på benchmark AI-arbetsbelastningar, allt medan den förbrukade hälften så mycket energi.

Vårt outtröttliga engagemang för att göra livet lättare för AI-utvecklare samtidigt som vi gör AI mer effektivt och tillgängligt har lett oss till att alltid försöka avlägsna löken och få en djupare förståelse för problemet. Från att designa ultra-högpresterande och effektiva datorarkitekturer som är avsedda att skala från kanten till datacentret, till att skapa programvarustackar som hanterar utmaningarna med att programmera enstaka heterogena enheter till lagerhallsskaliga datorer. Allt detta syftar till att möjliggöra snabbare AI-distributioner till en reducerad kostnad, förbättra utvecklarens produktivitet, påskynda arbetsbelastningar och samtidigt förbättra tillgänglighet, främja innovation, antagande och jämlikhet.

Att uppnå AI för alla

För att AI ska ha en meningsfull inverkan på vår värld, måste vi se till att vi inte förstör den i processen, och det kräver en grundläggande förändring av hur det utvecklas. Kostnaderna och beräkningskraften som krävs idag väger skalan till fördel för ett fåtal stora, skapar ett enormt hinder för innovation och tillgänglighet samtidigt som de dumpar enorma mängder koldioxid i vår atmosfär. Genom att tänka på AI-utveckling från utvecklarens och planetens synvinkel kan vi börja hantera dessa underliggande ineffektiviteter för att uppnå en framtid för AI som är tillgänglig för alla och miljömässigt ansvarsfull.

En personlig reflektion och uppmaning till hållbar AI

Blickar jag framåt, är mina känslor om AI:s framtid en blandning av optimism och försiktighet. Jag är optimistisk om AI:s transformerande potential att förbättra vår värld, men försiktig om det betydande ansvaret det medför. Jag ser fram emot en framtid där AI:s riktning bestäms inte enbart av våra tekniska framsteg, utan av en fast övertygelse om hållbarhet, jämlikhet och inklusivitet. Som ledare för Lemurian Labs, drivs jag av en vision om AI som en avgörande kraft för positiv förändring, med prioritet på både mänsklighetens upphöjelse och miljöskydd. Denna mission går utöver att skapa överlägsen teknik; det handlar om att bana väg för innovationer som är gynnsamma, etiskt sunda och understryker vikten av genomtänkta, skalbara lösningar som hedrar våra kollektiva aspirationer och planetens hälsa.

Medan vi står på tröskeln till en ny era i AI-utveckling, är vår uppmaning otvetydig: vi måste odla AI på ett sätt som medvetet beaktar vår miljöpåverkan och främjar det gemensamma bästa. Denna etos är hörnstenen i vårt arbete på Lemurian Labs, inspirerar oss att innovera, samarbeta och sätta ett exempel. “Låt oss inte bara bygga AI för innovationens skull, utan innovera för mänskligheten och vår planet”, uppmanar jag, och bjuder in den globala gemenskapen att delta i att omforma AI-landskapet. Tillsammans kan vi garantera att AI uppstår som en fackla av positiv förvandling, som ger mänskligheten kraft och skyddar vår planet för framtida generationer.

Jay Dawani är medgrundare och VD för Lemurian Labs, ett startup-företag som ligger i framkanten av allmänt accelererad datorkapacitet för att göra AI-utveckling billig och allmänt tillgänglig för alla företag och människor att lika mycket dra nytta av. Författare till den inflytelserika boken "Matematik för djupinlärning", har han haft ledande positioner i företag som BlocPlay och Geometric Energy Corporation, och lett projekt som involverar kvantberäkning, metaverse, blockchain, AI, rymdrobotik och mer. Jay har också tjänstgjort som rådgivare till NASA Frontier Development Lab, SiaClassic och många ledande AI-företag.