Connect with us

Thought leaders

Hoe voorkomen we dat we de oceanen laten koken met AI

mm

Terwijl we de frontier van kunstmatige intelligentie verkennen, reflecteer ik constant op de dubbele aard van de technologie die we pionieren. AI is in wezen niet alleen een verzameling van algoritmes en datasets; het is een manifestatie van onze collectieve vernuftigheid, gericht op het oplossen van enkele van de meest ingewikkelde uitdagingen waarmee de mensheid wordt geconfronteerd. Toch ben ik, als medeoprichter en CEO van Lemurian Labs, me ervan bewust dat de verantwoordelijkheid die onze race naar het integreren van AI in het dagelijks leven begeleidt, ons ertoe dwingt te vragen: hoe kunnen we de onbeperkte potentie van AI benutten zonder de gezondheid van onze planeet te compromitteren?

Innovatie met een zijde van globale opwarming

Technologische innovatie gaat altijd gepaard met neveneffecten die je niet altijd in overweging neemt. In het geval van AI van vandaag heeft het meer energie nodig dan andere soorten computing. Het Internationaal Energie Agentschap rapporteerde onlangs dat het trainen van één model meer elektriciteit gebruikt dan 100 Amerikaanse huizen in een heel jaar verbruiken. Al die energie komt niet alleen voor ontwikkelaars, maar ook voor onze planeet. Vorig jaar bereikten de energiegerelateerde CO2-uitstoot een recordhoogte van 37,4 miljard ton. AI vertraagt niet, dus moeten we onszelf afvragen – is de energie die nodig is om AI te laten werken en de resulterende implicaties voor onze planeet het waard? Is AI belangrijker dan dat we onze eigen lucht kunnen inademen? Ik hoop dat we nooit op een punt komen waarop dat een realiteit wordt, maar als er niets verandert, is het niet ver weg.

Ik ben niet de enige die opriep tot meer energie-efficiëntie in AI. Tijdens de recente Bosch Connected World Conference merkte Elon Musk op dat we met AI “aan de rand van waarschijnlijk de grootste technologische revolutie die ooit heeft bestaan” staan, maar uitdrukte dat we al volgend jaar mogelijk een tekort aan elektriciteit kunnen zien. De stroomverbruik van AI is niet alleen een technisch probleem, het is een wereldwijd probleem.

AI voorstellen als een complex systeem

Om deze inefficiënties op te lossen, moeten we naar AI kijken als een complex systeem met veel onderling verbonden en bewegende onderdelen, in plaats van als een zelfstandige technologie. Dit systeem omvat alles, van de algoritmes die we schrijven, tot de bibliotheken, compilers, runtime-omgevingen, stuurprogramma’s, hardware waarop we vertrouwen, en de energie die nodig is om al dit te laten werken. Door deze holistische visie te omarmen, kunnen we inefficiënties op elk niveau van AI-ontwikkeling identificeren en aanpakken, waardoor we oplossingen kunnen creëren die niet alleen technisch geavanceerd zijn, maar ook milieuvriendelijk.

Een universele softwarestack voor AI

Het huidige ontwikkelproces van AI is zeer gefragmenteerd, met elke hardwaretype dat een specifieke softwarestack vereist die alleen op dat ene apparaat draait, en veel gespecialiseerde tools en bibliotheken die zijn geoptimaliseerd voor verschillende problemen, waarvan de meeste grotendeels incompatibel zijn. Ontwikkelaars worstelen al met het programmeren van systemen op chips (SoC’s) zoals die in edge-apparaten zoals mobiele telefoons, maar binnenkort zal alles wat in mobiel gebeurt, in het datacenter gebeuren en honderd keer complexer zijn. Ontwikkelaars moeten een ingewikkeld systeem van veel verschillende programmeringsmodellen, bibliotheken doorwerken om prestaties uit hun steeds heterogene clusters te halen, veel meer dan ze al moeten. En dat is alleen maar voor training. Bijvoorbeeld, programmeren en prestaties uit een supercomputer met duizenden tot tienduizenden CPU’s en GPU’s halen, is zeer tijdrovend en vereist zeer gespecialiseerde kennis, en zelfs dan blijft er veel onbenut omdat het huidige programmeringsmodel niet schaalbaar is naar dit niveau, wat resulteert in overmatig energieverbruik, wat alleen maar erger zal worden naarmate we modellen blijven schalen.

Dit vereist een soort universele softwarestack die de fragmentatie kan aanpakken en het makkelijker kan maken om te programmeren en prestaties te halen uit steeds heterogene hardware van bestaande leveranciers, en ook om het makkelijker te maken om productief te worden op nieuwe hardware van nieuwe toetreders. Dit zou ook dienen om innovatie in AI en computerarchitectuur te versnellen, en de adoptie van AI in veel meer industrieën en toepassingen te vergroten.

De vraag naar efficiënte hardware

Naast het implementeren van een universele softwarestack, is het cruciaal om de onderliggende hardware te optimaliseren voor betere prestaties en efficiëntie. Grafische verwerkingseenheden (GPU’s), oorspronkelijk ontworpen voor gamen, zijn ondanks hun immense kracht en nut, inefficiënt op veel gebieden, wat duidelijker wordt als we ze opschalen naar supercomputerniveau in het datacenter. De huidige onbeperkte schaling van GPU’s leidt tot verhoogde ontwikkelingskosten, tekorten in hardwarebeschikbaarheid en een aanzienlijke toename van CO2-uitstoot.

Deze uitdagingen zijn niet alleen een enorm barrière voor toegang, maar hun impact wordt gevoeld in de hele industrie. Laten we eerlijk zijn – als de grootste technologiebedrijven ter wereld moeite hebben om genoeg GPU’s te krijgen en genoeg energie om hun datacenters te laten werken, is er geen hoop voor de rest van ons.

Een cruciale omslag

Bij Lemurian Labs hebben we dit van dichtbij meegemaakt. In 2018 waren we een klein AI-startup dat een fundamenteel model probeerde te bouwen, maar de pure kosten waren onrechtvaardig. De hoeveelheid rekenkracht die alleen nodig was, was genoeg om de ontwikkelingskosten te verhogen tot een niveau dat niet alleen voor ons als klein startup, maar voor iedereen buiten de grootste technologiebedrijven, onhaalbaar was. Dit inspireerde ons om van richting te veranderen van AI-ontwikkeling naar het oplossen van de onderliggende uitdagingen die het ontoegankelijk maakten.

We begonnen met de basis door een geheel nieuwe fundamentele wiskunde te ontwikkelen om AI te laten werken. Genoemd PAL (parallelle adaptieve logarithmus), deze innovatieve nummersysteem stelde ons in staat om een processor te creëren die tot 20 keer meer doorvoer kon bereiken dan traditionele GPU’s op benchmark AI-werklasten, allemaal terwijl het de helft van de stroom verbruikte.

Ons onwankelbare engagement om het leven van AI-ontwikkelaars gemakkelijker te maken en AI efficiënter en toegankelijker te maken, heeft ons ertoe gebracht om altijd te proberen de ui te pellen en een dieper begrip van het probleem te krijgen. Van het ontwerpen van ultra-hoge prestatie- en efficiënte computerarchitectuur die is ontworpen om te schalen van de edge tot het datacenter, tot het creëren van softwarestacks die de uitdagingen van het programmeren van enkele heterogene apparaten tot opslagruimte-grote computers aanpakken. Alles dient om snellere AI-implementaties mogelijk te maken tegen een verlaagde kostprijs, ontwikkelaarsproductiviteit te verhogen, workloads te versnellen en tegelijkertijd toegankelijkheid, innovatie, adoptie en gelijkheid te bevorderen.

AI voor iedereen bereiken

Om AI een significante impact op onze wereld te laten hebben, moeten we ervoor zorgen dat we deze niet vernietigen in het proces en dat vereist een fundamentele verandering in de manier waarop het wordt ontwikkeld. De kosten en rekenkracht die vandaag nodig zijn, geven de voorkeur aan een grote minderheid, waardoor een enorme barrière voor innovatie en toegankelijkheid ontstaat, terwijl er massive hoeveelheden CO2 in onze atmosfeer worden gestort. Door AI-ontwikkeling vanuit het perspectief van ontwikkelaars en de planeet te bekijken, kunnen we beginnen met het aanpakken van deze onderliggende inefficiënties om een toekomst van AI te bereiken die toegankelijk is voor iedereen en milieuvriendelijk.

Een persoonlijke reflectie en oproep tot duurzame AI

Kijkend naar de toekomst, zijn mijn gevoelens over de toekomst van AI een mengeling van optimisme en voorzichtigheid. Ik ben optimistisch over de transformatieve potentie van AI om onze wereld te verbeteren, maar voorzichtig over de aanzienlijke verantwoordelijkheid die het met zich meebrengt. Ik stel me een toekomst voor waarin de richting van AI niet alleen wordt bepaald door onze technologische vooruitgang, maar door een onwankelbare toewijding aan duurzaamheid, gelijkheid en inclusiviteit. Als leider van Lemurian Labs, word ik gedreven door een visie van AI als een cruciale kracht voor positieve verandering, waarbij zowel de vooruitgang van de mensheid als de bescherming van het milieu voorop staat. Deze missie gaat verder dan het creëren van superieure technologie; het gaat over het pionieren van innovaties die nuttig, ethisch verantwoord en onderstreept de belangrijkheid van zorgvuldige, schaalbare oplossingen die onze collectieve aspiraties en de gezondheid van de planeet eerbiedigen.

Terwijl we aan de vooravond van een nieuwe era in AI-ontwikkeling staan, is onze oproep tot actie onmiskenbaar: we moeten AI op een manier cultiveren die onze milieueffecten bewust overweegt en het algemeen welzijn bevordert. Deze ethos vormt de basis van ons werk bij Lemurian Labs, inspirerend om te innoveren, samen te werken en een precedent te scheppen. “Laten we AI niet alleen bouwen voor de sake van innovatie, maar innoveren voor de mensheid en onze planeet,” dring ik aan, uitnodigend aan de wereldgemeenschap om deel te nemen aan het herschappen van het AI-landschap. Samen kunnen we garanderen dat AI opkomt als een lichtpunt van positieve transformatie, waardoor de mensheid wordt geëmpowerd en onze planeet wordt beschermd voor toekomstige generaties.

Jay Dawani is mede-oprichter en CEO van Lemurian Labs, een startup die zich bevindt aan de voorhoede van algemene versnelde computing om AI-ontwikkeling betaalbaar en algemeen beschikbaar te maken voor alle bedrijven en mensen om gelijk te profiteren. Auteur van het invloedrijke boek "Wiskunde voor Deep Learning", heeft hij leidinggevende posities gehad bij bedrijven zoals BlocPlay en Geometric Energy Corporation, waar hij projecten leidde op het gebied van quantum computing, metaverse, blockchain, AI, space robotics en meer. Jay heeft ook gediend als adviseur voor NASA Frontier Development Lab, SiaClassic en veel toonaangevende AI-bedrijven.