Connect with us

Lideri de opinie

Boom-ul AI nu a explodat, dar calcularea AI se schimbă cu siguranță

mm

Nu fi prea speriat de urșii AI. Ei se întreabă cu voce tare dacă marele boom în investițiile în AI a venit și a trecut, dacă mult entuziasm și cheltuieli pe sisteme masive de antrenare AI, alimentate de multe procesoare grafice de înaltă performanță, s-au epuizat și dacă așteptările pentru era AI ar trebui să fie radical reduse.

Dar dacă aruncați o privire mai atentă la planurile marilor hyperscalers, investițiile în AI sunt în viață și în sănătate. Meta, Amazon, Microsoft și Google au dublat recent investițiile în tehnologia AI. Angajamentul lor colectiv pentru 2025 se ridică la peste 300 de miliarde de dolari, conform unei povestiri recente în Financial Times. CEO-ul Microsoft, Satya Nadella, a declarat că Microsoft ar putea cheltui 80 de miliarde de dolari numai pe AI în acest an. Fondatorul și CEO-ul Meta, Mark Zuckerberg, a declarat pe Facebook: “Ne propunem să investim 60-65 de miliarde de dolari în capitalul de exploatare în acest an, în timp ce vom crește și echipele noastre de AI în mod semnificativ, și avem capitalul pentru a continua să investim în anii următori.”

Acesta nu este sunetul unui boom AI care explodează, dar a existat o neliniște crescândă în jurul sumei de bani cheltuiți pentru a permite aplicațiile AI. După cel puțin doi ani în care giganții tehnologiei au declarat că văd o cerere clară pentru mai multă putere de calcul pentru a ajuta la antrenarea unor modele AI masive, 2025 a început cu aceleași companii chemate zilnic pe covor de mass-media de afaceri pentru construirea unui asemenea hype AI.

De ce a existat o schimbare atât de bruscă de la speranță la îngrijorare? Răspunsul se poate găsi parțial în apariția rapidă a unei noi aplicații AI din China. Dar pentru a înțelege pe deplin ce se întâmplă cu adevărat și ce înseamnă pentru investițiile și programele de tehnologie în anii următori, trebuie să recunoaștem că era AI se îndreaptă spre o nouă fază a evoluției sale.

Căutarea Adevărului

Până acum, lumea întreagă știe despre DeepSeek, compania chineză de AI care se laudă cu faptul că a utilizat motoare de inferență și raționament statistic pentru a antrena modele de limbaj mare cu mult mai multă eficiență și la costuri mai mici decât alte firme care și-au antrenat modelele.

În special, DeepSeek a declarat că tehnicile sale au dus la necesitatea unui număr mult mai mic de procesoare grafice (de până la 2.048 de procesoare grafice), precum și procesoare grafice mai puțin puternice (Nvidia H800) decât sutele de mii de procesoare grafice de înaltă performanță (cum ar fi Nvidia H100) pe care unele companii hyperscale le-au necesitat pentru a-și antrena modelele. În ceea ce privește economiile de costuri, în timp ce OpenAI a cheltuit miliarde de dolari pentru a antrena ChatGPT, DeepSeek a raportat că a cheltuit cât mai puțin 6,5 milioane de dolari pentru a-și antrena modelul R1.

Trebuie remarcat că mulți experți au pus la îndoială afirmațiile DeepSeek privind cheltuielile, dar paguba a fost făcută, deoarece știrile despre metodele sale diferite au determinat o scădere bruscă a valorilor acțiunilor hyperscalers și a companiilor ale căror procesoare grafice au cheltuit miliarde pentru a-și antrena modelele AI.

Cu toate acestea, au fost pierdute câteva puncte importante în haos. Una a fost înțelegerea că DeepSeek nu a “inventat” o modalitate nouă de a lucra cu AI. A doua este că mare parte a ecosistemului AI a fost conștientă de o schimbare iminentă în modul în care banii de investiții în AI trebuie cheltuiți și în modul în care AI însuși va fi utilizat în anii următori.

În ceea ce privește metodele DeepSeek, noțiunea de utilizare a motoarelor de inferență AI și a raționamentului statistic nu este nimic nou. Utilizarea raționamentului statistic este un aspect al conceptului mai larg de raționament al modelului de inferență, care implică capacitatea AI de a trage concluzii pe baza recunoașterii modelelor. Acesta este esențialmente similar cu capacitatea umană de a învăța diferite moduri de abordare a unei probleme și de a le compara pentru a găsi cea mai bună soluție posibilă. Raționamentul modelului de inferență poate fi utilizat astăzi și nu este exclusiv pentru o companie chineză de startup.

Între timp, ecosistemul AI a anticipat de ceva timp o schimbare fundamentală în modul în care lucrăm cu AI și resursele de calcul necesare. Anii inițiali ai erei AI au fost toți despre marea sarcină de a antrena modele AI mari pe seturi de date foarte mari, toate acestea necesitând multă prelucrare, calcule complexe, ajustări de greutate și dependență de memorie. După ce modelele AI au fost antrenate, lucrurile se schimbă. AI poate utiliza inferența pentru a aplica tot ceea ce a învățat la noi seturi de date, sarcini și probleme. Inferența, ca un proces mai puțin intensiv din punct de vedere computațional decât antrenamentul, nu necesită atâtea procesoare grafice sau alte resurse de calcul.

Adevărul ultim despre DeepSeek este că, deși metodele sale nu au șocat majoritatea dintre noi din ecosistemul AI la fel de mult pe cât au făcut-o investitorii de pe piața bursieră, a subliniat una dintre modalitățile în care inferența va fi esențială pentru următoarea fază a evoluției AI.

AI: Următoarea Generație

Promisiunea și potențialul AI nu s-au schimbat. Investițiile masive continue în AI de către marile hyperscalers arată credința pe care o au în valoarea pe care o pot debloca din AI, precum și modalitățile în care AI poate schimba felul în care funcționează practic toate industriile și modul în care oamenii își desfășoară viața de zi cu zi.

Ce s-a schimbat pentru acești hyperscalers este modul în care acești dolari vor fi cheltuiți. În anii inițiali ai erei AI, majoritatea investițiilor a fost necesară pentru antrenament. Dacă vă gândiți la AI ca la un copil, cu o minte încă în dezvoltare, am cheltuit o mulțime de bani pentru a-l trimite la cele mai bune școli și universități. Acum, acel copil este un adult educat – și are nevoie de un loc de muncă pentru a-și susține sine. În termeni reali, am investit mult în antrenarea AI, și acum avem nevoie de a vedea returnarea investiției noastre prin utilizarea AI pentru a genera venituri noi.

Pentru a obține această returnare a investiției, AI are nevoie să devină mai eficient și mai puțin costisitor pentru a ajuta companiile să maximizeze atracția sa de piață și utilitatea pentru cât mai multe aplicații posibile. Noile servicii cele mai profitabile vor fi cele autonome care nu necesită monitorizare și gestionare umană.

Pentru multe companii, acest lucru înseamnă utilizarea tehnicilor de calcul AI eficiente din punct de vedere al resurselor, cum ar fi raționamentul modelului de inferență, pentru a permite rapid și eficient comunicarea autonomă mașină-la-mașină. De exemplu, în industria wireless, AI poate fi utilizat pentru a analiza în mod autonom datele în timp real despre utilizarea spectrului pe o rețea mobilă pentru a optimiza utilizarea canalului și a reduce interferența dintre utilizatori, ceea ce permite în cele din urmă unui operator mobil să susțină o împărtășire dinamică a spectrului mai mare pe rețeaua sa. Acest tip de comunicare mașină-la-mașină autonomă, mai eficientă și bazată pe AI, va defini următoarea generație de AI.

Așa cum a fost cazul cu fiecare altă eră majoră de calcul, calculul AI continuă să evolueze. Dacă istoria calculului ne-a învățat ceva, este că o nouă tehnologie întotdeauna necesită o mulțime de investiții inițiale, dar costurile vor scădea și eficiența va crește pe măsură ce începem să utilizăm tehnici îmbunătățite și practici mai bune pentru a crea produse și servicii mai benefice și mai accesibile pentru a atrage cele mai mari piețe posibile. Inovația întotdeauna găsește o cale.

Sectorul AI poate părea recent că a suferit un pas înapoi, dacă ascultați urșii AI, dar banii pe care hyperscalers îi planifică să-i cheltuiască în acest an și utilizarea tot mai mare a tehnicilor bazate pe inferență spun o altă poveste: calculul AI se schimbă cu adevărat, dar promisiunea AI este pe deplin intactă.

Fernando s-a alăturat Digital Global Systems (DGS) în 2013, venind de la PriceWaterhouseCoopers, unde a deținut mai multe poziții de conducere atât în Statele Unite, cât și în America Latină.

Fernando a fost în fruntea unor modele de investiții inovatoare pentru întreprinderi tehnologice de ultimă generație; a negociat parteneriate inovatoare utilizând structuri cu cheltuieli de capital reduse (CAPEX-light); și a avut o viziune strategică asupra valorii afacerilor, valorificând noi tehnologii și structuri de operare. În rolurile sale, Fernando a creat o valoare semnificativă a afacerii, utilizând portofolii unice de proprietate intelectuală și inovații emergente în domeniul datelor, analizei și inteligenței artificiale.