Connect with us

Sfântul Graal al Puterii de Calcul în IA

Lideri de opinie

Sfântul Graal al Puterii de Calcul în IA

mm

În ciuda progresului incredibil, capacitățile inteligenței artificiale sunt încă limitate în comparație cu așteptările din lumea reală. Construim modele complexe, rulăm rețele neuronale și testăm algoritmi, dar progresul uneori se oprește în locurile în care ne așteptăm mai puțin.

Problema deseori nu constă în algoritmi sau date, ci în puterea de calcul, resursele care permit modelului să învețe și să funcționeze la scară necesară. Deci, ce se află în spatele acestei bariere? Să examinăm resursa critică fără de care chiar și cele mai promițătoare proiecte de IA nu pot depăși laboratorul.

Deficitul de calcul și consecințele sale

Pentru a înțelege acest subiect, să începem cu istoria comunicațiilor mobile. Când au apărut rețelele 3G și, mai târziu, 4G, internetul era deja aproape global. Și când a fost introdus 5G, mulți oameni au pus o întrebare perfect rezonabilă: “Internetul va fi mai rapid – dar ce contează?”

În realitate, creșterea vitezei internetului nu se reduce la conveniența utilizatorului. Ea transformă întregul peisaj tehnologic. Apar cazuri de utilizare care anterior erau imposibile. 5G s-a dovedit a fi mult mai rapid decât 4G, și acest salt nu a fost gradual, ca saltul de la 1G la 2G, ci exponențial. Ca urmare, apar aplicații, dispozitive și întregi clase de tehnologie noi.

Camerele de supraveghere a traficului, sistemele de analiză a traficului în timp real și mecanismele de reglementare automată a traficului – toate acestea devin posibile datorită noilor tehnologii de comunicare. Poliția primește noi modalități de a schimba date, și în spațiu, telescoapele și sateliții pot transmite cantități uriașe de informații către Pământ. Un salt calitativ într-o tehnologie fundamentală stimulează dezvoltarea întregului ecosistem.

Același principiu se aplică și puterii de calcul. Imaginați-vă capacitatea totală de calcul a omenirii în unități ipotetice. Astăzi, am putea avea, să zicem, zece astfel de unități. Cu acestea, putem genera imagini și videoclipuri, scrie texte, crea materiale de marketing… Acesta este deja un volum substanțial, dar gama de aplicații este limitată în principal.

Acum imaginați-vă că am nu zece, ci o mie de astfel de unități. Brusc, tehnologiile care anterior erau prea scumpe devin fezabile, și startup-urile abandonate din cauza costurilor de calcul ridicate încep să aibă sens economic.

Luați, de exemplu, robotaxi. Astăzi, ele se bazează în principal pe calculatoare locale relativ slabe instalate în vehicul. Cu toate acestea, dacă fluxul video ar fi transmis în cloud, cu resurse de calcul uriașe, datele ar putea fi procesate și returnate în timp real. Și acesta este un aspect critic: o mașină care se deplasează cu 100 km/h trebuie să ia decizii în fracțiuni de secundă – să meargă drept, să vireze, să frâneze sau să nu frâneze.

Atunci o industrie de robotaxi pe deplin funcțională devine posibilă, nu doar soluții izolate, cum sunt cele pe care le vedem astăzi. Orice calculator local instalat într-o mașină este în mod inerent limitat într-un mod în care un sistem conectat nu este. Cu cât putem scala mai repede, cu atât lumea din jurul nostru se va schimba mai repede.

Accesul la cipuri și “biletul de aur” în IA

În contextul puterii de calcul, apare întrebarea: devine accesul la cipuri moderne “biletul de aur” pentru a intra pe piața IA? Creează marii jucători care semnează contracte cu producătorii de cipuri, sau îi produc singuri, o prăpastie între companiile mari și toți ceilalți?

O astfel de prăpastie apare doar într-un singur caz: dacă modelul de afaceri se axează exclusiv pe vânzarea de cipuri către clienți mari. În practică, producători precum NVIDIA își propun să ofere soluții cloud pentru toată lumea. Cipurile lor optimizate sunt disponibile în cloud atât pentru OpenAI, cât și pentru dezvoltatorii independenți.

Chiar și alianțele strategice între companii precum Google, Anthropic, Microsoft, OpenAI, Amazon și NVIDIA sunt, în primul rând, parteneriate pentru utilizarea comună a resurselor, și nu încercări de a închide piața. Acest model permite alocarea eficientă a puterii de calcul, accelerând astfel dezvoltarea tehnologică.

Dacă urmărim lanțul utilizării resurselor de calcul, el începe cu utilizatorul final. De exemplu, când utilizați WhatsApp pentru apeluri video și mesaje, compania trebuie să asigure funcționarea serviciului: stocarea și procesarea datelor, rularea modelelor pentru curățarea video, adăugarea de efecte și îmbunătățirea calității imaginii.

Menținerea serverelor proprii este scumpă, ele devin învechite și necesită întreținere constantă. De aceea, au apărut soluțiile cloud, “norul”. Piața este dominată de trei jucători: Google Cloud, AWS și Microsoft Azure. Alte companii nu pot concura la acest nivel: scala infrastructurii este prea vastă.

Soluțiile cloud sunt centre de date uriașe, cu sisteme de răcire, alimentare cu energie și întreținere non-stop. Ele găzduiesc servere și cipuri specializate de la NVIDIA, AMD și alți producători, permițând procese de calcul la scară largă.

Aici ajungem la întrebarea cheie pe care am discutat-o în colona mea anterioară despre centrele de date și pe care vreau să o continuăm aici: ce este principala barieră în acest sistem? Este lipsa de electricitate sau dificultatea de a răci centrele de date în regiunile în care clima face acest lucru deosebit de dificil? În realitate, secretul constă în cipuri însele…

Sfântul Graal

De ce NVIDIA este astăzi evaluată la aproximativ 5 trilioane de dolari și este numărată printre cele mai de succes companii publice din lume? Motivul este simplu: NVIDIA produce cipurile pe care se antrenează și se rulează modelele de IA.

Fiecare dintre aceste cipuri consumă cantități uriașe de electricitate atunci când se antrenează modele mari sau se procesează volume imense de date. Dar cât de eficient este utilizată această energie? Aici intervin cipurile specializate; ele gestionează sarcini specifice mult mai eficient decât cipurile GPU generale.

Modelele de IA diferă. De exemplu, OpenAI are o familie de modele, Anthropic are alta. Conceptele pot fi similare, dar structurile matematice și procesele de calcul sunt diferite. Un cip general, atunci când se antrenează modele OpenAI (cum ar fi ChatGPT) versus modele Anthropic (cum ar fi Claude), acționează ca un “instrument universal”, consumând, să zicem, 100.000 de ore de calcul pentru un model și 150.000 pentru altul. Eficiența variază semnificativ și rareori este optimă.

Companiile rezolvă această problemă prin producerea de cipuri specializate. De exemplu, un cip poate fi optimizat pentru arhitectura ChatGPT și o poate antrena în, să zicem, 20 de minute, în timp ce altul este specializat pentru arhitectura Anthropic și o finalizează, de asemenea, în 20 de minute. Consumul de energie și timpul de antrenament sunt reduse de mai multe ori în comparație cu un cip general.

Când aceste cipuri sunt vândute către companii mari, cum ar fi Google, Amazon, Microsoft sau Azure, ele sunt oferite ca produse separate. Utilizatorii pot alege, de exemplu, un cip optimizat pentru un model YOLO sau un cip mai simplu și mai ieftin pentru o arhitectură Xen. Astfel, companiile primesc acces la resurse de calcul precis adaptate sarcinilor lor, și nu cumpără cipuri GPU generale. Dacă un utilizator are zece funcții diferite, poate utiliza zece cipuri specializate diferite.

Tendința este clară: cipurile specializate înlocuiesc treptat cipurile generale. Multe startup-uri lucrează acum cu ASIC (Circuite Integrate cu Aplicabilitate Specială), cipuri proiectate pentru sarcini de calcul specifice. Primele ASIC au apărut pentru mineritul de Bitcoin: inițial, criptomoneda era minată pe cipuri GPU NVIDIA, apoi au fost create cipuri special dedicate pentru Bitcoin și nu erau capabile să execute alte sarcini.

Văd acest lucru în practică: aceeași configurație hardware poate produce rezultate complet diferite, în funcție de sarcină. În startup-ul meu Introspector, studiem aceste procese în proiecte reale, și ca consultant strategic al Keymakr, observ cum clienții obțin eficiență din cipuri specializate, permițând modelului să ruleze mai rapid. Proiecte care anterior stagnau în timpul antrenamentului sau inferenței ajung la rezultate stabile cu această abordare.

Cu toate acestea, specializarea îngustă comportă riscuri. Un cip optimizat pentru arhitectura Anthropic nu va funcționa pentru antrenarea modelelor OpenAI, și viceversa. Fiecare arhitectură nouă necesită o nouă generație de hardware, creând un risc de “depreciere” pe scară largă. Dacă Anthropic lansează o nouă arhitectură mâine, toate cipurile de generație anterioară devin ineficiente sau inutile. Producerea de cipuri noi costă miliarde de dolari și poate dura ani.

Acest lucru creează un dilemă: ar trebui să producem cipuri specializate care funcționează perfect într-un scenariu îngust, sau să continuăm să producem cipuri generale care rezolvă toate sarcinile în mod moderat bine, dar nu necesită înlocuirea completă atunci când arhitecturile se schimbă?

Eficiența în acest context este măsurată prin trei parametri principali: timp de rulare, consum de electricitate și generare de căldură. Aceste metrice sunt direct legate: cu cât sistemul rulează mai mult, cu atât consumă mai multă energie și produce mai multă căldură. Reducerea unui parametru îmbunătățește automat ceilalți doi.

Aici se află “Sfântul Graal” al performanței IA: dacă măcar unul dintre parametrii fundamentalii de eficiență poate fi optimizat, ceilalți parametri se îmbunătățesc aproape automat.

Proces durabil

Odată cu creșterea utilizării cipurilor specializate, problema riscurilor de supra-producție a devenit presantă. În prezent, surplusul de echipamente este deja semnificativ, și companiile abordează această problemă în diverse moduri durabile, inclusiv prin reutilizarea resurselor existente.

Reciclarea echipamentelor a devenit un element cheie al dezvoltării durabile în industriile high-tech. Cipurile conțin cantități substanțiale de metale prețioase și de bază, aur, cupru, aluminiu, paladiu și materiale rare, precum și materiale utilizate în microcipuri și tranzistoare. Odată ce echipamentul devine învechit, aceste resurse valoroase pot fi returnate în producție, reducând costul componentelor noi, în timp ce scad și amprenta ecologică a industriei.

Unele fabrici specializate și companii se axează pe reciclarea și extragerea metalelor prețioase din componente învechite. De exemplu, unele facilități utilizează procese hidrometalurgice și metode chimice avansate pentru a extrage aur și cupru cu o puritate ridicată, permițând ca aceste materiale să fie reutilizate în cipuri noi.

În plus, companiile implementează modele cu circuit închis, în care echipamentele vechi sunt actualizate sau integrate în soluții noi, reducând astfel nevoia de extragere a resurselor primare. Astfel de abordări nu numai că ajută la minimizarea deșeurilor, dar reduc și amprenta de carbon a producției, deoarece mineritul și prelucrarea tradițională a metalelor necesită cantități semnificative de energie.

Managementul durabil al ciclului de viață al cipurilor și echipamentelor ar putea deveni un standard al industriei, în care progresul tehnologic se aliniază cu responsabilitatea ecologică.

Michael Abramov este fondatorul și CEO-ul Introspector, aducând peste 15+ ani de experiență în inginerie software și sisteme de inteligență artificială de viziune computerizată pentru construirea de instrumente de etichetare de nivel întreprindere.

Michael și-a început cariera ca inginer software și manager de cercetare și dezvoltare, construind sisteme de date scalabile și gestionând echipe de ingineri cross-funcționale. Până în 2025, el a ocupat funcția de CEO al Keymakr, o companie de servicii de etichetare a datelor, unde a inovat fluxurile de lucru cu omul în buclă, sistemele avansate de control al calității și instrumentele personalizate pentru a sprijini nevoile de date de viziune computerizată și autonomie la scară largă.

El deține o diplomă de licență în științe computaționale și o pregătire în inginerie și arte creative, aducând o perspectivă multidisciplinară pentru rezolvarea problemelor dificile. Michael trăiește la intersecția inovației tehnologice, a conducerii strategice a produsului și a impactului în lumea reală, conducând înainte următoarea frontieră a sistemelor autonome și a automatizării inteligente.