Connect with us

IA care se învață singură nu mai este o ficțiune științifică

Inteligență artificială

IA care se învață singură nu mai este o ficțiune științifică

mm

Noile cadre de inteligență artificială se îndreaptă spre un salt radical: mașini care se autoîmbunătățesc, fără a necesita insight uman.

De-a lungul anilor, chiar și cele mai avansate modele de IA au rămas motoare pasive, prevăzând răspunsuri pe baza datelor de antrenament pe care nu le puteau modifica. Dar astăzi, nu dimensiunea modelului definește următorul capitol al inteligenței artificiale; este vorba despre faptul că modelul poate evolua singur.

Recent, cercetătorii de la MIT au prezentat un nou cadru de IA numit Self-Adapting LLMs (SEAL). Acest cadru permite modelelor de limbaj mari (LLM) să se îmbunătățească singure, permițând IA să-și diagnosticheze limitele și să-și actualizeze permanent greutățile neuronale prin intermediul unei bucle de feedback interne alimentate de învățarea prin întărire. În loc să necesite ca cercetătorii să identifice erorile, să scrie noi prompturi sau să alimenteze exemple suplimentare, modelul ia în totalitate posesia evoluției sale.

„Modelele de limbaj mari (LLM) sunt puternice, dar statice; ele lipsesc mecanisme pentru a adapta greutățile în răspuns la noi sarcini, cunoștințe sau exemple”, au scris cercetătorii de la MIT într-un post de blog. „Experimentele privind încorporarea cunoștințelor și generalizarea cu puține exemple arată că SEAL este un pas promițător spre modele de limbaj capabile de adaptare autodirijată în răspuns la noi date.”

În testele inițiale, această buclă de autoeditare a permis modelelor să treacă de la eșec complet la succes în puzzle-uri de raționament abstract complex, depășind chiar și modele mult mai mari, cum ar fi GPT-4.1, cu o rată de succes de 72,5%, în timp ce metodele tradiționale au eșuat. Mai mult, SEAL reduce supravegherea umană cu 85% în timp ce crește precizia și adaptabilitatea.

Apariția cadrelor de IA care se autoînvață

SEAL face parte dintr-o tendință mai largă spre inteligență mașină autonomă. Cercetătorii de la Sakana AI, de exemplu, au introdus Mașina Darwin-Gödel—un agent de IA care-și rescrie singur codul utilizând strategii evolutive deschise.

„El creează diverse autoîmbunătățiri, cum ar fi o etapă de validare a patch-urilor, vizualizarea fișierelor îmbunătățită, unelte de editare îmbunătățite, generarea și clasificarea mai multor soluții pentru a alege cea mai bună și adăugarea unei istorii a ceea ce a fost încercat anterior (și de ce a eșuat) atunci când se fac schimbări noi”, a scris Sakana AI într-un post de blog.

La fel, agenții de IA Anthropic, pornite de Claude 4, pot acum să orchestreze în mod autonom fluxuri de lucru în coduri și instrumente de afaceri.

„Un sistem care se reconfigurează în funcție de tipul de activ, mediu și istoric permite trecerea de la un răspuns reactiv la o strategie de prevenire continuă”, mi-a spus Christian Struve, CEO și co-fondator la Fracttal. „Nu este vorba despre mai multe straturi sau mai multe parametri, ci despre sisteme mai autonome și mai utile.”

Ceea ce unește aceste eforturi este o credință de bază: IA nu are nevoie să devină mai mare pentru a deveni mai inteligentă. Ea are nevoie să devină mai adaptabilă.

„Scalabilitatea a adus câștiguri majore, dar ajungem la limitele a ceea ce poate realiza singură dimensiunea. Modelele de învățare autoadaptative, cum ar fi SEAL, oferă un pas următor convingător, permițând sistemelor să crească și să se îmbunătățească în timp”, mi-a spus Jorge Riera, fondator și CEO al platformei de consultanță de date full-stack Dataco. „Modelele care se autoevoluează deplasează, de asemenea, progresul metricilor de la repere statice la măsuri de adaptabilitate, eficiență a învățării și îmbunătățire pe termen lung sigură. În loc să testăm doar ce știe un model la momentul implementării, putem evalua cum învață, reține și evoluează în timp.”

Impactul asupra ecosistemului de IA și a cursei globale spre autonomie

Acest nivel de autonomie rescrie și economia implementării IA. Imaginați-vă sisteme de detectare a fraudelor care se actualizează instantaneu pentru a contracara noi amenințări sau tutori de IA care-și schimbă stilul de predare în funcție de comportamentul unui student. În robotică, cadrele autoadaptative ar putea duce la mașini autonome care învață noi modele de mișcare fără a fi reprogramate.

În întreaga regiune a Orientului Mijlociu, țări precum UAE și Arabia Saudită construiesc rapid modele fundamentale proiectate pentru adaptare. Falcon-ul din UAE și Jais de la G42 sunt modele de limbaj mari cu sursă deschisă, construite cu relevanță regională, în timp ce Arabia Saudită cu ALLaM și Metabrain-ul digital Aramco se îndreaptă spre domeniul agenților de IA autonomi pentru orașe inteligente, sănătate și logistică.

Aceste eforturi nu sunt încă echivalente cu capacitatea de autoeditare a SEAL, dar reflectă o traiectorie comună: de la sisteme de IA pasive la agenți activi, evolutivi, care pot naviga complexitatea cu o ghidare umană limitată. Și, la fel ca SEAL, aceste inițiative sunt sprijinite de cadre robuste de guvernanță, subliniind conștientizarea crescândă că autonomia IA trebuie să fie corelată cu responsabilitatea.

„Acesta este un prim pas către sisteme autoadministrabile care-și pot modifica logica fără intervenție constantă”, spune Struve. „Cred că inteligența artificială nu redefinesc ce înseamnă inteligența, dar ne obligă să reevaluăm relația noastră cu ea. Lucrul important nu este că un model evoluează, ci că o face în conformitate cu obiectivele pe care le definim ca oameni.”

Jeff Townes, CTO al Gorilla Logic, subliniază, de asemenea, importanța guvernanței care ține pasul cu evoluția IA: „Întrebarea nu este dacă IA poate evolua—ci dacă întreprinderea poate evolua odată cu ea. Guvernanța trebuie să ancoreze fiecare adaptare a IA la rezultate și KPI clare pe care liderii le pot măsura și încredința, astfel încât inovația să se dezvolte cu încredere, nu cu risc.”

Suntem pregătiți pentru IA care-și rescrie singură codul?

Cea mai provocatoare întrebare pe care o ridică SEAL nu este una tehnică—ci dacă modelele pot decide cum să se învețe singure, care este rolul nostru în modelarea valorilor, priorităților și direcției lor?

Experții avertizează că, pe măsură ce sistemele de IA autoadaptative câștigă autonomie, goana spre autoîmbunătățire nu trebuie să depășească stabilirea unor garduri etice. „Cred că toate sistemele de IA trebuie să incorporeze cel puțin trei principii etice de bază”, spune Jacob Evans, CTO la Kryterion.

„În primul rând, și poate că nu trebuie spus, dar IA trebuie să se identifice ca atare. În al doilea rând, IA trebuie să fie centrată pe oameni, să sporească și să nu înlocuiască judecata umană. Și, în al treilea rând, trebuie să-și recunoască limitele și incertitudinile, refuzând să furnizeze informații care ar putea facilita un rău grav. Fără aceste garanții, IA poate deveni un instrument de manipulare, în loc de un suport de încredere.”

“Pentru a permite modelelor să se autoîmbunătățească în producție, ele au nevoie de o buclă de feedback dinamic, nu doar de antrenament static. O metodă puternică este utilizarea unui ‘gemene digital’ sau a unui mediu de testare sofisticat în care IA poate testa și valida în siguranță propriile îmbunătățiri auto-generate înainte de a fi implementate pentru utilizatori”, a împărtășit Ganesh Vanama, inginer de viziune computerizată la Automotus.

În ceea ce privește guvernanța, Vanama a adăugat: „controlul nelimitat este supravegherea ‘omului în buclă’”. El a spus că, deși dorim ca modelele să se adapteze, „trebuie să aveți o monitorizare continuă pentru a detecta ‘deriva de aliniere’ în care modelul se abate de la obiectivele sale intenționate sau de la constrângerile de siguranță. Acest sistem trebuie să ofere un auditor uman puterea de a anula sau de a restabili orice actualizare autonomă care nu trece un test de siguranță sau de performanță.”

Dar alți experți cred că încă există timp pentru a dezvolta aceste garanții, argumentând că construirea unei IA cu adevărat robuste, generale și autoîmbunătățitoare rămâne o provocare monumentală.

„Astfel de modele încă lipsesc capacitatea de a se reprograma în mod fiabil în timp real. Provocările cheie rămân, inclusiv prevenirea consolidării erorilor, evitarea uitării catastrofale, asigurarea stabilității în timpul actualizărilor și menținerea transparenței în jurul schimbărilor interne”, spune Riera. „Până când acestea nu sunt abordate, adaptarea pe deplin autodirijată rămâne o frontieră, mai degrabă decât o realitate.”

Cercetătorii de la MIT văd SEAL ca o evoluție necesară. Așa cum a spus unul dintre oamenii de știință de la MIT, acest cadru nu reflectă în prezent decât mai îndeaproape învățarea umană decât orice altceva care a apărut anterior.

„Aceste sisteme sugerează o schimbare de la modele statice, cu o singură șansă, la arhitecturi adaptabile care pot învăța din experiență, gestiona memoria și urmări obiective pe termen lung. Direcția este clară: spre inteligență modulară, conștientă de context, capabilă să se ajusteze în mod continuu”, mi-a spus Riera. „Deși încă se află în faza experimentală, această abordare marchează un pas semnificativ spre sisteme de IA mai autonome și mai rezistente.”

Indiferent dacă va duce la sisteme mai personalizate sau la forme complet noi de agenție mașină, rămâne de văzut. Epoca IA care se autoînvață a sosit — și rescrie nu doar propriul său cod, ci și regulile a ceea ce pot deveni mașinile.

Victor Dey este un editor și scriitor tech care acoperă A.I., crypto, știința datelor, metaverse și securitatea cibernetică în domeniul întreprinderilor. El are o experiență de jumătate de deceniu în mass-media și inteligență artificială, lucrând la publicații media cunoscute precum VentureBeat, Metaverse Post, Observer și altele. Victor a mentorat fondatori studenți în programe de accelerare la universități de top, inclusiv Universitatea Oxford și Universitatea din California de Sud, și deține o diplomă de master în știința și analiza datelor.