Connect with us

Șablonul nou al Comisiei Europene pentru GPAI – Ce înseamnă acest lucru pentru formarea IA?

Lideri de opinie

Șablonul nou al Comisiei Europene pentru GPAI – Ce înseamnă acest lucru pentru formarea IA?

mm

În luna iulie, Comisia Europeană (CE) a lansat un nou șablon pentru inteligență artificială generală (GPAI). Acest lucru înseamnă că furnizorii de IA trebuie să dezvăluie conținutul introdus în modele pentru a le forma. Acest lucru vine după luni și luni de știri despre creatori care susțin că conținutul a fost utilizat fără consimțământ pentru a forma IA.

Cu acest nou șablon, UE și-a făcut poziția clară: transparența este acum negociabilă. Formarea în cutie neagră, în care ceva este creat fără a dezvălui funcționarea sa internă, nu va fi o opțiune pentru dezvoltatorii de IA. Acest lucru marchează o schimbare semnificativă, deoarece operarea în Europa va necesita acum o vizibilitate completă asupra intrărilor și a provenienței datelor de formare, forțând o reevaluare a colectării și utilizării datelor.

Mulți au subliniat diferența izbitoare între acest lucru și planul recent lansat de Acțiunea SUA pentru IA, care se concentrează puternic pe dereglementare. Ca și în cazul oricărei noi legi sau reglementări, companiile trebuie acum să ia act și să evalueze exact cum șablonul GPAI va afecta operațiunile.

Dacă acestea operează în mai multe regiuni, vor face același lucru și cu Planul de Acțiune pentru IA din SUA, ceea ce va complica și mai mult lucrurile. Din cauza naturii complexe a acestor reglementări și a faptului că reglementarea dezvoltării IA în acest mod este un teritoriu neexplorat, ieșirile dezvoltatorilor vor diferi probabil foarte mult.

Disecarea șablonului de model de inteligență artificială generală

În luna iulie a acestui an, Comisia Europeană a publicat un șablon obligatoriu pentru furnizorii de GPAI, astfel încât aceștia să poată publica un rezumat public al datelor utilizate pentru a forma modelele lor. Ca parte a Legii IA a UE, furnizorii trebuie să dezvăluie categorii de date, cum ar fi seturile de date disponibile public, datele cu licență private, conținutul web extras, datele utilizatorilor și datele sintetice. Scopul este de a permite titularilor de drepturi de autor, utilizatorilor și dezvoltatorilor din aval să-și exercite drepturile legale în conformitate cu legislația UE.

GPT-urile sunt formate cu cantități mari de date; cu toate acestea, în piața actuală, există informații limitate disponibile cu privire la originea acestor date. Rezumatul public pe care acest șablon îl stabilește va oferi o imagine cuprinzătoare a datelor utilizate pentru a forma un model, va lista principalele colecții de date și va explica alte surse utilizate.

Compara și contrast, Planul de Acțiune pentru IA din SUA

În comparație, SUA este hotărâtă să câștige cursa IA și să-și mențină avantajul competitiv față de China, pe măsură ce administrația Trump a anunțat Planul de Acțiune pentru IA mai devreme în această vară. Acest nou cadru pentru IA are scopul de a accelera construcția centrelor de date intensive din punct de vedere energetic care alimentează sistemele IA, prin relaxarea reglementărilor de mediu. În același timp, își propune să crească exporturile globale de tehnologii IA americane. Având 90 de recomandări, planul reflectă eforturile tot mai mari ale SUA de a rămâne înaintea concurenților săi globali.

Planul se bazează pe trei piloni principali – accelerarea inovației, construirea infrastructurii IA a Americii și promovarea leadershipului în diplomația și securitatea internațională a IA.

Ca parte a acestui plan, o concluzie cheie a planului subliniată a fost împingerea “deschisă” a SUA pentru a alimenta atât inovația, cât și accesibilitatea. În mod similar, planul subliniază modul în care guvernul SUA va “conduce prin exemplu” în ceea ce privește creșterea IA – prin formare, schimburi de talente și extinderea adoptării în diferite industrii.

Cu acest plan, SUA își propune să simplifice toate reglementările tehnologice actuale, în special cele de mediu, pentru a se asigura că legislația nu încetinește creșterea, în timp ce încurajează distribuția internațională mai largă a software-ului și hardware-ului IA din SUA. Acest “apropiat anti-reglementar” marchează o schimbare clară de la cadrele anterioare centrate pe etică, transparență și inovare responsabilă – înlocuindu-le cu un plan de acțiune mai agresiv “inovare mai întâi”.

Piesa lipsă

Merită să facem un pas înapoi la acest stadiu și să considerăm dacă aceste acte, deși diferite, pot suferi de aceleași erori care vor face ca dezvoltatorii să vadă o lipsă de valoare în a se conforma lor. Abordările UE și SUA lasă o lacună critică în jurul proprietății intelectuale în seturile de date de formare a IA. Legea IA a UE impune rezumatele datelor de formare și o politică de conformitate cu drepturile de autor, dar nu stabilește un cadru escalabil pentru identificarea sau licențierea operelor protejate prin drepturi de autor.

În SUA, nu există reguli specifice – lăsând companiile de IA să navigheze într-un cadru legal în evoluție, modelat de hotărârile instanțelor și de disputele în curs cu deținătorii de drepturi. Dincolo de textul legal, ceea ce lipsește este partea practică; niciuna dintre abordări nu stabilește metode fezabile și la nivel de industrie pentru detectarea conținutului protejat la scară largă, verificarea utilizării legale sau facilitarea licențierii. Până când nu sunt definite astfel de soluții, incertitudinea cu privire la drepturile de autor în formarea IA va rămâne o provocare semnificativă pentru industrie.

Costul ascuns al companiilor care sar peste trasabilitatea IA

În ciuda unor erori în aceste reglementări, se va presupune că acestea vor face ca dezvoltatorii de IA să se concentreze puternic asupra modului de a rămâne pe linia de plutire din punct de vedere legal – dar acest lucru nu este întotdeauna cazul. În fapt, adevărata diviziune în IA în acest moment nu este între reglementarea UE și cea a SUA, ci între companiile care investesc în trasabilitate astăzi și cele care pariază că nu vor trebui să o facă. Acesta este un model similar cu ceea ce am văzut cu ani în urmă cu implementarea Regulamentului General privind Protecția Datelor (GDPR) – companiile care au construit confidențialitatea încă de la început nu numai că au evitat amenzi, dar au câștigat și încrederea consumatorilor și au avut acces mai ușor la alte piețe care au reflectat ulterior standardele GDPR.

Același model poate apărea și în cazul IA. Trasabilitatea datelor de formare și a deciziilor modelului va deveni probabil o bază globală, iar companiile care întârzie vor trebui să-și reproiecteze sistemele în viitor. Revenirea pentru a adăuga documentație, urmărire a provenienței și funcții de audit la un sistem existent este mult mai scump și complex decât a le construi de la început, îndepărtând atenția de la construcții mai orientate spre randamentul investiției pe care compania dorește să le finalizeze.

Cu alte cuvinte, trasabilitatea și transparența nu sunt opțiuni facultative; ele trebuie să fie integrate în sistemele IA de la început. Companiile care le tratează ca niște gânduri ulterioare riscă să încetinească inovația, să facă față unor reacții negative din partea reglementatorilor și să piardă cursa pe termen nelimitat.

IA etică necesită unitate globală

Dintr-o perspectivă macro, aceste abordări polarizate creează o problemă reală pentru companiile globale. Companiile din piețe cu reglementări mai slabe, cum ar fi SUA, pot scala mai repede pe termen scurt, dar atunci când decid să intre pe piața UE, se confruntă cu un zid de conformitate: regulile de trasabilitate și documentație ale Legii IA necesită capacități pe care nu le-au construit niciodată.

Reproiectarea urmăririi provenienței, documentației și funcțiilor de audit într-un sistem existent este costisitoare, lentă și perturbatoare, mai ales pentru că trasabilitatea este una dintre părțile cele mai intense din conformitate. Acesta este același model pe care l-am văzut cu GDPR, unde întârzierile în proiectarea confidențialității au luptat cu restructurări scumpe și au întârziat accesul pe piață, în timp ce pionierii au obținut un avantaj de durată.

Viktorija Lapenyte este Șeful Consilierului Juridic al Produsului la Oxylabs. Cu peste un deceniu de experiență juridică în sectorul IT, Viktorija Lapėnytė a dezvoltat o expertiză profundă în navigarea provocărilor complexe de afaceri și reglementare ca avocat intern. Astăzi, Viktorija este Șeful Consilierului Juridic al Produsului la Oxylabs, o platformă lider de piață de colectare a inteligenței web. Echipa lui Viktorija se specializează în complexitățile juridice ale tehnologiilor de date emergente, de la conformitate și gestionarea riscurilor reglementare la confidențialitatea datelor și discuțiile la nivelul industriei despre achiziția responsabilă de date.