Connect with us

Găsirea echilibrului: Abordări globale pentru mitigarea riscurilor legate de IA

Lideri de opinie

Găsirea echilibrului: Abordări globale pentru mitigarea riscurilor legate de IA

mm

Nu este un secret că, în ultimii câțiva ani, tehnologiile moderne au împins limitele etice în cadrul existent al structurilor legale care nu au fost create pentru a se potrivi cu acestea, rezultând în câmpuri minate legale și de reglementare. Pentru a încerca să combată efectele acestora, regulatorii aleg să procedeze în moduri diferite între țări și regiuni, crescând tensiunile globale atunci când nu se poate ajunge la un acord.

Aceste diferențe de reglementare au fost evidențiate în cadrul unui recent summit privind acțiunile IA de la Paris. Declarația finală a evenimentului s-a axat pe aspecte de incluzivitate și deschidere în dezvoltarea IA. În mod interesant, a menționat doar în general securitatea și încrederea, fără a sublinia riscuri specifice legate de IA, cum ar fi amenințările la adresa securității. Redactată de 60 de națiuni, Regatul Unit și Statele Unite au fost remarcabil de absente de pe lista semnatarilor declarației, ceea ce arată cât de puțin consens există în acest moment între țările cheie.

Abordarea riscurilor IA la nivel global

Dezvoltarea și implementarea IA sunt reglementate diferit în fiecare țară. Cu toate acestea, majoritatea se situează undeva între cele două extreme – pozițiile Statelor Unite și ale Uniunii Europene (UE).

Modalitatea americană: inovați mai întâi, reglementați apoi

În Statele Unite, nu există acte federale care să reglementeze în mod special IA, în schimb, se bazează pe soluții bazate pe piață și pe ghiduri voluntare. Cu toate acestea, există câteva piese cheie de legislație pentru IA, inclusiv Legea Națională privind Inițiativa IA, care are ca scop coordonarea cercetării federale privind IA, Legea de reautorizare a Administrației Aviației Federale și cadrul voluntar de gestionare a riscurilor al Institutului Național pentru Standarde și Tehnologie (NIST).

Peisajul regulator american rămâne fluid și supus unor schimbări politice majore. De exemplu, în octombrie 2023, președintele Biden a emis o ordonanță executivă privind dezvoltarea și utilizarea sigură, securizată și de încredere a inteligenței artificiale, stabilind standarde pentru infrastructura critică, îmbunătățind securitatea cibernetică bazată pe IA și reglementând proiectele de IA finanțate de guvern. Cu toate acestea, în ianuarie 2025, președintele Trump a revocat această ordonanță executivă, într-o schimbare de direcție de la reglementare către prioritatea inovării.

Abordarea americană are critici. Ei notează că natura sa „fragmentată” conduce la o rețea complexă de reguli care „lipsesc standarde aplicabile” și are „lacune în protecția confidențialității”. Cu toate acestea, poziția în ansamblu este în schimbare – în 2024, legislatorii de stat au introdus aproape 700 de piese noi de legislație privind IA și au avut loc mai multe audieri privind IA în guvernare, precum și IA și proprietate intelectuală. Deși este evident că guvernul american nu se feresc de reglementare, este clar că caută modalități de a o implementa fără a compromite inovarea.

Modalitatea europeană: prioritatea prevenirii

Uniunea Europeană a ales o abordare diferită. În august 2024, Parlamentul European și Consiliul au introdus Legea privind Inteligența Artificială (AI Act), care a fost considerată în mod larg cea mai cuprinzătoare piesă de reglementare a IA până în prezent. Prin utilizarea unei abordări bazate pe risc, actul impune reguli stricte pentru sistemele de IA cu sensibilitate ridicată, de exemplu, cele utilizate în sănătate și infrastructură critică. Aplicațiile cu risc scăzut se confruntă cu doar o supraveghere minimă, în timp ce în unele aplicații, cum ar fi sistemele de notare socială gestionate de guvern, sunt complet interzise.

În UE, conformitatea este obligatorie nu numai în interiorul granițelor sale, ci și pentru orice furnizor, distribuitor sau utilizator de sisteme de IA care operează în UE sau care oferă soluții de IA pieței sale – chiar dacă sistemul a fost dezvoltat în afara UE. Este probabil ca acest lucru să pună provocări pentru furnizorii americani și ai altor țări non-UE de produse integrate, pe măsură ce aceștia lucrează pentru a se adapta.

Critici ale abordării UE includ presupusa incapacitate de a stabili un standard de aur pentru drepturile omului. Complexitatea excesivă a fost remarcată, împreună cu lipsa de claritate. Criticilor le preocupă cerințele tehnice foarte exacte ale UE, deoarece acestea vin într-un moment în care UE își propune să-și consolideze competitivitatea.

Găsirea terenului comun de reglementare

Între timp, Regatul Unit a adoptat un cadru „ușor” care se situează undeva între UE și Statele Unite, și se bazează pe valori fundamentale precum securitatea, echitatea și transparența. Regulatorii existenți, cum ar fi Biroul Comisarului pentru Informații, dețin puterea de a implementa aceste principii în domeniile lor respective.

Guvernul britanic a publicat un Plan de acțiune pentru oportunitățile IA, care prezintă măsuri pentru a investi în fundațiile IA, a implementa adoptarea transversală a IA și a promova sistemele de IA „autohtone”. În noiembrie 2023, Regatul Unit a înființat Institutul pentru Siguranța IA (AISI), evoluând din Grupul de lucru pentru IA de frontieră. AISI a fost creat pentru a evalua siguranța modelului avansat de IA, colaborând cu dezvoltatorii importanți pentru a atinge acest obiectiv prin teste de siguranță.

Cu toate acestea, criticii abordării Regatului Unit privind reglementarea IA includ capacități de aplicare limitate și lipsa de coordonare între legislația sectorială. Criticilor le-a atras atenția asupra lipsei unei autorități centrale de reglementare.

La fel ca Regatul Unit, și alte țări majore și-au găsit locul pe undeva pe spectrul SUA-UE. De exemplu, Canada a introdus o abordare bazată pe risc cu propunerea Legii privind IA și datele (AIDA), care are ca scop găsirea unui echilibru între inovare, securitate și considerații etice. Japonia a adoptat o abordare „centrată pe om” a IA, publicând ghiduri care promovează dezvoltarea de încredere. Între timp, în China, reglementarea IA este controlată strict de stat, cu legi recente care cer ca modelele de IA generative să treacă prin evaluări de securitate și să se alinieze cu valorile socialiste. Similar cu Regatul Unit, Australia a lansat un cadru etic pentru IA și examinează actualizarea legilor sale privind confidențialitatea pentru a aborda provocările emergente generate de inovarea IA.

Cum se stabilește cooperarea internațională?

Pe măsură ce tehnologia IA continuă să evolueze, diferențele dintre abordările de reglementare devin din ce în ce mai evidente. Fiecare abordare individuală adoptată în ceea ce privește confidențialitatea datelor, protecția drepturilor de autor și alte aspecte face ca un consens global coerent privind riscurile cheie legate de IA să fie mai dificil de atins. În aceste circumstanțe, cooperarea internațională este esențială pentru a stabili standarde de bază care să abordeze riscurile cheie fără a limita inovarea.

Răspunsul la cooperarea internațională poate să stea în organizații globale precum Organizația pentru Cooperare și Dezvoltare Economică (OCDE), Națiunile Unite și altele, care lucrează în prezent la stabilirea standardelor internaționale și a ghidurilor etice pentru IA. Calea înainte nu va fi ușoară, deoarece necesită ca toată lumea din industrie să găsească un teren comun. Dacă luăm în considerare faptul că inovarea se mișcă cu viteză, timpul pentru a discuta și a ajunge la un acord este acum.

Viktorija Lapenyte este Șeful Consilierului Juridic al Produsului la Oxylabs. Cu peste un deceniu de experiență juridică în sectorul IT, Viktorija Lapėnytė a dezvoltat o expertiză profundă în navigarea provocărilor complexe de afaceri și reglementare ca avocat intern. Astăzi, Viktorija este Șeful Consilierului Juridic al Produsului la Oxylabs, o platformă lider de piață de colectare a inteligenței web. Echipa lui Viktorija se specializează în complexitățile juridice ale tehnologiilor de date emergente, de la conformitate și gestionarea riscurilor reglementare la confidențialitatea datelor și discuțiile la nivelul industriei despre achiziția responsabilă de date.