Reglementare
Noul cod de conduită al UE privind IA urmează să aibă impact asupra reglementării

Comisia Europeană a introdus recent un Cod de conduită care ar putea schimba modul în care companiile de IA operează. Nu este doar un alt set de ghiduri, ci mai degrabă o revizuire completă a supravegherii IA, pe care nici măcar cei mai mari jucători nu o pot ignora.
Ce îl face diferit? Pentru prima dată, vedem reguli concrete care ar putea forța companii precum OpenAI și Google să-și deschidă modelele pentru testarea externă, o schimbare fundamentală a modului în care sistemele de IA ar putea fi dezvoltate și implementate în Europa.
Noii jucători puternici în supravegherea IA
Comisia Europeană a creat un cadru care vizează în mod specific ceea ce ei numesc sisteme de IA cu “risc sistemic”. Vorbeam despre modele antrenate cu mai mult de 10^25 FLOPs de putere de calcul – un prag pe care GPT-4 l-a deja depășit.
Companiile vor trebui să-și raporteze planurile de antrenare a IA cu două săptămâni înainte de a începe.
În centrul acestui nou sistem se află două documente cheie: Cadru de siguranță și securitate (SSF) și Raport de siguranță și securitate (SSR). SSF este o hartă cuprinzătoare pentru gestionarea riscurilor de IA, acoperind totul, de la identificarea inițială a riscurilor la măsurile de securitate continue. Între timp, SSR servește ca un instrument de documentare detaliat pentru fiecare model individual.
Testarea externă pentru modele de IA cu risc ridicat
Comisia cere testarea externă pentru modelele de IA cu risc ridicat. Acesta nu este un test standard de calitate internă – experți independenți și Biroul de IA al UE se uită sub capotă acestor sisteme.
Implicațiile sunt mari. Dacă sunteți OpenAI sau Google, trebuie să lăsați experți externi să examineze sistemele dvs. Proiectul explicit afirmă că companiile trebuie “să asigure testarea independentă de către experți înainte de implementare.” Acesta este un schimbare uriașă față de abordarea actuală de autoreglementare.
Întrebarea este: Cine este calificat să testeze aceste sisteme complexe incredibil de complexe? Biroul de IA al UE pătrunde într-un teritoriu care nu a fost cartat niciodată. Ei vor avea nevoie de experți care pot înțelege și evalua noua tehnologie de IA, menținând în același timp confidențialitatea strictă despre ceea ce descoperă.
Acest requisit de testare externă poate deveni obligatoriu în întreaga UE prin intermediul unui act de punere în aplicare al Comisiei. Companiile pot încerca să demonstreze conformitatea prin “mijloace alternative adecvate”, dar nimeni nu știe exact ce înseamnă acest lucru în practică.
Protecția drepturilor de autor devine serioasă
UE este, de asemenea, foarte serioasă în ceea ce privește drepturile de autor. Ei forțează furnizorii de IA să creeze politici clare despre modul în care gestionează proprietatea intelectuală.
Comisia sprijină standardul robots.txt – un fișier simplu care spune crawler-ilor web unde pot și nu pot merge. Dacă un site web spune “nu” prin robots.txt, companiile de IA nu pot ignora pur și simplu și antrena pe conținutul respectiv. Motoarele de căutare nu pot penaliza site-urile pentru utilizarea acestor excepții. Este o mișcare puternică care pune creatorii de conținut înapoi la volan.
Companiile de IA vor trebui, de asemenea, să evite în mod activ site-urile de piraterie atunci când colectează date de antrenare. UE chiar le indică “Lista de supraveghere a contrafacerii și a pirateriei” ca punct de plecare.
Ce înseamnă acest lucru pentru viitor
UE creează un teren de joc complet nou pentru dezvoltarea de IA. Aceste cerințe vor afecta totul, de la modul în care companiile planifică proiectele lor de IA la modul în care colectează datele de antrenare.
Fiecare companie de IA importantă se confruntă acum cu o alegere. Trebuie să:
- Deschidă modelele pentru testarea externă
- Să descopere ce înseamnă acele “mijloace alternative” de conformitate
- Sau să-și limiteze operațiunile pe piața UE
Timeline-ul contează, de asemenea. Acesta nu este un regulament dintr-un viitor îndepărtat – Comisia se mișcă rapid. Ei au reușit să adune aproximativ 1.000 de părți interesate, împărțite în patru grupuri de lucru, toate detaliind modul în care acest lucru va funcționa.
Pentru companiile care construiesc sisteme de IA, zilele “mută repede și figurează regulile mai târziu” ar putea să se încheie. Ei vor trebui să înceapă să se gândească la aceste cerințe acum, nu atunci când devin obligatorii. Acest lucru înseamnă:
- Planificarea auditurilor externe în cronograma de dezvoltare
- Stabilirea unor sisteme robuste de conformitate cu drepturile de autor
- Construirea unor cadre de documentare care să corespundă cerințelor UE
Impactul real al acestor reglementări se va desfășura în următoarele luni. În timp ce unele companii pot căuta soluții alternative, altele vor integra aceste cerințe în procesele lor de dezvoltare. Cadru UE ar putea influența modul în care se realizează dezvoltarea de IA la nivel global, mai ales dacă alte regiuni urmează cu măsuri de supraveghere similare. Pe măsură ce aceste reguli trec de la proiect la implementare, industria de IA se confruntă cu cea mai mare schimbare regulamentară până acum.












