ciot China vizează securitatea datelor generative AI cu noi propuneri de reglementare - Unite.AI
Conectează-te cu noi

Regulament

China vizează securitatea generativă a datelor AI cu noi propuneri de reglementare

Actualizat on

Securitatea datelor este primordială, mai ales în domenii la fel de influente precum inteligența artificială (AI). Recunoscând acest lucru, China a prezentat noi proiecte de reglementări, o mișcare care subliniază criticitatea securității datelor în procesele de formare a modelelor AI.

Mecanismul „lista neagră” și evaluările de securitate

proiect, făcută publică pe 11 octombrie, nu a apărut dintr-o singură entitate, ci a fost un efort de colaborare. Comitetul Național de Standardizare a Securității Informației a preluat cârma, cu contribuții semnificative din partea Administrației Ciberspațiului din China (CAC), Ministerului Industriei și Tehnologiei Informației și mai multor organisme de aplicare a legii. Această implicare a mai multor agenții indică mizele mari și diversele considerații implicate în securitatea datelor AI.

Capacitățile AI generative sunt atât impresionante, cât și extinse. De la crearea de conținut textual la crearea de imagini, acest subset AI învață din datele existente pentru a genera rezultate noi, originale. Cu toate acestea, cu o mare putere vine o mare responsabilitate, necesitând verificări stricte ale datelor care servesc drept material de învățare pentru aceste modele AI.

Reglementările propuse sunt meticuloase și pledează pentru evaluări amănunțite de securitate a datelor utilizate în formarea modelelor AI generative accesibile publicului. Ei fac un pas mai departe, propunând un mecanism de „listă neagră” pentru conținut. Pragul pentru includerea pe lista neagră este precis – conținut care cuprinde mai mult de „5% din informații ilegale și dăunătoare”. Sfera de aplicare a acestor informații este larg, captând conținut care incită la terorism, la violență sau dăunează intereselor și reputației naționale.

Implicații pentru practicile globale de IA

Proiectele de reglementări din China servesc ca o amintire a complexităților implicate în dezvoltarea AI, mai ales pe măsură ce tehnologia devine mai sofisticată și răspândită. Orientările sugerează o lume în care companiile și dezvoltatorii trebuie să calce cu atenție, echilibrând inovația cu responsabilitatea.

Deși aceste reglementări sunt specifice Chinei, influența lor ar putea rezona la nivel global. Ele ar putea inspira strategii similare la nivel mondial sau, cel puțin, ar putea aprinde conversații mai profunde despre etica și securitatea AI. Pe măsură ce continuăm să îmbrățișăm posibilitățile AI, calea de urmat necesită o conștientizare intensă și un management proactiv al riscurilor potențiale implicate.

Această inițiativă a Chinei subliniază un adevăr universal – pe măsură ce tehnologia, în special AI, devine mai împletită cu lumea noastră, nevoia de securitate riguroasă a datelor și considerații etice devine mai presantă. Reglementările propuse marchează un moment semnificativ, atrăgând atenția asupra implicațiilor mai largi pentru evoluția sigură și responsabilă a IA.

 

Alex McFarland este jurnalist și scriitor AI care explorează cele mai recente evoluții în inteligența artificială. A colaborat cu numeroase startup-uri și publicații AI din întreaga lume.