stubs Ķīnas mērķis ir ģeneratīva AI datu drošība, izmantojot jaunus regulatīvus priekšlikumus — Unite.AI
Savienoties ar mums

Regulēšana

Ķīna ir vērsta uz ģeneratīvu AI datu drošību, izmantojot jaunus regulējuma priekšlikumus

Atjaunināts on

Datu drošība ir vissvarīgākā, jo īpaši tādās jomās kā mākslīgais intelekts (AI). To atzīstot, Ķīna ir nākusi klajā ar jaunu noteikumu projektu, kas uzsver datu drošības kritiskumu AI modeļu apmācības procesos.

“Melnā saraksta” mehānisms un drošības novērtējumi

Jūsu darbs IR Klientu apkalpošana projekts, kas tika publiskots 11. oktobrī, neradās no vienas vienības, bet gan bija kopīgs darbs. Nacionālās informācijas drošības standartizācijas komitejas vadību uzņēmās Ķīnas kibertelpas administrācija (CAC), Rūpniecības un informācijas tehnoloģiju ministrija un vairākas tiesībaizsardzības iestādes. Šī vairāku aģentūru iesaiste norāda uz augstām likmēm un daudzveidīgajiem apsvērumiem, kas saistīti ar AI datu drošību.

Ģeneratīvā AI iespējas ir gan iespaidīgas, gan plašas. No teksta satura veidošanas līdz attēlu veidošanai šī AI apakškopa mācās no esošajiem datiem, lai radītu jaunus, oriģinālus rezultātus. Tomēr ar lielu jaudu nāk liela atbildība, tādēļ ir nepieciešamas stingras datu pārbaudes, kas kalpo kā mācību materiāls šiem AI modeļiem.

Ierosinātie noteikumi ir sīki un aicina veikt rūpīgus datu drošības novērtējumus, kas tiek izmantoti sabiedrībai pieejamu ģeneratīvo AI modeļu apmācībā. Viņi iet soli tālāk, piedāvājot satura “melnā saraksta” mehānismu. Melnajā sarakstā iekļaušanas slieksnis ir precīzs — saturs satur vairāk nekā "5% nelikumīgas un kaitīgas informācijas". Šādas informācijas apjoms ir plašs, un tajā ir ietverts saturs, kas mudina uz terorismu, vardarbību vai kaitē valsts interesēm un reputācijai.

Ietekme uz globālo AI praksi

Noteikumu projekts no Ķīnas kalpo kā atgādinājums par sarežģītību, kas saistīta ar AI izstrādi, jo īpaši tāpēc, ka tehnoloģija kļūst arvien sarežģītāka un plaši izplatīta. Vadlīnijas liecina par pasauli, kurā uzņēmumiem un izstrādātājiem ir jārīkojas uzmanīgi, līdzsvarojot inovācijas ar atbildību.

Lai gan šie noteikumi attiecas uz Ķīnu, to ietekme varētu atbalsoties visā pasaulē. Tie varētu iedvesmot līdzīgas stratēģijas visā pasaulē vai vismaz rosināt dziļākas sarunas par AI ētiku un drošību. Tā kā mēs turpinām izmantot AI iespējas, virzība uz priekšu prasa lielu izpratni un proaktīvu iespējamo risku pārvaldību.

Šī Ķīnas iniciatīva uzsver universālu patiesību — tehnoloģijām, jo ​​īpaši mākslīgajam intelektam, kļūst arvien ciešāk saistīta ar mūsu pasauli, nepieciešamība pēc stingriem datu drošības un ētiskiem apsvērumiem kļūst arvien aktuālāka. Ierosinātie noteikumi iezīmē nozīmīgu brīdi, vēršot uzmanību uz plašāku ietekmi uz AI drošu un atbildīgu attīstību.

 

Alekss Makfārlends ir AI žurnālists un rakstnieks, kurš pēta jaunākos sasniegumus mākslīgā intelekta jomā. Viņš ir sadarbojies ar daudziem AI jaunizveidotiem uzņēmumiem un publikācijām visā pasaulē.