stubs Kas ir atbildīgs AI? Principi, izaicinājumi un priekšrocības — Unite.AI
Savienoties ar mums
AI meistarklase:

AI 101

Kas ir atbildīgs AI? Principi, izaicinājumi un ieguvumi

mm
Atjaunināts on
Cilvēks, kas tur uz zemeslodes rokās, stāvot laukos.

Atbildīgs AI (RAI) attiecas uz tādu AI sistēmu izstrādi un ieviešanu, kas ir pārredzamas, objektīvas, atbildīgas un atbilst ētikas vadlīnijām. Tā kā mākslīgā intelekta sistēmas kļūst izturīgākas un izplatītākas, ir svarīgi nodrošināt, lai tās tiktu izstrādātas atbildīgi un ievērotu drošības un ētikas vadlīnijas.

Veselība, transports, tīkla pārvaldība un uzraudzība ir drošībai kritiskās AI lietojumprogrammas kur sistēmas kļūmei var būt smagas sekas. Lielie uzņēmumi apzinās, ka RAI ir būtiska tehnoloģiju risku mazināšanai. Tomēr saskaņā ar MIT Sloan/BCG ziņojumu, kurā bija iekļauti 1093 respondenti, 54% uzņēmumu trūka atbildīgu AI zināšanu un talantu.

Lai gan vadītāji un organizācijas ir izstrādājušas atbildīgas AI principus, AI sistēmu atbildīgas attīstības nodrošināšana joprojām rada izaicinājumus. Izpētīsim šo ideju sīkāk:

5 Atbildīga AI principi

1. Taisnīgums

Tehnologiem jāizstrādā procedūras tā, lai mākslīgā intelekta sistēmas pret visiem indivīdiem un grupām izturētos godīgi bez aizspriedumiem. Tādējādi taisnīgums ir galvenā prasība augsta riska lēmumu pieņemšanas pieteikumos.

taisnīgums ir definēts kā:

"Pārbaudot ietekmi uz dažādām demogrāfiskajām grupām un izvēloties vienu no vairākām matemātiskām grupas godīguma definīcijām, kas adekvāti apmierinās vēlamo juridisko, kultūras un ētisko prasību kopumu."

2. Atbildība

Atbildība nozīmē, ka personām un organizācijām, kas izstrādā un ievieš AI sistēmas, ir jābūt atbildīgām par saviem lēmumiem un darbībām. Komandai, kas izvieto AI sistēmas, jānodrošina, lai viņu AI sistēma būtu pārredzama, interpretējama, pārbaudāma un nekaitētu sabiedrībai.

Atbildība ietver septiņi sastāvdaļas:

  1. Konteksts (mērķis, kuram ir nepieciešama atbildība)
  2. Diapazons (atbildības priekšmets)
  3. Aģents (kurš ir atbildīgs?)
  4. Forums (kuram atbildīgajai pusei jāziņo)
  5. Standarti (atbildības kritēriji)
  6. Process (atbildības metode)
  7. Sekas (atbildības sekas)

3. Pārredzamība

Pārredzamība nozīmē, ka AI sistēmu lēmumu pieņemšanas iemesls ir skaidrs un saprotams. Caurspīdīgas AI sistēmas ir izskaidrojamas.

Saskaņā ar Uzticama mākslīgā intelekta (ALTAI) novērtējuma saraksts, pārredzamībai ir trīs galvenie elementi:

  1. Izsekojamība (dati, pirmapstrādes soļi un modelis ir pieejami)
  2. Izskaidrojamība (lēmumu pieņemšanas/prognozēšanas pamatojums ir skaidrs)
  3. Atvērta komunikācija (attiecībā uz AI sistēmas ierobežojumiem)

4. Privātums

Privātums ir viens no galvenajiem atbildīgas AI principiem. Tas attiecas uz personas informācijas aizsardzību. Šis princips nodrošina, ka cilvēku personiskā informācija tiek vākta un apstrādāta ar piekrišanu un tiek turēta prom no ļaunprātīgas personas rokās.

Kā nesen tika pierādīts, bija gadījums ar Clearview, uzņēmumu, kas ražo sejas atpazīšanas modeļus tiesībaizsardzības iestādēm un universitātēm. Apvienotās Karalistes datu uzraugi iesūdzēja Clearview AI, pieprasot 7.5 miljonus mārciņu par Apvienotās Karalistes iedzīvotāju attēlu savākšanu no sociālajiem medijiem bez piekrišanas izveidot 20 miljardu attēlu datubāzi.

5. drošība

Drošība nozīmē nodrošināt, ka AI sistēmas ir drošas un neapdraud sabiedrību. AI drošības apdraudējuma piemērs ir pretinieku uzbrukumi. Šie ļaunprātīgie uzbrukumi liek ML modeļiem pieņemt nepareizus lēmumus. AI sistēmu aizsardzība pret kiberuzbrukumiem ir obligāta atbildīgam AI.

4 Atbildīga AI galvenie izaicinājumi un riski

1. Aizspriedumi

Cilvēka aizspriedumi, kas saistīti ar vecumu, dzimumu, tautību un rasi, var ietekmēt datu vākšanu, kas var izraisīt neobjektīvus AI modeļus. ASV Tirdzniecības departamenta pētījums atklāja, ka sejas atpazīšanas AI nepareizi identificē krāsainus cilvēkus. Tādējādi mākslīgā intelekta izmantošana sejas atpazīšanai tiesībaizsardzībā var izraisīt nelikumīgus arestus. Turklāt godīgu AI modeļu izveide ir sarežģīta, jo tādi ir 21 dažādus parametrus, lai tos definētu. Tātad, ir kompromiss; apmierināt vienu godīgu AI parametru nozīmē upurēt citu.

2. Interpretējamība

Interpretējamība ir būtisks izaicinājums atbildīga AI izstrādē. Tas attiecas uz izpratni par to, kā mašīnmācības modelis ir nonācis pie konkrēta secinājuma.

Dziļiem neironu tīkliem trūkst interpretācijas, jo tie darbojas kā melnās kastes ar vairākiem slēptu neironu slāņiem, apgrūtinot lēmumu pieņemšanas procesa izpratni. Tas var būt izaicinājums augstu likmju lēmumu pieņemšanā, piemēram, veselības aprūpē, finansēs utt.

Turklāt interpretējamības formalizēšana ML modeļos ir sarežģīta, jo tā ir subjektīvs un domēnam specifisks.

3. valdīšana

Pārvaldība attiecas uz noteikumu, politiku un procedūru kopumu, kas pārrauga AI sistēmu izstrādi un ieviešanu. Pēdējā laikā ir panākts ievērojams progress AI pārvaldības diskursā, organizācijām iepazīstinot ar ietvariem un ētikas vadlīnijām.

Ētikas vadlīnijas par uzticams AI no ESAustrālijas mākslīgā intelekta ētikas sistēma, un ESAO AI principi ir AI pārvaldības sistēmu piemēri.

Taču straujā AI attīstība pēdējos gados var apsteigt šīs AI pārvaldības sistēmas. Šim nolūkam ir nepieciešama sistēma, kas novērtē AI sistēmu godīgumu, interpretējamību un ētiku.

4. Regula

Tā kā AI sistēmas kļūst arvien izplatītākas, ir nepieciešams regulējums, lai ņemtu vērā ētiskās un sabiedriskās vērtības. Regulējuma izstrāde, kas neapslāpē AI inovācijas, ir kritisks izaicinājums atbildīgam AI.

Pat ar Vispārējo datu aizsardzības regulu (VDAR), Kalifornijas Patērētāju privātuma likumu (CCPA) un Personiskās informācijas aizsardzības likumu (PIPL) kā regulējošām iestādēm, AI pētnieki atklāja, ka 97% ES tīmekļa vietņu neatbilst GDPR tiesiskā regulējuma prasībām.

Turklāt likumdevēji saskaras ar a nozīmīgs izaicinājums panākot vienprātību par AI definīciju, kas ietver gan klasiskās AI sistēmas, gan jaunākās AI lietojumprogrammas.

3 galvenās atbildīgas AI priekšrocības

1. Samazināta novirze

Atbildīgs AI samazina neobjektivitāti lēmumu pieņemšanas procesos, veidojot uzticēšanos AI sistēmām. Neobjektivitātes samazināšana mākslīgā intelekta sistēmās var nodrošināt godīgu un vienlīdzīgu veselības aprūpes sistēmu un samazināt novirzes uz AI balstītām sistēmām finanšu pakalpojumi un tā joprojām

2. Uzlabota caurspīdīgums

Atbildīgs AI veido caurspīdīgas AI lietojumprogrammas, kas veicina uzticēšanos AI sistēmām. Caurspīdīgas AI sistēmas samazināt kļūdu un nepareizas lietošanas risku. Uzlabota caurskatāmība atvieglo AI sistēmu auditēšanu, iekaro ieinteresēto pušu uzticību un var novest pie atbildīgām AI sistēmām.

3. Labāka drošība

Drošas AI lietojumprogrammas nodrošina datu privātumu, nodrošina uzticamu un nekaitīgu izvadi un ir aizsargātas pret kiberuzbrukumiem.

Tehnikas milžiem patīk microsoft un google, kas ir AI sistēmu attīstības priekšgalā, ir izstrādājuši Atbildīga AI principus. Atbildīgs AI nodrošina, ka AI inovācija nav kaitīga indivīdiem un sabiedrībai.

Domu vadītājiem, pētniekiem, organizācijām un juridiskajām iestādēm pastāvīgi jāpārskata atbildīgā AI literatūra, lai nodrošinātu AI inovāciju drošu nākotni.

Lai iegūtu vairāk ar AI saistīta satura, apmeklējiet vietni apvienoties.ai.