- Terminoloģija (A līdz D)
- AI iespēju kontrole
- AI Ops
- albumi
- Aktīvu veiktspēja
- Autoencoder
- Pavairošana atpakaļ
- Bayes teorēma
- Big Datu
- Chatbot: ceļvedis iesācējiem
- Skaitļošanas domāšana
- Datoru vīzija
- Apjukuma matrica
- Konvolūcijas neironu tīkli
- Kiberdrošība
- Datu audums
- Datu stāstīšana
- Datu Zinātne
- Datu glabāšana
- Lēmumu koks
- Deepfakes
- Dziļa mācīšanās
- Dziļa pastiprināšanas mācīšanās
- DevOps
- DevSecOps
- Difūzijas modeļi
- Digital Twin
- Dimensiju samazināšana
- Terminoloģija (no E līdz K)
- Edge AI
- Emociju AI
- Ansambļa mācības
- Ētiskā uzkrāšana
- ETL
- Izskaidrojams AI
- Federēta mācīšanās
- FinOps
- Ģeneratīvais AI
- Ģeneratīvs pretrunīgs tīkls
- Ģeneratīvs pret diskriminējošu
- Gradienta palielināšana
- Gradienta nolaišanās
- Dažu metienu mācības
- Attēlu klasifikācija
- IT operācijas (ITOps)
- Incidentu automatizācija
- Ietekmes inženierija
- K-Means klasterizācija
- K-Tuvākie kaimiņi
- Terminoloģija (L–Q)
- Terminoloģija (no R līdz Z)
- Pastiprināšanas mācības
- Atbildīgs AI
- RLHF
- Robotu procesu automatizācija
- Strukturēts pret nestrukturētu
- Sentimentu analīze
- Uzraudzīts pret neuzraudzīto
- Atbalsta vektora mašīnas
- Sintētiskie dati
- Sintētiskie mediji
- Teksta klasifikācija
- TinyML
- Pārneses mācības
- Transformatoru neironu tīkli
- Tjūringa tests
- Vektoru līdzības meklēšana
AI 101
Kas ir atbildīgs AI? Principi, izaicinājumi un ieguvumi
By
Hazika SajidSatura rādītājs
Atbildīgs AI (RAI) attiecas uz tādu AI sistēmu izstrādi un ieviešanu, kas ir pārredzamas, objektīvas, atbildīgas un atbilst ētikas vadlīnijām. Tā kā mākslīgā intelekta sistēmas kļūst izturīgākas un izplatītākas, ir svarīgi nodrošināt, lai tās tiktu izstrādātas atbildīgi un ievērotu drošības un ētikas vadlīnijas.
Veselība, transports, tīkla pārvaldība un uzraudzība ir drošībai kritiskās AI lietojumprogrammas kur sistēmas kļūmei var būt smagas sekas. Lielie uzņēmumi apzinās, ka RAI ir būtiska tehnoloģiju risku mazināšanai. Tomēr saskaņā ar MIT Sloan/BCG ziņojumu, kurā bija iekļauti 1093 respondenti, 54% uzņēmumu trūka atbildīgu AI zināšanu un talantu.
Lai gan vadītāji un organizācijas ir izstrādājušas atbildīgas AI principus, AI sistēmu atbildīgas attīstības nodrošināšana joprojām rada izaicinājumus. Izpētīsim šo ideju sīkāk:
5 Atbildīga AI principi
1. Taisnīgums
Tehnologiem jāizstrādā procedūras tā, lai mākslīgā intelekta sistēmas pret visiem indivīdiem un grupām izturētos godīgi bez aizspriedumiem. Tādējādi taisnīgums ir galvenā prasība augsta riska lēmumu pieņemšanas pieteikumos.
taisnīgums ir definēts kā:
"Pārbaudot ietekmi uz dažādām demogrāfiskajām grupām un izvēloties vienu no vairākām matemātiskām grupas godīguma definīcijām, kas adekvāti apmierinās vēlamo juridisko, kultūras un ētisko prasību kopumu."
2. Atbildība
Atbildība nozīmē, ka personām un organizācijām, kas izstrādā un ievieš AI sistēmas, ir jābūt atbildīgām par saviem lēmumiem un darbībām. Komandai, kas izvieto AI sistēmas, jānodrošina, lai viņu AI sistēma būtu pārredzama, interpretējama, pārbaudāma un nekaitētu sabiedrībai.
Atbildība ietver septiņi sastāvdaļas:
- Konteksts (mērķis, kuram ir nepieciešama atbildība)
- Diapazons (atbildības priekšmets)
- Aģents (kurš ir atbildīgs?)
- Forums (kuram atbildīgajai pusei jāziņo)
- Standarti (atbildības kritēriji)
- Process (atbildības metode)
- Sekas (atbildības sekas)
3. Pārredzamība
Pārredzamība nozīmē, ka AI sistēmu lēmumu pieņemšanas iemesls ir skaidrs un saprotams. Caurspīdīgas AI sistēmas ir izskaidrojamas.
Saskaņā ar Uzticama mākslīgā intelekta (ALTAI) novērtējuma saraksts, pārredzamībai ir trīs galvenie elementi:
- Izsekojamība (dati, pirmapstrādes soļi un modelis ir pieejami)
- Izskaidrojamība (lēmumu pieņemšanas/prognozēšanas pamatojums ir skaidrs)
- Atvērta komunikācija (attiecībā uz AI sistēmas ierobežojumiem)
4. Privātums
Privātums ir viens no galvenajiem atbildīgas AI principiem. Tas attiecas uz personas informācijas aizsardzību. Šis princips nodrošina, ka cilvēku personiskā informācija tiek vākta un apstrādāta ar piekrišanu un tiek turēta prom no ļaunprātīgas personas rokās.
Kā nesen tika pierādīts, bija gadījums ar Clearview, uzņēmumu, kas ražo sejas atpazīšanas modeļus tiesībaizsardzības iestādēm un universitātēm. Apvienotās Karalistes datu uzraugi iesūdzēja Clearview AI, pieprasot 7.5 miljonus mārciņu par Apvienotās Karalistes iedzīvotāju attēlu savākšanu no sociālajiem medijiem bez piekrišanas izveidot 20 miljardu attēlu datubāzi.
5. drošība
Drošība nozīmē nodrošināt, ka AI sistēmas ir drošas un neapdraud sabiedrību. AI drošības apdraudējuma piemērs ir pretinieku uzbrukumi. Šie ļaunprātīgie uzbrukumi liek ML modeļiem pieņemt nepareizus lēmumus. AI sistēmu aizsardzība pret kiberuzbrukumiem ir obligāta atbildīgam AI.
4 Atbildīga AI galvenie izaicinājumi un riski
1. Aizspriedumi
Cilvēka aizspriedumi, kas saistīti ar vecumu, dzimumu, tautību un rasi, var ietekmēt datu vākšanu, kas var izraisīt neobjektīvus AI modeļus. ASV Tirdzniecības departamenta pētījums atklāja, ka sejas atpazīšanas AI nepareizi identificē krāsainus cilvēkus. Tādējādi mākslīgā intelekta izmantošana sejas atpazīšanai tiesībaizsardzībā var izraisīt nelikumīgus arestus. Turklāt godīgu AI modeļu izveide ir sarežģīta, jo tādi ir 21 dažādus parametrus, lai tos definētu. Tātad, ir kompromiss; apmierināt vienu godīgu AI parametru nozīmē upurēt citu.
2. Interpretējamība
Interpretējamība ir būtisks izaicinājums atbildīga AI izstrādē. Tas attiecas uz izpratni par to, kā mašīnmācības modelis ir nonācis pie konkrēta secinājuma.
Dziļiem neironu tīkliem trūkst interpretācijas, jo tie darbojas kā melnās kastes ar vairākiem slēptu neironu slāņiem, apgrūtinot lēmumu pieņemšanas procesa izpratni. Tas var būt izaicinājums augstu likmju lēmumu pieņemšanā, piemēram, veselības aprūpē, finansēs utt.
Turklāt interpretējamības formalizēšana ML modeļos ir sarežģīta, jo tā ir subjektīvs un domēnam specifisks.
3. valdīšana
Pārvaldība attiecas uz noteikumu, politiku un procedūru kopumu, kas pārrauga AI sistēmu izstrādi un ieviešanu. Pēdējā laikā ir panākts ievērojams progress AI pārvaldības diskursā, organizācijām iepazīstinot ar ietvariem un ētikas vadlīnijām.
Ētikas vadlīnijas par uzticams AI no ES, Austrālijas mākslīgā intelekta ētikas sistēma, un ESAO AI principi ir AI pārvaldības sistēmu piemēri.
Taču straujā AI attīstība pēdējos gados var apsteigt šīs AI pārvaldības sistēmas. Šim nolūkam ir nepieciešama sistēma, kas novērtē AI sistēmu godīgumu, interpretējamību un ētiku.
4. Regula
Tā kā AI sistēmas kļūst arvien izplatītākas, ir nepieciešams regulējums, lai ņemtu vērā ētiskās un sabiedriskās vērtības. Regulējuma izstrāde, kas neapslāpē AI inovācijas, ir kritisks izaicinājums atbildīgam AI.
Pat ar Vispārējo datu aizsardzības regulu (VDAR), Kalifornijas Patērētāju privātuma likumu (CCPA) un Personiskās informācijas aizsardzības likumu (PIPL) kā regulējošām iestādēm, AI pētnieki atklāja, ka 97% ES tīmekļa vietņu neatbilst GDPR tiesiskā regulējuma prasībām.
Turklāt likumdevēji saskaras ar a nozīmīgs izaicinājums panākot vienprātību par AI definīciju, kas ietver gan klasiskās AI sistēmas, gan jaunākās AI lietojumprogrammas.
3 galvenās atbildīgas AI priekšrocības
1. Samazināta novirze
Atbildīgs AI samazina neobjektivitāti lēmumu pieņemšanas procesos, veidojot uzticēšanos AI sistēmām. Neobjektivitātes samazināšana mākslīgā intelekta sistēmās var nodrošināt godīgu un vienlīdzīgu veselības aprūpes sistēmu un samazināt novirzes uz AI balstītām sistēmām finanšu pakalpojumi un tā joprojām
2. Uzlabota caurspīdīgums
Atbildīgs AI veido caurspīdīgas AI lietojumprogrammas, kas veicina uzticēšanos AI sistēmām. Caurspīdīgas AI sistēmas samazināt kļūdu un nepareizas lietošanas risku. Uzlabota caurskatāmība atvieglo AI sistēmu auditēšanu, iekaro ieinteresēto pušu uzticību un var novest pie atbildīgām AI sistēmām.
3. Labāka drošība
Drošas AI lietojumprogrammas nodrošina datu privātumu, nodrošina uzticamu un nekaitīgu izvadi un ir aizsargātas pret kiberuzbrukumiem.
Tehnikas milžiem patīk microsoft un google, kas ir AI sistēmu attīstības priekšgalā, ir izstrādājuši Atbildīga AI principus. Atbildīgs AI nodrošina, ka AI inovācija nav kaitīga indivīdiem un sabiedrībai.
Domu vadītājiem, pētniekiem, organizācijām un juridiskajām iestādēm pastāvīgi jāpārskata atbildīgā AI literatūra, lai nodrošinātu AI inovāciju drošu nākotni.
Lai iegūtu vairāk ar AI saistīta satura, apmeklējiet vietni apvienoties.ai.
Jums varētu patikt
AniPortrait: fotoreālistiskas portreta animācijas audio vadīta sintēze
AI iekšējais dialogs: kā pašrefleksija uzlabo tērzēšanas robotus un virtuālos palīgus
Tūlītējs stils: stila saglabāšana teksta pārveidošanā attēlā
LoReFT: Representation Finetuning for Language Models
Papildus meklētājprogrammām: LLM nodrošināto tīmekļa pārlūkošanas aģentu pieaugums
AI caurspīdīguma un uzticamības uzlabošana, izmantojot salikto AI