stub Kas yra atsakingas AI? Principai, iššūkiai ir pranašumai – Unite.AI
Susisiekti su mumis
AI meistriškumo klasė:

AI 101 m

Kas yra atsakingas AI? Principai, iššūkiai ir privalumai

mm
Atnaujinta on
Žmogus, stovėdamas laukuose, rankose laiko gaublį.

Atsakingas AI (RAI) reiškia skaidrių, nešališkų, atskaitingų ir etikos gairių atitinkančių AI sistemų kūrimą ir diegimą. Dirbtinio intelekto sistemoms tampant tvirtesnėms ir vyraujant, labai svarbu užtikrinti, kad jos būtų kuriamos atsakingai ir laikantis saugos bei etikos gairių.

Sveikata, transportas, tinklo valdymas ir stebėjimas saugai svarbios AI programos kur sistemos gedimas gali turėti rimtų pasekmių. Didelės įmonės žino, kad RAI yra būtinas norint sumažinti technologijų riziką. Tačiau pagal MIT Sloan/BCG ataskaitą, kurioje dalyvavo 1093 respondentai, 54% įmonių trūko atsakingo AI kompetencijos ir talento.

Nors mąstymo lyderiai ir organizacijos sukūrė atsakingo AI principus, užtikrinti atsakingą AI sistemų kūrimą vis dar kyla iššūkių. Išsamiai išnagrinėkime šią idėją:

5 Atsakingo AI principai

1. Sąžiningumas

Technologai turėtų sukurti tokias procedūras, kad dirbtinio intelekto sistemos su visais asmenimis ir grupėmis elgtųsi sąžiningai be šališkumo. Taigi teisingumas yra pagrindinis reikalavimas priimant didelės rizikos sprendimus.

Teisingumas yra apibrėžiamas kaip:

„Išnagrinėjame poveikį įvairioms demografinėms grupėms ir pasirenkame vieną iš kelių matematinių grupės sąžiningumo apibrėžimų, kurie tinkamai patenkins norimą teisinių, kultūrinių ir etinių reikalavimų rinkinį.

2. Atskaitomybė

Atskaitomybė reiškia, kad asmenys ir organizacijos, kuriantys ir diegiantys dirbtinio intelekto sistemas, turėtų būti atsakingi už savo sprendimus ir veiksmus. DI sistemas diegianti komanda turėtų užtikrinti, kad jų dirbtinio intelekto sistema būtų skaidri, interpretuojama, patikrinama ir nekenktų visuomenei.

Atsakomybė apima septyni komponentai:

  1. Kontekstas (tikslas, dėl kurio reikalaujama atskaitomybės)
  2. Diapazonas (atskaitomybės dalykas)
  3. Agentas (kas yra atsakingas?)
  4. Forumas (kuriam turi pranešti atsakinga šalis)
  5. Standartai (atskaitomybės kriterijai)
  6. Procesas (atskaitomybės metodas)
  7. Pasekmės (atskaitomybės pasekmės)

3. Skaidrumas

Skaidrumas reiškia, kad AI sistemų sprendimų priėmimo priežastis yra aiški ir suprantama. Skaidrios AI sistemos yra paaiškinamos.

Pagal Patikimo dirbtinio intelekto (ALTAI) įvertinimo sąrašas, skaidrumą sudaro trys pagrindiniai elementai:

  1. Atsekamumas (duomenys, išankstinio apdorojimo žingsniai ir modelis yra prieinami)
  2. Paaiškinamumas (aiškūs sprendimo priėmimo / numatymo motyvai)
  3. Atviras bendravimas (dėl AI sistemos apribojimo)

4. Privatumas

Privatumas yra vienas iš pagrindinių atsakingo AI principų. Tai reiškia asmeninės informacijos apsaugą. Šis principas užtikrina, kad žmonių asmeninė informacija būtų renkama ir apdorojama gavus sutikimą ir nepatenka į piktnaudžiavimo rankas.

Kaip neseniai buvo parodyta, buvo „Clearview“ – bendrovės, kuriančios veido atpažinimo modelius teisėsaugai ir universitetams, atvejis. JK duomenų sargybiniai padavė į teismą „Clearview AI“ dėl 7.5 mln už JK gyventojų vaizdų rinkimą iš socialinių tinklų be sutikimo sukurti 20 mlrd. vaizdų duomenų bazę.

5. Saugumas

Saugumas reiškia užtikrinti, kad dirbtinio intelekto sistemos būtų saugios ir nekeltų grėsmės visuomenei. AI grėsmės saugumui pavyzdys yra priešiškų išpuolių. Šios kenkėjiškos atakos apgaudinėja ML modelius, kad jie priimtų neteisingus sprendimus. Dirbtinio intelekto sistemų apsauga nuo kibernetinių atakų yra būtina atsakingam AI.

4 pagrindiniai atsakingo AI iššūkiai ir rizika

1. Šališkumas

Žmogaus šališkumas, susijęs su amžiumi, lytimi, tautybe ir rase, gali turėti įtakos duomenų rinkimui, todėl gali atsirasti šališkų AI modelių. JAV prekybos departamento tyrimas nustatė, kad veido atpažinimo AI klaidingai identifikuoja spalvotus žmones. Taigi AI naudojimas veido atpažinimui teisėsaugoje gali sukelti neteisėtus areštus. Be to, sukurti sąžiningus AI modelius yra sudėtinga, nes tokių yra 21 skirtingi parametrai jiems apibrėžti. Taigi, yra kompromisas; patenkinti vieną teisingą AI parametrą reiškia paaukoti kitą.

2. Aiškinamumas

Aiškinamumas yra esminis iššūkis kuriant atsakingą AI. Tai reiškia supratimą, kaip mašininio mokymosi modelis padarė tam tikrą išvadą.

Giliems neuroniniams tinklams trūksta aiškinimo, nes jie veikia kaip juodosios dėžės su keliais paslėptų neuronų sluoksniais, todėl sunku suprasti sprendimų priėmimo procesą. Tai gali būti iššūkis priimant didelius sprendimus, pavyzdžiui, sveikatos priežiūros, finansų ir kt.

Be to, ML modelių interpretavimo formalizavimas yra sudėtingas, nes taip yra subjektyvus ir konkrečiam domenui.

3. Valdymas

Valdymas reiškia taisyklių, politikos ir procedūrų rinkinį, kuris prižiūri AI sistemų kūrimą ir diegimą. Pastaruoju metu buvo padaryta didelė pažanga DI valdymo diskurse, organizacijoms pristatant sistemas ir etikos gaires.

Etikos gairės, skirtos patikimas ES dirbtinis intelektasAustralijos dirbtinio intelekto etikos sistemair EBPO AI principai yra AI valdymo sistemų pavyzdžiai.

Tačiau sparti AI pažanga pastaraisiais metais gali pranokti šias AI valdymo sistemas. Šiuo tikslu reikia sukurti sistemą, kuri įvertintų AI sistemų teisingumą, aiškinamumą ir etiką.

4. Reglamentas

Dirbtinio intelekto sistemoms vis labiau plintant, reikia reglamentuoti, kad būtų atsižvelgta į etines ir visuomenines vertybes. Reguliavimo, kuris neslopina dirbtinio intelekto naujovių, kūrimas yra esminis atsakingo DI iššūkis.

Net ir taikant Bendrąjį duomenų apsaugos reglamentą (BDAR), Kalifornijos vartotojų privatumo įstatymą (CCPA) ir asmens informacijos apsaugos įstatymą (PIPL) kaip reguliavimo institucijas, dirbtinio intelekto tyrėjai nustatė, kad 97% ES svetainių neatitinka GDPR teisinės sistemos reikalavimų.

Be to, įstatymų leidėjai susiduria su a reikšmingas iššūkis pasiekti sutarimą dėl AI apibrėžimo, apimančio ir klasikines AI sistemas, ir naujausias AI programas.

3 pagrindiniai atsakingo dirbtinio intelekto pranašumai

1. Sumažintas šališkumas

Atsakingas dirbtinis intelektas sumažina šališkumą sprendimų priėmimo procesuose, didindamas pasitikėjimą dirbtinio intelekto sistemomis. Sumažinus dirbtinio intelekto sistemų šališkumą, galima užtikrinti sąžiningą ir teisingą sveikatos priežiūros sistemą ir sumažinti AI pagrįstų šališkumą Finansinės paslaugos ir taip toliau

2. Padidintas skaidrumas

Atsakingas AI sukuria skaidrias AI programas, kurios didina pasitikėjimą AI sistemomis. Skaidrios AI sistemos sumažinti klaidų ir netinkamo naudojimo riziką. Dėl didesnio skaidrumo dirbtinio intelekto sistemų auditas tampa lengvesnis, įgyjamas suinteresuotųjų šalių pasitikėjimas ir gali būti sukurtos atskaitingos AI sistemos.

3. Geresnis saugumas

Saugios AI programos užtikrina duomenų privatumą, sukuria patikimą ir nekenksmingą išvestį ir yra apsaugotos nuo kibernetinių atakų.

Technikos milžinams patinka "Microsoft" ir "Google", kurie yra AI sistemų kūrimo priešakyje, sukūrė atsakingo AI principus. Atsakingas dirbtinis intelektas užtikrina, kad dirbtinio intelekto naujovės nepakenktų asmenims ir visuomenei.

Mąstymo lyderiai, mokslininkai, organizacijos ir teisinės institucijos turėtų nuolat peržiūrėti atsakingą AI literatūrą, kad užtikrintų saugią AI naujovių ateitį.

Norėdami gauti daugiau su AI susijusio turinio, apsilankykite vienytis.ai.