csonk Mi az a felelős AI? Alapelvek, kihívások és előnyök – Unite.AI
Kapcsolatba velünk
AI mesterkurzus:

AI 101

Mi az a felelős AI? Alapelvek, kihívások és előnyök

mm
korszerűsített on
Egy személy tartja a földgömböt a kezében, miközben a mezőkön áll.

Felelős mesterséges intelligencia (RAI) olyan mesterséges intelligencia rendszerek tervezésére és üzembe helyezésére utal, amelyek átláthatóak, elfogulatlanok, elszámoltathatók és követik az etikai irányelveket. A mesterséges intelligencia rendszerek robusztusabbá és elterjedtebbé válásával elengedhetetlen a felelősségteljes fejlesztésük, valamint a biztonsági és etikai irányelvek betartása.

Az egészségügy, a közlekedés, a hálózatkezelés és a felügyelet biztonságkritikus AI-alkalmazások ahol a rendszerhiba súlyos következményekkel járhat. A nagy cégek tisztában vannak azzal, hogy a RAI elengedhetetlen a technológiai kockázatok mérsékléséhez. Az MIT Sloan/BCG jelentése szerint azonban, amely 1093 válaszadót tartalmazott, 54% vállalatok közül hiányzott a felelős AI szakértelem és tehetség.

Bár a vezetők és a szervezetek kidolgozták a felelős mesterséges intelligencia elveit, az AI-rendszerek felelős fejlesztésének biztosítása még mindig kihívásokat jelent. Vizsgáljuk meg ezt az ötletet részletesen:

5 A felelős mesterséges intelligencia alapelvei

1. Méltányosság

A technológusoknak úgy kell megtervezniük az eljárásokat, hogy az AI-rendszerek minden egyént és csoportot méltányosan, elfogultság nélkül kezeljenek. Ezért a méltányosság az elsődleges követelmény a magas kockázatú döntéshozatali alkalmazásokban.

Méltányosság azt jelenti:

„A különböző demográfiai csoportokra gyakorolt ​​hatás vizsgálata, és a csoport méltányosságának számos matematikai definíciójának egy kiválasztása, amely megfelelően kielégíti a kívánt jogi, kulturális és etikai követelményeket.”

2. felelősségre vonhatóság

Az elszámoltathatóság azt jelenti, hogy az AI-rendszereket fejlesztő és telepítő egyének és szervezetek felelősek döntéseikért és tetteikért. Az AI-rendszereket telepítő csapatnak gondoskodnia kell arról, hogy mesterséges intelligenciarendszerük átlátható, értelmezhető, auditálható legyen, és ne károsítsa a társadalmat.

Az elszámoltathatóság magában foglalja hét alkatrészek:

  1. Kontextus (cél, amelyhez elszámoltathatóság szükséges)
  2. Tartomány (elszámoltatás tárgya)
  3. Ügynök (ki a felelős?)
  4. Fórum (akinek a felelős félnek jelentenie kell)
  5. Szabványok (az elszámoltathatóság kritériumai)
  6. Eljárás (elszámoltatás módja)
  7. Következmények (az elszámoltathatóság következményei)

3. Átláthatóság

Az átláthatóság azt jelenti, hogy az AI-rendszerekben a döntéshozatal oka világos és érthető. Az átlátszó AI-rendszerek megmagyarázhatók.

Szerint A megbízható mesterséges intelligencia (ALTAI) értékelési listája, az átláthatóságnak három kulcsfontosságú eleme van:

  1. Nyomon követhetőség (az adatok, az előfeldolgozási lépések és a modell elérhető)
  2. Megmagyarázhatóság (a döntéshozatal/előrejelzés mögötti érvelés egyértelmű)
  3. Nyílt kommunikáció (az AI rendszer korlátaival kapcsolatban)

4. Adatvédelem

Az adatvédelem a felelős AI egyik fő elve. A személyes adatok védelmére utal. Ez az alapelv biztosítja, hogy az emberek személyes adatait beleegyezéssel gyűjtsék és dolgozzák fel, és ne kerüljenek rosszalló kezébe.

Mint a közelmúltban bebizonyosodott, volt egy eset a Clearview céggel kapcsolatban, amely arcfelismerő modelleket készít rendészeti szervek és egyetemek számára. Az Egyesült Királyság adatőrei beperelte a Clearview AI-t 7.5 millió fontra amiért az Egyesült Királyság lakosairól képeket gyűjtöttek a közösségi médiából anélkül, hogy beleegyeztek volna egy 20 milliárd képből álló adatbázis létrehozásához.

5. Biztonság

A biztonság azt jelenti, hogy gondoskodunk arról, hogy az AI-rendszerek biztonságosak legyenek, és ne veszélyeztessék a társadalmat. Az AI biztonsági fenyegetés példája az ellenséges támadások. Ezek a rosszindulatú támadások az ML modelleket helytelen döntések meghozatalára csalják ki. Az AI-rendszerek kibertámadásokkal szembeni védelme elengedhetetlen a felelős AI számára.

A felelős mesterséges intelligencia 4 fő kihívásai és kockázatai

1. Elfogultság

Az életkorhoz, nemhez, nemzetiséghez és rasszhoz kapcsolódó emberi előítéletek hatással lehetnek az adatgyűjtésre, ami potenciálisan elfogult AI-modellek kialakulásához vezethet. Az Egyesült Államok Kereskedelmi Minisztériumának tanulmánya Az arcfelismerő mesterséges intelligencia tévesen azonosítja a színes bőrűeket. Ezért a mesterséges intelligencia használata arcfelismerésre a bűnüldözésben jogellenes letartóztatásokhoz vezethet. A tisztességes AI-modellek készítése is kihívást jelent, mert vannak 21 különböző paraméterekkel meghatározni őket. Tehát van egy kompromisszum; egy korrekt AI-paraméter kielégítése egy másik feláldozását jelenti.

2. Értelmezhetőség

Az értelmezhetőség kritikus kihívás a felelős mesterséges intelligencia fejlesztésében. Arra vonatkozik, hogy megértsük, hogyan jutott el a gépi tanulási modell egy bizonyos következtetésre.

A mély neurális hálózatok nem értelmezhetők, mivel fekete dobozként működnek, több rétegben rejtett neuronokkal, ami megnehezíti a döntéshozatali folyamat megértését. Ez kihívást jelenthet a nagy téttel járó döntéshozatalban, például egészségügyben, pénzügyekben stb.

Ráadásul az értelmezhetőség formalizálása az ML modellekben kihívást jelent, mert az szubjektív és a domain-specifikus.

3. Kormányzás

A kormányzás olyan szabályok, irányelvek és eljárások összességét jelenti, amelyek felügyelik az AI-rendszerek fejlesztését és telepítését. Az utóbbi időben jelentős előrelépés történt a mesterséges intelligencia irányításáról szóló diskurzusban, a szervezetek kereteket és etikai irányelveket mutattak be.

Etikai irányelvek számára megbízható mesterséges intelligencia az EU általAusztrál AI etikai keretrendszerés OECD AI-elvek példák az AI-irányítási keretekre.

De az AI gyors fejlődése az elmúlt években meghaladhatja ezeket a mesterséges intelligencia irányítási kereteket. Ennek érdekében olyan keretrendszerre van szükség, amely értékeli az AI-rendszerek tisztességességét, értelmezhetőségét és etikáját.

4. Szabályozás

A mesterséges intelligencia rendszerek egyre elterjedtebbé válásával szabályozásra van szükség az etikai és társadalmi értékek figyelembevételéhez. Az AI-innovációt nem fojtogató szabályozás kidolgozása kritikus kihívás a felelős AI-ban.

A mesterséges intelligencia kutatói még az Általános Adatvédelmi Rendelet (GDPR), a California Consumer Privacy Act (CCPA) és a Personal Information Protection Law (PIPL) szabályozó testületei mellett is megállapították, hogy 97% az uniós webhelyek nem felelnek meg a GDPR jogi keret követelményeinek.

Ezenkívül a jogalkotók szembesülnek a jelentős kihívás konszenzusra jutni a mesterséges intelligencia meghatározásáról, amely magában foglalja mind a klasszikus AI-rendszereket, mind a legújabb AI-alkalmazásokat.

A felelős mesterséges intelligencia 3 fő előnye

1. Csökkentett torzítás

A felelős mesterséges intelligencia csökkenti a döntéshozatali folyamatok torzítását, és bizalmat épít az AI-rendszerekbe. Az AI-rendszerek torzításának csökkentése tisztességes és méltányos egészségügyi rendszert biztosíthat, és csökkenti az AI-alapú torzítást pénzügyi szolgáltatások elvisszük helyi falvakba ahol megismerkedhet az őslakosok kultúrájával; ...

2. Fokozott átláthatóság

A Responsible AI átlátható AI-alkalmazásokat tesz lehetővé, amelyek bizalmat építenek az AI-rendszerekbe. Átlátszó AI rendszerek csökkenti a hiba és a helytelen használat kockázatát. A fokozott átláthatóság megkönnyíti az AI-rendszerek auditálását, elnyeri az érdekelt felek bizalmát, és elszámoltatható AI-rendszerekhez vezethet.

3. Jobb biztonság

A biztonságos mesterségesintelligencia-alkalmazások biztosítják az adatvédelmet, megbízható és ártalmatlan kimenetet produkálnak, és biztonságban vannak a kibertámadásokkal szemben.

A technikai óriásoknak tetszik microsoft és a Google, amelyek élen járnak az AI-rendszerek fejlesztésében, kidolgozták a Responsible AI elveket. A felelős mesterséges intelligencia biztosítja, hogy az AI innovációja ne legyen káros az egyénekre és a társadalomra nézve.

A vezetőknek, kutatóknak, szervezeteknek és jogi hatóságoknak folyamatosan felül kell vizsgálniuk a felelős AI-irodalmat, hogy biztosítsák az AI-innováció biztonságos jövőjét.

További AI-val kapcsolatos tartalomért látogassa meg a webhelyet egyesülj.ai.