csonk Mi az a megmagyarázható AI? - Egyesüljetek.AI
Kapcsolatba velünk
AI mesterkurzus:

AI 101

Mi az a megmagyarázható AI?

korszerűsített on
Kép: DeepMind on Unsplash

Ahogy a mesterséges intelligencia (AI) egyre összetettebbé válik, és széles körben elterjedt a társadalomban, a folyamatok és módszerek egyik legkritikusabb halmaza megmagyarázható (MI), amelyet néha XAI-nak is neveznek. 

A megmagyarázható AI a következőképpen definiálható:

  • Folyamatok és módszerek készlete, amelyek segítenek az emberi felhasználóknak megérteni a gépi tanulási algoritmusok eredményeit, és megbízni azokban. 

Ahogy sejthető, ez a megmagyarázhatóság rendkívül fontos, mivel az AI-algoritmusok számos szektor felett átveszik az irányítást, ami az elfogultság, a hibás algoritmusok és egyéb problémák kockázatával jár. Az átláthatóság és a magyarázhatóság elérése révén a világ valóban kihasználhatja az AI erejét. 

A megmagyarázható AI, ahogy a neve is sugallja, segít leírni egy AI-modellt, annak hatását és lehetséges torzításait. Szerepet játszik a modell pontosságának, igazságosságának, átláthatóságának és az AI-alapú döntéshozatali folyamatok eredményeinek jellemzésében is. 

A mai mesterséges intelligencia által vezérelt szervezeteknek mindig megmagyarázható mesterségesintelligencia-folyamatokat kell alkalmazniuk, hogy segítsenek a termelésben használt mesterségesintelligencia-modellek iránti bizalom kiépítésében. A megmagyarázható mesterséges intelligencia kulcsfontosságú ahhoz, hogy felelős vállalattá váljunk a mai mesterséges intelligencia környezetben.

Mivel a mai mesterséges intelligencia rendszerek olyan fejlettek, az emberek általában számítási folyamatot hajtanak végre, hogy visszakövetjék, hogyan jutott az algoritmus az eredményre. Ez a folyamat „fekete doboz” lesz, ami azt jelenti, hogy lehetetlen megérteni. Amikor ezeket a megmagyarázhatatlan modelleket közvetlenül adatokból fejlesztik, senki sem értheti, mi történik bennük. 

Az MI-rendszerek magyarázható AI-n keresztüli működésének megértésével a fejlesztők biztosíthatják, hogy a rendszer megfelelően működjön. Segíthet abban is, hogy a modell megfeleljen a szabályozási szabványoknak, és lehetőséget ad a modell megkérdőjelezésére vagy megváltoztatására. 

Kép: Dr. Matt Turek/DARPA

Az AI és a XAI közötti különbségek

Néhány kulcsfontosságú különbség segít elválasztani a „szokásos” mesterséges intelligenciát a megmagyarázható AI-tól, de ami a legfontosabb, az XAI olyan specifikus technikákat és módszereket valósít meg, amelyek segítenek abban, hogy az ML folyamatban minden döntés nyomon követhető és megmagyarázható legyen. Ehhez képest a normál mesterséges intelligencia általában egy ML algoritmus segítségével jut el az eredményhez, de lehetetlen teljesen megérteni, hogy az algoritmus hogyan jutott az eredményhez. A normál mesterséges intelligencia esetében rendkívül nehéz ellenőrizni a pontosságot, ami az irányítás, az elszámoltathatóság és az auditálhatóság elvesztését eredményezi. 

Az magyarázható AI előnyei 

Számos előnnyel jár minden olyan szervezet számára, amely magyarázható mesterséges intelligencia bevezetésére törekszik, például: 

  • Gyorsabb eredmények: Az magyarázható mesterséges intelligencia lehetővé teszi a szervezetek számára, hogy szisztematikusan nyomon kövessék és kezeljék a modelleket az üzleti eredmények optimalizálása érdekében. Lehetőség van a modell teljesítményének folyamatos értékelésére és javítására, valamint a modellfejlesztés finomhangolására.
  • Kockázatok csökkentése: A megmagyarázható AI-folyamatok elfogadásával Ön biztosítja, hogy AI-modellei magyarázhatók és átláthatóak legyenek. Kezelheti a szabályozási, megfelelőségi, kockázati és egyéb követelményeket, miközben minimálisra csökkenti a kézi ellenőrzés költségeit. Mindez segít csökkenteni a nem szándékos elfogultság kockázatát. 
  • Bizalom építése: A megmagyarázható mesterséges intelligencia segít a termelési mesterséges intelligencia iránti bizalom megteremtésében. Az AI-modellek gyorsan gyártásba hozhatók, biztosítható az értelmezhetőség és magyarázhatóság, a modellértékelési folyamat egyszerűsíthető és átláthatóbbá tehető. 

A megmagyarázható mesterséges intelligencia technikái

Vannak olyan XAI-technikák, amelyeket minden szervezetnek figyelembe kell vennie, és ezek három fő módszerből állnak: előrejelzési pontosság, nyomon követhetőségés döntés megértése

A három módszer közül az első, előrejelzési pontosság, elengedhetetlen az AI mindennapi műveletekben való sikeres használatához. Simulációk végezhetők, és az XAI kimenet összehasonlítható a betanítási adathalmazban szereplő eredményekkel, ami segít meghatározni az előrejelzés pontosságát. Ennek elérésére az egyik legnépszerűbb technika az úgynevezett Local Interpretable Model-Agnostic Explanations (LIME), amely az osztályozók gépi tanulási algoritmus általi előrejelzését magyarázza. 

A második módszer az nyomon követhetőség, amelyet a döntéshozatal korlátozásával, valamint a gépi tanulási szabályok és funkciók szűkebb körének meghatározásával érnek el. Az egyik leggyakoribb nyomon követési technika a DeepLIFT vagy a Deep Learning Important FeaTures. A DeepLIFT összehasonlítja az egyes neuronok aktiválását a referencia neuronjaival, miközben nyomon követhető kapcsolatot mutat az egyes aktivált neuronok között. A köztük lévő függőséget is mutatja. 

A harmadik és egyben utolsó módszer az döntés megértése, amely a másik két módszertől eltérően emberközpontú. A döntések megértése magában foglalja a szervezet, különösen az MI-vel dolgozó csapat oktatását, hogy megértsék, hogyan és miért hoz döntéseket az MI. Ez a módszer kulcsfontosságú a rendszerbe vetett bizalom megteremtéséhez. 

Magyarázható AI-elvek

Az XAI és alapelvei jobb megértése érdekében a National Institute of Standards (NIST), amely az Egyesült Államok Kereskedelmi Minisztériumának része, meghatározza a megmagyarázható mesterséges intelligencia négy alapelvét: 

  1. Az AI-rendszernek bizonyítékot, támogatást vagy érvelést kell szolgáltatnia minden egyes kimenethez. 
  2. Egy mesterséges intelligencia rendszernek olyan magyarázatokat kell adnia, amelyeket a felhasználók megérthetnek. 
  3. A magyarázatnak pontosan tükröznie kell azt a folyamatot, amelyet a rendszer a kimenet eléréséhez használ. 
  4. A mesterséges intelligencia rendszernek csak olyan körülmények között szabad működnie, amelyekre tervezték, és nem szabad kimenetet adnia, ha nem bízik kellően az eredményben. 

Ezek az alapelvek még tovább sorolhatók: 

  • Jelentőségteljes: Az értelmesség elvének eléréséhez a felhasználónak meg kell értenie a magyarázatot. Ez azt is jelentheti, hogy abban az esetben, ha egy AI-algoritmust különböző típusú felhasználók használnak, több magyarázat is lehet. Például egy önvezető autó esetében az egyik magyarázat a következő lehet: „az MI az úton lévő műanyag zacskót kőnek minősítette, és ezért lépéseket tett, hogy elkerülje az elütést.” Bár ez a példa működne az illesztőprogramnál, nem lenne túl hasznos a probléma megoldására törekvő AI-fejlesztő számára. Ebben az esetben a fejlesztőnek meg kell értenie, miért történt téves besorolás. 
  • Magyarázat pontossága: A kimeneti pontossággal ellentétben a magyarázat pontossága magában foglalja az AI algoritmust, amely pontosan elmagyarázza, hogyan érte el a kimenetet. Például, ha egy hiteljóváhagyási algoritmus egy kérelem bevétele alapján magyaráz meg egy döntést, holott az valójában a kérelmező lakóhelyén alapult, akkor a magyarázat pontatlan lenne. 
  • Tudáskorlátok: Az AI tudáskorlátait kétféleképpen lehet elérni, és a bemenet a rendszer szakértelmén kívül esik. Például, ha egy rendszert építenek a madárfajok osztályozására, és egy almát ábrázolnak, képesnek kell lennie megmagyarázni, hogy a bemenet nem madár. Ha a rendszer homályos képet kap, akkor képesnek kell lennie arra, hogy jelentse, hogy nem tudja azonosítani a képen látható madarat, vagy azt, hogy azonosítása nagyon alacsony megbízhatóságú. 

Az adatok szerepe a megmagyarázható AI-ban

A megmagyarázható mesterséges intelligencia egyik legfontosabb összetevője az adat. 

Szerint Google, ami az adatokat és a megmagyarázható mesterséges intelligenciát illeti, „egy AI-rendszert a mögöttes betanítási adatok és képzési folyamat, valamint az ebből eredő AI-modell érti meg a legjobban.” Ez a megértés azon a képességen múlik, hogy egy betanított AI-modellt le lehet-e képezni a betanításhoz használt pontos adatkészlethez, valamint az adatok alapos vizsgálatához. 

A modell magyarázhatóságának javítása érdekében fontos odafigyelni a betanítási adatokra. A csapatoknak meg kell határozniuk az algoritmus betanításához használt adatok eredetét, a megszerzésük jogszerűségét és etikáját, az adatok esetleges torzítását, valamint azt, hogy mit lehet tenni az elfogultság csökkentése érdekében. 

Az adatok és az XAI másik kritikus szempontja, hogy a rendszer szempontjából irreleváns adatokat ki kell zárni. Ennek elérése érdekében az irreleváns adatokat nem szabad beletenni a betanító készletbe vagy a bemeneti adatokba. 

A Google egy sor gyakorlatot javasolt az értelmezhetőség és az elszámoltathatóság eléréséhez: 

  • Tervezze meg lehetőségeit az értelmezhetőség elérésére
  • Tekintse az értelmezhetőséget a felhasználói élmény alapvető részeként
  • Tervezze meg úgy a modellt, hogy értelmezhető legyen
  • Válasszon olyan mutatókat, amelyek tükrözik a végcélt és a végfeladatot
  • Ismerje meg a betanított modellt
  • Magyarázatok közlése a modellfelhasználók felé
  • Végezzen sok tesztet, hogy megbizonyosodjon arról, hogy a mesterséges intelligencia rendszer a tervezett módon működik 

Ha követi ezeket az ajánlott gyakorlatokat, szervezete biztosíthatja, hogy megmagyarázható mesterséges intelligenciát valósítson meg, ami a mai környezetben minden mesterséges intelligencia által vezérelt szervezet számára kulcsfontosságú. 

 

Alex McFarland mesterséges intelligencia újságíró és író, aki a mesterséges intelligencia legújabb fejleményeit vizsgálja. Számos AI startup vállalkozással és publikációval működött együtt világszerte.