- Terminológia (A-tól D-ig)
- AI képességvezérlés
- AIOps
- albumációk
- Eszköz teljesítménye
- Autoencoder
- Visszaszaporítás
- Bayes-tétel
- Big adatok
- Chatbot: Útmutató kezdőknek
- Számítási gondolkodás
- Számítógépes látás
- Zavart mátrix
- Konvolúciós neurális hálózatok
- Kiberbiztonság
- Data Fabric
- Adattörténetmondás
- Data Science
- Adattárolás
- Döntési fa
- Deepfakes
- Deep Learning
- Mély megerősítésű tanulás
- DevOps
- DevSecOps
- Diffúziós modellek
- Digitális iker
- Dimenzionalitás csökkentés
- Terminológia (E-től K-ig)
- Edge AI
- Érzelem AI
- Együttes tanulás
- Etikai hackelés
- ETL
- Megmagyarázható AI
- Egyesített tanulás
- FinOps
- Generatív AI
- Generatív versenytársak hálózata
- Generatív vs. diszkriminatív
- Gradiens Boosting
- Gradiens Descent
- Few-Shot Learning
- Képosztályozás
- IT-műveletek (ITOps)
- Incidens automatizálás
- Befolyásolás Mérnökség
- K-Means klaszterezés
- K-Legközelebbi szomszédok
- Terminológia (L-től Q-ig)
- Terminológia (R-től Z-ig)
- Erősítő tanulás
- Felelős mesterséges intelligencia
- RLHF
- Robotikus folyamat automatizálás
- Strukturált vs strukturálatlan
- Érzelmi elemzés
- Felügyelt vs nem felügyelt
- Támogatja a vektoros gépeket
- Szintetikus adatok
- Szintetikus média
- Szöveg osztályozása
- TinyML
- Transzfer tanulás
- Transzformátor neurális hálózatok
- Turing teszt
- Vektoros hasonlóság keresése
AI 101
Mi az a megmagyarázható AI?
Tartalomjegyzék
Ahogy a mesterséges intelligencia (AI) egyre összetettebbé válik, és széles körben elterjedt a társadalomban, a folyamatok és módszerek egyik legkritikusabb halmaza megmagyarázható (MI), amelyet néha XAI-nak is neveznek.
A megmagyarázható AI a következőképpen definiálható:
- Folyamatok és módszerek készlete, amelyek segítenek az emberi felhasználóknak megérteni a gépi tanulási algoritmusok eredményeit, és megbízni azokban.
Ahogy sejthető, ez a megmagyarázhatóság rendkívül fontos, mivel az AI-algoritmusok számos szektor felett átveszik az irányítást, ami az elfogultság, a hibás algoritmusok és egyéb problémák kockázatával jár. Az átláthatóság és a magyarázhatóság elérése révén a világ valóban kihasználhatja az AI erejét.
A megmagyarázható AI, ahogy a neve is sugallja, segít leírni egy AI-modellt, annak hatását és lehetséges torzításait. Szerepet játszik a modell pontosságának, igazságosságának, átláthatóságának és az AI-alapú döntéshozatali folyamatok eredményeinek jellemzésében is.
A mai mesterséges intelligencia által vezérelt szervezeteknek mindig megmagyarázható mesterségesintelligencia-folyamatokat kell alkalmazniuk, hogy segítsenek a termelésben használt mesterségesintelligencia-modellek iránti bizalom kiépítésében. A megmagyarázható mesterséges intelligencia kulcsfontosságú ahhoz, hogy felelős vállalattá váljunk a mai mesterséges intelligencia környezetben.
Mivel a mai mesterséges intelligencia rendszerek olyan fejlettek, az emberek általában számítási folyamatot hajtanak végre, hogy visszakövetjék, hogyan jutott az algoritmus az eredményre. Ez a folyamat „fekete doboz” lesz, ami azt jelenti, hogy lehetetlen megérteni. Amikor ezeket a megmagyarázhatatlan modelleket közvetlenül adatokból fejlesztik, senki sem értheti, mi történik bennük.
Az MI-rendszerek magyarázható AI-n keresztüli működésének megértésével a fejlesztők biztosíthatják, hogy a rendszer megfelelően működjön. Segíthet abban is, hogy a modell megfeleljen a szabályozási szabványoknak, és lehetőséget ad a modell megkérdőjelezésére vagy megváltoztatására.
Az AI és a XAI közötti különbségek
Néhány kulcsfontosságú különbség segít elválasztani a „szokásos” mesterséges intelligenciát a megmagyarázható AI-tól, de ami a legfontosabb, az XAI olyan specifikus technikákat és módszereket valósít meg, amelyek segítenek abban, hogy az ML folyamatban minden döntés nyomon követhető és megmagyarázható legyen. Ehhez képest a normál mesterséges intelligencia általában egy ML algoritmus segítségével jut el az eredményhez, de lehetetlen teljesen megérteni, hogy az algoritmus hogyan jutott az eredményhez. A normál mesterséges intelligencia esetében rendkívül nehéz ellenőrizni a pontosságot, ami az irányítás, az elszámoltathatóság és az auditálhatóság elvesztését eredményezi.
Az magyarázható AI előnyei
Számos előnnyel jár minden olyan szervezet számára, amely magyarázható mesterséges intelligencia bevezetésére törekszik, például:
- Gyorsabb eredmények: Az magyarázható mesterséges intelligencia lehetővé teszi a szervezetek számára, hogy szisztematikusan nyomon kövessék és kezeljék a modelleket az üzleti eredmények optimalizálása érdekében. Lehetőség van a modell teljesítményének folyamatos értékelésére és javítására, valamint a modellfejlesztés finomhangolására.
- Kockázatok csökkentése: A megmagyarázható AI-folyamatok elfogadásával Ön biztosítja, hogy AI-modellei magyarázhatók és átláthatóak legyenek. Kezelheti a szabályozási, megfelelőségi, kockázati és egyéb követelményeket, miközben minimálisra csökkenti a kézi ellenőrzés költségeit. Mindez segít csökkenteni a nem szándékos elfogultság kockázatát.
- Bizalom építése: A megmagyarázható mesterséges intelligencia segít a termelési mesterséges intelligencia iránti bizalom megteremtésében. Az AI-modellek gyorsan gyártásba hozhatók, biztosítható az értelmezhetőség és magyarázhatóság, a modellértékelési folyamat egyszerűsíthető és átláthatóbbá tehető.
A megmagyarázható mesterséges intelligencia technikái
Vannak olyan XAI-technikák, amelyeket minden szervezetnek figyelembe kell vennie, és ezek három fő módszerből állnak: előrejelzési pontosság, nyomon követhetőségés döntés megértése.
A három módszer közül az első, előrejelzési pontosság, elengedhetetlen az AI mindennapi műveletekben való sikeres használatához. Simulációk végezhetők, és az XAI kimenet összehasonlítható a betanítási adathalmazban szereplő eredményekkel, ami segít meghatározni az előrejelzés pontosságát. Ennek elérésére az egyik legnépszerűbb technika az úgynevezett Local Interpretable Model-Agnostic Explanations (LIME), amely az osztályozók gépi tanulási algoritmus általi előrejelzését magyarázza.
A második módszer az nyomon követhetőség, amelyet a döntéshozatal korlátozásával, valamint a gépi tanulási szabályok és funkciók szűkebb körének meghatározásával érnek el. Az egyik leggyakoribb nyomon követési technika a DeepLIFT vagy a Deep Learning Important FeaTures. A DeepLIFT összehasonlítja az egyes neuronok aktiválását a referencia neuronjaival, miközben nyomon követhető kapcsolatot mutat az egyes aktivált neuronok között. A köztük lévő függőséget is mutatja.
A harmadik és egyben utolsó módszer az döntés megértése, amely a másik két módszertől eltérően emberközpontú. A döntések megértése magában foglalja a szervezet, különösen az MI-vel dolgozó csapat oktatását, hogy megértsék, hogyan és miért hoz döntéseket az MI. Ez a módszer kulcsfontosságú a rendszerbe vetett bizalom megteremtéséhez.
Magyarázható AI-elvek
Az XAI és alapelvei jobb megértése érdekében a National Institute of Standards (NIST), amely az Egyesült Államok Kereskedelmi Minisztériumának része, meghatározza a megmagyarázható mesterséges intelligencia négy alapelvét:
- Az AI-rendszernek bizonyítékot, támogatást vagy érvelést kell szolgáltatnia minden egyes kimenethez.
- Egy mesterséges intelligencia rendszernek olyan magyarázatokat kell adnia, amelyeket a felhasználók megérthetnek.
- A magyarázatnak pontosan tükröznie kell azt a folyamatot, amelyet a rendszer a kimenet eléréséhez használ.
- A mesterséges intelligencia rendszernek csak olyan körülmények között szabad működnie, amelyekre tervezték, és nem szabad kimenetet adnia, ha nem bízik kellően az eredményben.
Ezek az alapelvek még tovább sorolhatók:
- Jelentőségteljes: Az értelmesség elvének eléréséhez a felhasználónak meg kell értenie a magyarázatot. Ez azt is jelentheti, hogy abban az esetben, ha egy AI-algoritmust különböző típusú felhasználók használnak, több magyarázat is lehet. Például egy önvezető autó esetében az egyik magyarázat a következő lehet: „az MI az úton lévő műanyag zacskót kőnek minősítette, és ezért lépéseket tett, hogy elkerülje az elütést.” Bár ez a példa működne az illesztőprogramnál, nem lenne túl hasznos a probléma megoldására törekvő AI-fejlesztő számára. Ebben az esetben a fejlesztőnek meg kell értenie, miért történt téves besorolás.
- Magyarázat pontossága: A kimeneti pontossággal ellentétben a magyarázat pontossága magában foglalja az AI algoritmust, amely pontosan elmagyarázza, hogyan érte el a kimenetet. Például, ha egy hiteljóváhagyási algoritmus egy kérelem bevétele alapján magyaráz meg egy döntést, holott az valójában a kérelmező lakóhelyén alapult, akkor a magyarázat pontatlan lenne.
- Tudáskorlátok: Az AI tudáskorlátait kétféleképpen lehet elérni, és a bemenet a rendszer szakértelmén kívül esik. Például, ha egy rendszert építenek a madárfajok osztályozására, és egy almát ábrázolnak, képesnek kell lennie megmagyarázni, hogy a bemenet nem madár. Ha a rendszer homályos képet kap, akkor képesnek kell lennie arra, hogy jelentse, hogy nem tudja azonosítani a képen látható madarat, vagy azt, hogy azonosítása nagyon alacsony megbízhatóságú.
Az adatok szerepe a megmagyarázható AI-ban
A megmagyarázható mesterséges intelligencia egyik legfontosabb összetevője az adat.
Szerint Google, ami az adatokat és a megmagyarázható mesterséges intelligenciát illeti, „egy AI-rendszert a mögöttes betanítási adatok és képzési folyamat, valamint az ebből eredő AI-modell érti meg a legjobban.” Ez a megértés azon a képességen múlik, hogy egy betanított AI-modellt le lehet-e képezni a betanításhoz használt pontos adatkészlethez, valamint az adatok alapos vizsgálatához.
A modell magyarázhatóságának javítása érdekében fontos odafigyelni a betanítási adatokra. A csapatoknak meg kell határozniuk az algoritmus betanításához használt adatok eredetét, a megszerzésük jogszerűségét és etikáját, az adatok esetleges torzítását, valamint azt, hogy mit lehet tenni az elfogultság csökkentése érdekében.
Az adatok és az XAI másik kritikus szempontja, hogy a rendszer szempontjából irreleváns adatokat ki kell zárni. Ennek elérése érdekében az irreleváns adatokat nem szabad beletenni a betanító készletbe vagy a bemeneti adatokba.
A Google egy sor gyakorlatot javasolt az értelmezhetőség és az elszámoltathatóság eléréséhez:
- Tervezze meg lehetőségeit az értelmezhetőség elérésére
- Tekintse az értelmezhetőséget a felhasználói élmény alapvető részeként
- Tervezze meg úgy a modellt, hogy értelmezhető legyen
- Válasszon olyan mutatókat, amelyek tükrözik a végcélt és a végfeladatot
- Ismerje meg a betanított modellt
- Magyarázatok közlése a modellfelhasználók felé
- Végezzen sok tesztet, hogy megbizonyosodjon arról, hogy a mesterséges intelligencia rendszer a tervezett módon működik
Ha követi ezeket az ajánlott gyakorlatokat, szervezete biztosíthatja, hogy megmagyarázható mesterséges intelligenciát valósítson meg, ami a mai környezetben minden mesterséges intelligencia által vezérelt szervezet számára kulcsfontosságú.
Alex McFarland mesterséges intelligencia újságíró és író, aki a mesterséges intelligencia legújabb fejleményeit vizsgálja. Számos AI startup vállalkozással és publikációval működött együtt világszerte.