stomp Wat is verklaarbare AI? - Verenig.AI
Verbinding met ons

AI 101

Wat is verklaarbare AI?

Opgedateer on
Beeld: DeepMind op Unsplash

Namate kunsmatige intelligensie (KI) meer kompleks word en wyd in die samelewing aangeneem word, is een van die mees kritieke stelle prosesse en metodes verklaarbaar (KI), soms na verwys as XAI. 

Verklaarbare KI kan gedefinieer word as:

  • 'n Stel prosesse en metodes wat menslike gebruikers help om die resultate van masjienleeralgoritmes te begryp en te vertrou. 

Soos u kan raai, is hierdie verduidelikbaarheid ongelooflik belangrik, aangesien KI-algoritmes beheer oor baie sektore neem, wat die risiko van vooroordeel, foutiewe algoritmes en ander probleme meebring. Deur deursigtigheid met verduidelikbaarheid te bereik, kan die wêreld werklik die krag van KI benut. 

Verduidelikbare KI, soos die naam aandui, help om 'n KI-model, sy impak en potensiële vooroordele te beskryf. Dit speel ook 'n rol in die karakterisering van modelakkuraatheid, regverdigheid, deursigtigheid en uitkomste in KI-aangedrewe besluitnemingsprosesse. 

Vandag se KI-gedrewe organisasies moet altyd verklaarbare KI-prosesse aanneem om vertroue en vertroue in die KI-modelle in produksie te help bou. Verklaarbare KI is ook die sleutel tot 'n verantwoordelike maatskappy in vandag se KI-omgewing.

Omdat vandag se KI-stelsels so gevorderd is, voer mense gewoonlik 'n berekeningsproses uit om na te gaan hoe die algoritme by sy resultaat uitgekom het. Hierdie proses word 'n "swart boks", wat beteken dat dit onmoontlik is om te verstaan. Wanneer hierdie onverklaarbare modelle direk uit data ontwikkel word, kan niemand verstaan ​​wat binne hulle gebeur nie. 

Deur te verstaan ​​hoe KI-stelsels werk deur verklaarbare KI, kan ontwikkelaars verseker dat die stelsel werk soos dit moet. Dit kan ook help om te verseker dat die model aan regulatoriese standaarde voldoen, en dit bied die geleentheid dat die model uitgedaag of verander kan word. 

Beeld: Dr Matt Turek/DARPA

Verskille tussen AI en XAI

Sommige sleutelverskille help om "gewone" KI van verklaarbare KI te skei, maar die belangrikste is dat XAI spesifieke tegnieke en metodes implementeer wat help verseker dat elke besluit in die ML-proses naspeurbaar en verklaarbaar is. In vergelyking kom gereelde KI gewoonlik by sy resultaat uit deur 'n ML-algoritme te gebruik, maar dit is onmoontlik om ten volle te verstaan ​​hoe die algoritme by die resultaat uitgekom het. In die geval van gereelde KI is dit uiters moeilik om te kontroleer vir akkuraatheid, wat lei tot 'n verlies aan beheer, aanspreeklikheid en ouditbaarheid. 

Voordele van Verklaarbare KI 

Daar is baie voordele vir enige organisasie wat verduidelikbare KI wil aanneem, soos: 

  • Vinniger resultate: Verduidelikbare KI stel organisasies in staat om modelle stelselmatig te monitor en te bestuur om besigheidsuitkomste te optimaliseer. Dit is moontlik om voortdurend modelprestasie te evalueer en te verbeter en modelontwikkeling te verfyn.
  • Verminder risiko's: Deur verduidelikbare KI-prosesse aan te neem, verseker jy dat jou KI-modelle verklaarbaar en deursigtig is. U kan regulatoriese, nakoming, risiko's en ander vereistes bestuur terwyl u die bokoste van handmatige inspeksie tot die minimum beperk. Dit alles help ook om die risiko van onbedoelde vooroordeel te verminder. 
  • Bou vertroue: Verduidelikbare KI help om vertroue in produksie-KI te vestig. KI-modelle kan vinnig tot produksie gebring word, jy kan interpreteerbaarheid en verduidelikbaarheid verseker, en die model-evalueringsproses kan vereenvoudig en deursigtiger gemaak word. 

Tegnieke vir verklaarbare KI

Daar is 'n paar XAI-tegnieke wat alle organisasies moet oorweeg, en hulle bestaan ​​uit drie hoofmetodes: voorspelling akkuraatheid, naspeurbaarheid, en besluit begrip

Die eerste van die drie metodes, voorspelling akkuraatheid, is noodsaaklik om KI suksesvol in alledaagse bedrywighede te gebruik. Simulasies kan uitgevoer word, en XAI-uitset kan vergelyk word met die resultate in die opleidingsdatastel, wat help om voorspelling akkuraatheid te bepaal. Een van die meer gewilde tegnieke om dit te bereik, word Local Interpretable Model-Agnostic Explanations (LIME) genoem, 'n tegniek wat die voorspelling van klassifiseerders deur die masjienleeralgoritme verduidelik. 

Die tweede metode is naspeurbaarheid, wat bereik word deur te beperk hoe besluite geneem kan word, asook om 'n nouer omvang vir masjienleerreëls en -kenmerke te vestig. Een van die mees algemene naspeurbaarheidstegnieke is DeepLIFT, of Deep Learning Important Features. DeepLIFT vergelyk die aktivering van elke neuron met sy verwysingsneuron terwyl 'n naspeurbare skakel tussen elke geaktiveerde neuron getoon word. Dit wys ook die afhanklikhede tussen hulle. 

Die derde en laaste metode is besluit begrip, wat mens-gefokus is, anders as die ander twee metodes. Besluitbegrip behels die opvoeding van die organisasie, spesifiek die span wat met die KI werk, om hulle in staat te stel om te verstaan ​​hoe en hoekom die KI besluite neem. Hierdie metode is noodsaaklik om vertroue in die stelsel te vestig. 

Verduidelikbare KI-beginsels

Om 'n beter begrip van XAI en sy beginsels te gee, verskaf die National Institute of Standards (NIST), wat deel is van die Amerikaanse Departement van Handel, definisies vir vier beginsels van verklaarbare KI: 

  1. 'n KI-stelsel moet bewyse, ondersteuning of redenasie vir elke uitset verskaf. 
  2. 'n KI-stelsel moet verduidelikings gee wat deur sy gebruikers verstaan ​​kan word. 
  3. Die verduideliking moet die proses wat deur die stelsel gebruik word om by sy uitset te kom, akkuraat weerspieël. 
  4. Die KI-stelsel moet slegs werk onder die omstandighede waarvoor dit ontwerp is, en dit behoort nie uitset te lewer wanneer dit nie genoeg vertroue in die resultaat het nie. 

Hierdie beginsels kan selfs verder georganiseer word in: 

  • betekenisvolle: Om die beginsel van betekenisvolheid te bereik, moet 'n gebruiker die verduideliking wat verskaf word verstaan. Dit kan ook beteken dat in die geval van 'n KI-algoritme wat deur verskillende tipes gebruikers gebruik word, daar verskeie verduidelikings kan wees. Byvoorbeeld, in die geval van 'n selfbesturende motor, kan een verduideliking in die lyn wees van ... "die KI het die plastieksak in die pad as 'n rots gekategoriseer, en het dus opgetree om dit te vermy." Alhoewel hierdie voorbeeld vir die bestuurder sal werk, sal dit nie baie nuttig wees vir 'n KI-ontwikkelaar wat die probleem wil regstel nie. In daardie geval moet die ontwikkelaar verstaan ​​hoekom daar 'n wanklassifikasie was. 
  • Verduideliking Akkuraatheid: Anders as uitsetakkuraatheid, behels verduidelikingsakkuraatheid dat die KI-algoritme akkuraat verduidelik hoe dit sy uitset bereik het. Byvoorbeeld, as 'n leninggoedkeuringsalgoritme 'n besluit verduidelik op grond van 'n aansoek se inkomste terwyl dit in werklikheid op die aansoeker se woonplek gebaseer was, sou die verduideliking onakkuraat wees. 
  • Kennisgrense: Die KI se kennislimiete kan op twee maniere bereik word, en dit behels dat die insette buite die kundigheid van die stelsel is. As 'n stelsel byvoorbeeld gebou word om voëlspesies te klassifiseer en dit word 'n prentjie van 'n appel gegee, behoort dit te kan verduidelik dat die inset nie 'n voël is nie. As die stelsel 'n vaag prentjie kry, behoort dit te kan rapporteer dat dit nie die voël in die beeld kan identifiseer nie, of alternatiewelik dat sy identifikasie baie lae vertroue het. 

Data se rol in verduidelikbare KI

Een van die belangrikste komponente van verklaarbare KI is data. 

Volgens Google, met betrekking tot data en verklaarbare KI, "'n KI-stelsel word die beste verstaan ​​deur die onderliggende opleidingsdata en opleidingsproses, sowel as die gevolglike KI-model." Hierdie begrip is afhanklik van die vermoë om 'n opgeleide KI-model te karteer na die presiese datastel wat gebruik word om dit op te lei, sowel as die vermoë om die data noukeurig te ondersoek. 

Om die verduidelikbaarheid van 'n model te verbeter, is dit belangrik om aandag te skenk aan die opleidingsdata. Spanne moet die oorsprong bepaal van die data wat gebruik word om 'n algoritme op te lei, die wettigheid en etiek rondom die verkryging daarvan, enige potensiële vooroordeel in die data, en wat gedoen kan word om enige vooroordeel te versag. 

Nog 'n kritieke aspek van data en XAI is dat data wat irrelevant is vir die stelsel uitgesluit moet word. Om dit te bereik, moet die irrelevante data nie by die opleidingstel of die insetdata ingesluit word nie. 

Google het 'n stel praktyke aanbeveel om interpreteerbaarheid en aanspreeklikheid te bereik: 

  • Beplan jou opsies om interpreteerbaarheid na te streef
  • Behandel interpreteerbaarheid as 'n kerndeel van die gebruikerservaring
  • Ontwerp die model om interpreteerbaar te wees
  • Kies maatstawwe om die einddoel en die eindtaak te weerspieël
  • Verstaan ​​die opgeleide model
  • Kommunikeer verduidelikings aan modelgebruikers
  • Voer baie toetse uit om te verseker dat die KI-stelsel werk soos bedoel 

Deur hierdie aanbevole praktyke te volg, kan jou organisasie verseker dat dit verklaarbare KI bereik, wat die sleutel is tot enige KI-gedrewe organisasie in vandag se omgewing. 

 

Alex McFarland is 'n KI-joernalis en skrywer wat die jongste ontwikkelings in kunsmatige intelligensie ondersoek. Hy het wêreldwyd met talle KI-opstarters en publikasies saamgewerk.