taló Què és l'IA explicable? - Unite.AI
Connecteu-vos amb nosaltres
Classe magistral d'IA:

IA 101

Què és l'IA explicable?

actualitzat on
Imatge: DeepMind a Unsplash

A mesura que la intel·ligència artificial (IA) es fa més complexa i s'adopta àmpliament a la societat, un dels conjunts de processos i mètodes més crítics és explicable (IA), de vegades denominat XAI. 

La IA explicable es pot definir com:

  • Un conjunt de processos i mètodes que ajuden els usuaris humans a comprendre i confiar en els resultats dels algorismes d'aprenentatge automàtic. 

Com podeu suposar, aquesta explicabilitat és increïblement important, ja que els algorismes d'IA prenen el control de molts sectors, la qual cosa comporta el risc de biaix, algorismes defectuosos i altres problemes. Aconseguint transparència amb explicabilitat, el món pot aprofitar realment el poder de la IA. 

La IA explicable, com el seu nom indica, ajuda a descriure un model d'IA, el seu impacte i els biaixos potencials. També juga un paper en la caracterització de la precisió, l'equitat, la transparència i els resultats del model en els processos de presa de decisions basats en IA. 

Les organitzacions actuals impulsades per IA sempre haurien d'adoptar processos d'IA explicables per ajudar a generar confiança en els models d'IA en producció. La IA explicable també és clau per convertir-se en una empresa responsable en l'entorn d'IA actual.

Com que els sistemes d'IA actuals són tan avançats, els humans solen dur a terme un procés de càlcul per recuperar com l'algorisme va arribar al seu resultat. Aquest procés es converteix en una "caixa negra", el que significa que és impossible d'entendre. Quan aquests models inexplicables es desenvolupen directament a partir de dades, ningú pot entendre què passa dins d'ells. 

En entendre com funcionen els sistemes d'IA mitjançant una IA explicable, els desenvolupadors poden assegurar-se que el sistema funciona com hauria. També pot ajudar a garantir que el model compleixi els estàndards reglamentaris i ofereix l'oportunitat de desafiar o canviar el model. 

Imatge: Dr. Matt Turek/DARPA

Diferències entre AI i XAI

Algunes diferències clau ajuden a separar la IA "normal" de la IA explicable, però el més important és que XAI implementa tècniques i mètodes específics que ajuden a garantir que cada decisió en el procés de ML sigui traçable i explicable. En comparació, la IA normal sol arribar al seu resultat mitjançant un algorisme ML, però és impossible entendre completament com va arribar l'algorisme al resultat. En el cas de la IA normal, és extremadament difícil comprovar la precisió, cosa que provoca una pèrdua de control, responsabilitat i auditabilitat. 

Beneficis de la IA explicable 

Hi ha molts avantatges per a qualsevol organització que vulgui adoptar una IA explicable, com ara: 

  • Resultats més ràpids: La intel·ligència artificial explicable permet a les organitzacions supervisar i gestionar models sistemàticament per optimitzar els resultats empresarials. És possible avaluar i millorar contínuament el rendiment del model i afinar el desenvolupament del model.
  • Mitigar els riscos: En adoptar processos d'IA explicables, us assegureu que els vostres models d'IA siguin explicables i transparents. Podeu gestionar els requisits reglamentaris, de compliment, de riscos i altres requisits alhora que minimitzeu la sobrecàrrega de la inspecció manual. Tot això també ajuda a mitigar el risc de biaixos no desitjats. 
  • Generar confiança: La IA explicable ajuda a establir confiança en la IA de producció. Els models d'IA es poden portar ràpidament a la producció, podeu garantir la interpretació i l'explicabilitat, i el procés d'avaluació del model es pot simplificar i fer més transparent. 

Tècniques per a una IA explicable

Hi ha algunes tècniques XAI que totes les organitzacions haurien de tenir en compte i consten de tres mètodes principals: precisió de la predicció, Traçabilitati comprensió de la decisió

El primer dels tres mètodes, precisió de la predicció, és essencial per utilitzar amb èxit la IA en les operacions quotidianes. Es poden dur a terme simulacions i la sortida XAI es pot comparar amb els resultats del conjunt de dades d'entrenament, cosa que ajuda a determinar la precisió de la predicció. Una de les tècniques més populars per aconseguir-ho s'anomena Local Interpretable Model-Agnostic Explanations (LIME), una tècnica que explica la predicció dels classificadors mitjançant l'algorisme d'aprenentatge automàtic. 

El segon mètode és Traçabilitat, que s'aconsegueix limitant com es poden prendre decisions, així com establir un àmbit més reduït per a les regles i funcions d'aprenentatge automàtic. Una de les tècniques de traçabilitat més habituals és DeepLIFT, o Deep Learning Important FeaTures. DeepLIFT compara l'activació de cada neurona amb la seva neurona de referència alhora que demostra un enllaç traçable entre cada neurona activada. També mostra les dependències entre ells. 

El tercer i últim mètode és comprensió de la decisió, que està centrat en l'ésser humà, a diferència dels altres dos mètodes. La comprensió de decisions implica educar l'organització, específicament l'equip que treballa amb la IA, per permetre'ls entendre com i per què la IA pren decisions. Aquest mètode és crucial per establir confiança en el sistema. 

Principis d'IA explicables

Per proporcionar una millor comprensió de XAI i els seus principis, el National Institute of Standards (NIST), que forma part del Departament de Comerç dels EUA, proporciona definicions per a quatre principis d'IA explicable: 

  1. Un sistema d'IA hauria de proporcionar proves, suport o raonament per a cada sortida. 
  2. Un sistema d'IA hauria de donar explicacions que els seus usuaris puguin entendre. 
  3. L'explicació ha de reflectir amb precisió el procés utilitzat pel sistema per arribar a la seva sortida. 
  4. El sistema d'IA només hauria de funcionar en les condicions per a les quals va ser dissenyat i no hauria de proporcionar sortida quan no tingui prou confiança en el resultat. 

Aquests principis es poden organitzar encara més en: 

  • Significatiu: Per aconseguir el principi de significativitat, l'usuari ha d'entendre l'explicació proporcionada. Això també podria significar que, en el cas d'un algorisme d'IA utilitzat per diferents tipus d'usuaris, hi podria haver diverses explicacions. Per exemple, en el cas d'un cotxe amb conducció autònoma, una explicació podria ser com... "la IA va classificar la bossa de plàstic de la carretera com una roca i, per tant, va prendre mesures per evitar colpejar-la". Tot i que aquest exemple funcionaria per al controlador, no seria molt útil per a un desenvolupador d'IA que busqui corregir el problema. En aquest cas, el desenvolupador ha d'entendre per què hi ha hagut una classificació errònia. 
  • Exactitud de l'explicació: A diferència de la precisió de la sortida, la precisió de l'explicació implica que l'algoritme d'IA explica amb precisió com ha arribat a la seva sortida. Per exemple, si un algorisme d'aprovació de préstecs explica una decisió basada en els ingressos d'una sol·licitud quan, de fet, es basava en el lloc de residència del sol·licitant, l'explicació seria inexacta. 
  • Límits de coneixement: Els límits de coneixement de la IA es poden assolir de dues maneres, i implica que l'entrada estigui fora de l'experiència del sistema. Per exemple, si es construeix un sistema per classificar espècies d'ocells i se li dóna una imatge d'una poma, hauria de poder explicar que l'entrada no és un ocell. Si el sistema té una imatge borrosa, hauria de poder informar que no és capaç d'identificar l'ocell a la imatge o, alternativament, que la seva identificació té una confiança molt baixa. 

El paper de les dades en la IA explicable

Un dels components més importants de la IA explicable són les dades. 

D'acord amb Google, pel que fa a les dades i la IA explicable, "un sistema d'IA s'entén millor per les dades d'entrenament subjacents i el procés d'entrenament, així com pel model d'IA resultant". Aquesta comprensió depèn de la capacitat de mapejar un model d'IA entrenat amb el conjunt de dades exacte utilitzat per entrenar-lo, així com de la capacitat d'examinar les dades de prop. 

Per millorar l'explicabilitat d'un model, és important parar atenció a les dades d'entrenament. Els equips haurien de determinar l'origen de les dades utilitzades per entrenar un algorisme, la legalitat i l'ètica al voltant de la seva obtenció, qualsevol biaix potencial de les dades i què es pot fer per mitigar qualsevol biaix. 

Un altre aspecte crític de les dades i XAI és que s'han d'excloure les dades irrellevants per al sistema. Per aconseguir-ho, les dades irrellevants no s'han d'incloure al conjunt d'entrenament ni a les dades d'entrada. 

Google ha recomanat un conjunt de pràctiques per aconseguir la interpretació i la responsabilitat: 

  • Planifiqueu les vostres opcions per buscar la interpretabilitat
  • Tracta la interpretabilitat com una part fonamental de l'experiència de l'usuari
  • Dissenyar el model perquè sigui interpretable
  • Trieu mètriques per reflectir l'objectiu final i la tasca final
  • Comprendre el model entrenat
  • Comunicar explicacions als usuaris del model
  • Feu moltes proves per assegurar-vos que el sistema d'IA funciona com es preveia 

Seguint aquestes pràctiques recomanades, la vostra organització pot assegurar-se que aconsegueix una IA explicable, que és clau per a qualsevol organització impulsada per IA en l'entorn actual. 

 

Alex McFarland és un periodista i escriptor d'IA que explora els últims desenvolupaments en intel·ligència artificial. Ha col·laborat amb nombroses startups i publicacions d'IA a tot el món.