ciot Explicabilitatea poate aborda problema IA din orice industrie: Lipsa de transparență - Unite.AI
Conectează-te cu noi

Liderii gândirii

Explicabilitatea poate aborda problema IA din orice industrie: Lipsa de transparență

mm

Publicat

 on

De: Migüel Jetté, VP Discurs pentru cercetare și dezvoltare, Rev.

În stadiile sale incipiente, AI poate să fi putut să se odihnească pe laurii noutății. A fost în regulă ca învățarea automată să învețe încet și să mențină un proces opac în care calculul AI este imposibil de pătruns pentru consumatorul mediu. Asta se schimbă. Pe măsură ce mai multe industrii precum asistența medicală, finanțele și sistemul de justiție penală încep să folosească AI în moduri care pot avea un impact real asupra vieții oamenilor, mai mulți oameni doresc să știe cum sunt utilizați algoritmii, cum sunt obținute datele și doar cât de precise sunt capacitățile sale. Dacă companiile doresc să rămână în fruntea inovației pe piețele lor, trebuie să se bazeze pe AI în care publicul lor va avea încredere. Explicabilitatea AI este ingredientul cheie pentru aprofundarea acestei relații.

Explicabilitatea AI diferă de procedurile AI standard, deoarece oferă oamenilor o modalitate de a înțelege modul în care algoritmii de învățare automată creează rezultate. IA explicabilă este un sistem care poate oferi oamenilor rezultate potențiale și neajunsuri. Este un sistem de învățare automată care poate îndeplini dorința umană de corectitudine, responsabilitate și respect pentru confidențialitate. AI explicabilă este esențială pentru companii pentru a construi încrederea consumatorilor.

În timp ce AI se extinde, furnizorii de AI trebuie să înțeleagă că cutia neagră nu poate. Modelele cutiei negre sunt create direct din date și, de multe ori, nici dezvoltatorul care a creat algoritmul nu poate identifica ceea ce a determinat obiceiurile învățate ale mașinii. Dar consumatorul conștiincios nu vrea să se angajeze cu ceva atât de impenetrabil încât să nu poată fi tras la răspundere. Oamenii vor să știe cum un algoritm AI ajunge la un anumit rezultat fără misterul intrării sursă și al ieșirii controlate, mai ales atunci când calculele greșite ale AI se datorează adesea prejudecăților mașinii. Pe măsură ce AI devine mai avansată, oamenii doresc acces la procesul de învățare automată pentru a înțelege cum a ajuns algoritmul la rezultatul său specific. Liderii din fiecare industrie trebuie să înțeleagă că, mai devreme sau mai târziu, oamenii nu vor mai prefera acest acces, ci îl vor cere ca un nivel necesar de transparență.

Sistemele ASR, cum ar fi asistenții cu voce activată, tehnologia de transcriere și alte servicii care convertesc vorbirea umană în text sunt în special afectat de prejudecăți. Atunci când serviciul este utilizat pentru măsuri de siguranță, greșelile datorate accentelor, vârstei sau trecutului unei persoane pot fi greșeli grave, așa că problema trebuie luată în serios. ASR poate fi folosit eficient în camerele corpului de poliție, de exemplu, pentru a înregistra și a transcrie automat interacțiunile - păstrarea unei evidențe care, dacă este transcrisă cu acuratețe, ar putea salva vieți. Practica explicabilității va necesita ca AI să nu se bazeze doar pe seturile de date achiziționate, ci să caute să înțeleagă caracteristicile audio primite care ar putea contribui la erori, dacă există. Care este profilul acustic? Există zgomot în fundal? Vorbitorul este dintr-o țară care nu are în primul rând engleză sau dintr-o generație care folosește un vocabular pe care AI nu l-a învățat încă? Învățarea automată trebuie să fie proactivă în învățare mai rapidă și poate începe prin a colecta date care pot aborda aceste variabile.

Necesitatea devine evidentă, dar calea către implementarea acestei metodologii nu va avea întotdeauna o soluție ușoară. Răspunsul tradițional la problemă este de a adăuga mai multe date, dar va fi necesară o soluție mai sofisticată, mai ales atunci când seturile de date achiziționate pe care multe companii le folosesc sunt părtinitoare în mod inerent. Acest lucru se datorează faptului că din punct de vedere istoric, a fost dificil de explicat o anumită decizie care a fost dată de AI și asta se datorează naturii complexității modelelor end-to-end. Cu toate acestea, acum putem și putem începe prin a întreba cum și-au pierdut oamenii încrederea în AI, în primul rând.

Inevitabil, AI va face greșeli. Companiile trebuie să creeze modele care să fie conștiente de potențialele deficiențe, să identifice când și unde se întâmplă problemele și să creeze soluții continue pentru a construi modele AI mai puternice:

  1. Când ceva nu merge bine, dezvoltatorii vor trebui să explice ce sa întâmplat și elaborați un plan imediat pentru îmbunătățirea modelului pentru a reduce greșelile viitoare, similare.
  2. Pentru ca mașina să știe cu adevărat dacă a fost corect sau greșit, oamenii de știință trebuie să o facă creați o buclă de feedback astfel încât AI să-și poată învăța deficiențele și să evolueze.
  3. O altă modalitate prin care ASR își construiește încrederea în timp ce IA încă se îmbunătățește este aceea creați un sistem care poate oferi scoruri de încredereși oferă motive pentru care AI-ul este mai puțin încrezător. De exemplu, companiile generează de obicei scoruri de la zero la 100 pentru a reflecta imperfecțiunile proprii ale inteligenței artificiale și pentru a stabili transparență față de clienții lor. În viitor, sistemele pot oferi explicații post-hoc pentru ce sunetul a fost provocator, oferind mai multe metadate despre sunet, cum ar fi nivelul de zgomot perceput sau un accent mai puțin înțeles.

O transparență suplimentară va duce la o mai bună supraveghere umană a instruirii și performanței AI. Cu cât suntem mai deschiși cu privire la punctele în care trebuie să ne îmbunătățim, cu atât suntem mai responsabili în a acționa asupra acestor îmbunătățiri. De exemplu, un cercetător poate dori să știe de ce a fost scos textul eronat, astfel încât să poată atenua problema, în timp ce un transcriptor poate dori dovezi cu privire la motivul pentru care ASR a interpretat greșit intrarea pentru a ajuta la evaluarea validității acesteia. Menținerea oamenilor la curent poate atenua unele dintre cele mai evidente probleme care apar atunci când AI nu este verificată. De asemenea, poate accelera timpul necesar pentru ca AI să-și detecteze erorile, să se îmbunătățească și, eventual, să se corecteze în timp real.

AI are capabilitățile de a îmbunătăți viața oamenilor, dar numai dacă oamenii o construiesc pentru a produce în mod corespunzător. Trebuie să tragem la răspundere nu numai aceste sisteme, ci și oamenii din spatele inovației. Se așteaptă ca sistemele AI ale viitorului să adere la principiile expuse de oameni și doar până atunci vom avea un sistem în care oamenii au încredere. Este timpul să punem bazele și să luptăm pentru aceste principii acum, în timp ce, în cele din urmă, oamenii ne slujesc pe noi înșine.

Miguel Jetté este șeful departamentului de cercetare și dezvoltare AI la Rev, o platformă de transcriere vorbire în text care combină AI cu oameni pricepuți. El conduce echipa responsabilă cu dezvoltarea celei mai precise platforme AI de vorbire în text din lume. Pasionat de rezolvarea problemelor complexe în timp ce îmbunătățește viețile, el este dedicat creșterii incluziunii și egalității prin tehnologie. În peste două decenii, a lucrat pentru a implementa tehnologii de voce cu companii precum Nuance Communications și VoiceBox. A obținut un master în matematică și statistică de la Universitatea McGill din Montreal. Când nu promovează comunicarea prin AI, își petrece timpul ca fotograf pentru competiții de alpinism.