Conectează-te cu noi

AI 101

Ce este IA responsabilă? Principii, provocări și beneficii

mm
O persoană care ține globul în mâini în timp ce stă pe câmp.

AI responsabilă (RAI) se referă la proiectarea și implementarea sistemelor de inteligență artificială care sunt transparente, impartiale, responsabile și care urmează liniile directoare etice. Pe măsură ce sistemele de inteligență artificială devin mai robuste și mai răspândite, este esențial să se asigure că sunt dezvoltate în mod responsabil și respectarea liniilor directoare etice și de siguranță.

Sănătatea, transportul, managementul rețelei și supravegherea sunt aplicații AI critice pentru siguranță unde defecțiunea sistemului poate avea consecințe grave. Marile firme sunt conștiente de faptul că RAI este esențială pentru atenuarea riscurilor tehnologice. Cu toate acestea, conform unui raport MIT Sloan/BCG care a inclus 1093 de respondenți, 54% dintre companii le lipseau expertiza și talentul în domeniul IA responsabil.

Deși liderii de gândire și organizațiile au dezvoltat principii pentru AI responsabilă, asigurarea dezvoltării responsabile a sistemelor AI încă prezintă provocări. Să explorăm această idee în detaliu:

5 Principii pentru IA responsabilă

1. Corectitudine

Tehnologii ar trebui să elaboreze proceduri astfel încât sistemele AI să trateze toți indivizii și grupurile în mod corect, fără părtinire. Prin urmare, corectitudinea este cerința principală în aplicațiile de luare a deciziilor cu risc ridicat.

Cinste este definit ca:

„Examinarea impactului asupra diferitelor grupuri demografice și alegerea uneia dintre mai multe definiții matematice ale corectitudinii grupului care vor satisface în mod adecvat setul dorit de cerințe legale, culturale și etice.”

2. Responsabilitate

Responsabilitatea înseamnă că indivizii și organizațiile care dezvoltă și implementează sisteme AI ar trebui să fie responsabile pentru deciziile și acțiunile lor. Echipa care implementează sisteme AI ar trebui să se asigure că sistemul lor AI este transparent, interpretabil, auditabil și nu dăunează societății.

Responsabilitatea include Șapte componente:

  1. Context (scopul pentru care este necesară responsabilitatea)
  2. Interval (subiect de responsabilitate)
  3. Agent (cine este responsabil?)
  4. Forum (căruia trebuie să raporteze partea responsabilă)
  5. Standarde (criterii de responsabilitate)
  6. Proces (metoda de responsabilitate)
  7. Implicații (consecințele responsabilității)

3. Transparența

Transparența înseamnă că motivul din spatele luării deciziilor în sistemele AI este clar și de înțeles. Sistemele AI transparente sunt explicabile.

În conformitate cu Lista de evaluare pentru inteligența artificială de încredere (ALTAI), transparența are trei elemente cheie:

  1. Trasabilitate (datele, pașii de preprocesare și modelul sunt accesibile)
  2. Explicabilitate (raționamentul din spatele luării deciziilor/predicției este clar)
  3. Comunicare deschisă (cu privire la limitarea sistemului AI)

4. intimitate

Confidențialitatea este unul dintre principiile principale ale IA responsabilă. Se referă la protecția informațiilor personale. Acest principiu asigură că informațiile personale ale oamenilor sunt colectate și procesate cu consimțământ și păstrate departe de mâinile nemulțumiților.

După cum sa dovedit recent, a existat un caz al Clearview, o companie care realizează modele de recunoaștere facială pentru forțele de ordine și universități. organele de supraveghere a datelor din Marea Britanie a dat în judecată Clearview AI pentru 7.5 milioane de lire sterline pentru colectarea de imagini cu rezidenții din Regatul Unit de pe rețelele sociale fără consimțământ pentru a crea o bază de date de 20 de miliarde de imagini.

5. Securitate

Securitatea înseamnă asigurarea faptului că sistemele AI sunt sigure și nu amenință societatea. Un exemplu de amenințare de securitate AI este atacuri adverse. Aceste atacuri rău intenționate păcălesc modelele ML să ia decizii incorecte. Protejarea sistemelor AI de atacurile cibernetice este imperativă pentru AI responsabilă.

4 provocări majore și riscuri ale IA responsabilă

1. Părtinire

Prejudecățile umane legate de vârstă, sex, naționalitate și rasă pot avea un impact asupra colectării de date, ceea ce poate duce la modele AI părtinitoare. Studiu Departamentul de Comerț al SUA a descoperit că recunoașterea facială AI identifică greșit persoanele de culoare. Prin urmare, utilizarea AI pentru recunoașterea facială în forțele de ordine poate duce la arestări pe nedrept. De asemenea, realizarea de modele AI corecte este o provocare, deoarece există 21 parametri diferiți pentru a le defini. Deci, există un compromis; satisfacerea unui parametru AI corect înseamnă sacrificarea altuia.

2. Interpretabilitate

Interpretabilitatea este o provocare critică în dezvoltarea IA responsabilă. Se referă la înțelegerea modului în care modelul de învățare automată a ajuns la o anumită concluzie.

Rețelele neuronale profunde nu sunt interpretabile, deoarece funcționează ca cutii negre cu mai multe straturi de neuroni ascunși, ceea ce face dificilă înțelegerea procesului de luare a deciziilor. Aceasta poate fi o provocare în luarea deciziilor cu mize mari, cum ar fi asistența medicală, finanțele etc.

Mai mult, formalizarea interpretabilității în modelele ML este o provocare, deoarece este subiectiv și specifice domeniului.

3. Guvernare

Guvernanța se referă la un set de reguli, politici și proceduri care supraveghează dezvoltarea și implementarea sistemelor AI. Recent, s-au înregistrat progrese semnificative în discursul guvernanței AI, organizațiile prezentând cadre și orientări etice.

Orientări de etică pentru IA de încredere de către UECadrul australian de etică AI și Principiile OCDE AI sunt exemple de cadre de guvernare AI.

Dar progresul rapid în AI din ultimii ani poate depăși aceste cadre de guvernare AI. În acest scop, trebuie să existe un cadru care evaluează corectitudinea, interpretabilitatea și etica sistemelor AI.

4. Regulament

Pe măsură ce sistemele AI devin tot mai răspândite, trebuie să existe o reglementare care să ia în considerare valorile etice și societale. Elaborarea de reglementări care nu înăbușă inovația AI este o provocare critică în IA responsabilă.

Chiar și cu Regulamentul general privind protecția datelor (GDPR), Legea privind confidențialitatea consumatorilor din California (CCPA) și Legea privind protecția informațiilor personale (PIPL) ca organisme de reglementare, cercetătorii AI au descoperit că 97% dintre site-urile web ale UE nu respectă cerințele cadrului legal GDPR.

Mai mult, legiuitorii se confruntă cu a provocare semnificativă pentru a ajunge la un consens cu privire la definiția AI care include atât sistemele AI clasice, cât și cele mai recente aplicații AI.

3 Beneficii majore ale IA responsabilă

1. Prejudiciu redus

AI responsabilă reduce părtinirea în procesele de luare a deciziilor, construind încrederea în sistemele AI. Reducerea părtinirii în sistemele AI poate oferi un sistem de sănătate corect și echitabil și reduce părtinirea în sistemele bazate pe IA. Servicii financiare etc

2. Transparență sporită

AI responsabil face aplicații AI transparente care construiesc încredere în sistemele AI. Sisteme AI transparente reduce riscul de eroare și utilizare necorespunzătoare. Transparența sporită facilitează auditarea sistemelor AI, câștigă încrederea părților interesate și poate duce la sisteme AI responsabile.

3. O mai bună securitate

Aplicațiile AI securizate asigură confidențialitatea datelor, produc rezultate de încredere și inofensive și sunt ferite de atacuri cibernetice.

Giganții tehnologiei ca Microsoft și Google, care sunt în fruntea dezvoltării sistemelor AI, au dezvoltat principii AI responsabilă. AI responsabilă asigură că inovația în IA nu dăunează indivizilor și societății.

Liderii de gândire, cercetătorii, organizațiile și autoritățile juridice ar trebui să revizuiască în mod continuu literatura responsabilă AI pentru a asigura un viitor sigur pentru inovarea AI.

Pentru mai mult conținut legat de AI, vizitați uniţi.ai.