taló Què és la IA responsable? Principis, reptes i beneficis - Unite.AI
Connecteu-vos amb nosaltres
Classe magistral d'IA:

IA 101

Què és la IA responsable? Principis, reptes i beneficis

mm
actualitzat on
Una persona que subjecta el globus terraqüi a les mans mentre està dempeus als camps.

IA responsable (RAI) es refereix a dissenyar i desplegar sistemes d'IA que siguin transparents, imparcials, responsables i que segueixin directrius ètiques. A mesura que els sistemes d'IA es tornen més robusts i prevalents, és essencial garantir que es desenvolupin de manera responsable i seguint les directrius ètiques i de seguretat.

Salut, transport, gestió de xarxes i vigilància són aplicacions d'IA crítiques per a la seguretat on la fallada del sistema pot tenir conseqüències greus. Les grans empreses són conscients que la RAI és essencial per mitigar els riscos tecnològics. No obstant això, segons un informe del MIT Sloan/BCG que incloïa 1093 enquestats, 54% de les empreses no tenien experiència ni talent en IA responsable.

Tot i que els líders de pensament i les organitzacions han desenvolupat principis per a una IA responsable, garantir el desenvolupament responsable dels sistemes d'IA encara presenta reptes. Explorem aquesta idea en detall:

5 principis per a una IA responsable

1. Equitat

Els tecnòlegs haurien de dissenyar procediments perquè els sistemes d'IA tracten tots els individus i grups de manera justa i sense prejudicis. Per tant, l'equitat és el requisit principal en les aplicacions de presa de decisions d'alt risc.

justícia es defineix com:

"Examinant l'impacte en diversos grups demogràfics i escollint una de les diverses definicions matemàtiques de l'equitat del grup que satisfarà adequadament el conjunt desitjat de requisits legals, culturals i ètics".

2. Responsabilitat

La rendició de comptes significa que les persones i les organitzacions que desenvolupen i despleguen sistemes d'IA han de ser responsables de les seves decisions i accions. L'equip que desplega sistemes d'IA ha de garantir que el seu sistema d'IA sigui transparent, interpretable, auditable i no perjudiqui la societat.

La responsabilitat inclou 07:00 components:

  1. Context (propòsit per al qual es requereix responsabilitat)
  2. Interval (assumpte de responsabilitat)
  3. Agent (qui és responsable?)
  4. Fòrum (a qui ha d'informar el responsable)
  5. Estàndards (criteris de responsabilitat)
  6. Procés (mètode de responsabilitat)
  7. Implicacions (conseqüències de la responsabilitat)

3 Transparència

La transparència significa que el motiu de la presa de decisions en els sistemes d'IA és clar i comprensible. Els sistemes d'IA transparents són explicables.

D'acord amb Llista d'avaluació per a la intel·ligència artificial fiable (ALTAI), la transparència té tres elements clau:

  1. Traçabilitat (les dades, els passos de preprocessament i el model són accessibles)
  2. Explicabilitat (el raonament de la presa de decisions/predicció és clar)
  3. Comunicació oberta (referent a la limitació del sistema d'IA)

4. Privadesa

La privadesa és un dels principis principals de la IA responsable. Es refereix a la protecció de la informació personal. Aquest principi garanteix que la informació personal de les persones es reculli i es processi amb consentiment i que es mantingui fora de les mans dels malcontents.

Com es va evidenciar recentment, hi va haver un cas de Clearview, una empresa que fa models de reconeixement facial per a les forces de l'ordre i les universitats. Els vigilants de dades del Regne Unit va demandar Clearview AI per 7.5 milions de £ per recopilar imatges de residents del Regne Unit de les xarxes socials sense consentiment per crear una base de dades de 20 milions d'imatges.

5. Seguretat

Seguretat significa garantir que els sistemes d'IA siguin segurs i no amenacen la societat. Un exemple d'amenaça de seguretat de la IA és atacs adversaris. Aquests atacs maliciosos enganyen els models ML perquè prenguin decisions incorrectes. És imprescindible protegir els sistemes d'IA dels ciberatacs per a una IA responsable.

4 reptes i riscos principals d'una IA responsable

1. Biaix

Els biaixos humans relacionats amb l'edat, el gènere, la nacionalitat i la raça poden afectar la recollida de dades, i poden provocar models d'IA esbiaixats. Estudi del Departament de Comerç dels EUA va trobar que la IA de reconeixement facial identifica erròniament les persones de color. Per tant, l'ús de la IA per al reconeixement facial en l'aplicació de la llei pot provocar detencions il·lícites. A més, fer models d'IA justos és un repte perquè n'hi ha 21 diferents paràmetres per definir-los. Per tant, hi ha una compensació; satisfer un paràmetre d'IA just significa sacrificar-ne un altre.

2. Interpretabilitat

La interpretabilitat és un repte crític per desenvolupar una IA responsable. Es refereix a comprendre com el model d'aprenentatge automàtic ha arribat a una conclusió particular.

Les xarxes neuronals profundes no tenen interpretabilitat perquè funcionen com a caixes negres amb múltiples capes de neurones amagades, cosa que dificulta la comprensió del procés de presa de decisions. Això pot ser un repte en la presa de decisions d'alt risc com ara la sanitat, les finances, etc.

A més, formalitzar la interpretabilitat en models de ML és un repte perquè ho és subjectiuespecífic del domini.

3. Governança

El govern fa referència a un conjunt de regles, polítiques i procediments que supervisen el desenvolupament i el desplegament dels sistemes d'IA. Recentment, hi ha hagut un avenç significatiu en el discurs de govern de la IA, amb organitzacions que presenten marcs i directrius ètiques.

Pautes ètiques per IA fiable per part de la UEMarc d'ètica d'IA australiàPrincipis d'IA de l'OCDE són exemples de marcs de govern de la IA.

Però el ràpid avenç de la IA en els darrers anys pot superar aquests marcs de govern de la IA. Per a això, cal que hi hagi un marc que avaluï l'equitat, la interpretabilitat i l'ètica dels sistemes d'IA.

4. Regulació

A mesura que els sistemes d'IA es fan més prevalents, cal que hi hagi una regulació per tenir en compte els valors ètics i socials. Desenvolupar una regulació que no sufoqui la innovació en IA és un repte crític en IA responsable.

Fins i tot amb el Reglament general de protecció de dades (GDPR), la Llei de privadesa del consumidor de Califòrnia (CCPA) i la Llei de protecció de la informació personal (PIPL) com a òrgans reguladors, els investigadors d'IA van trobar que 97% dels llocs web de la UE no compleixen els requisits del marc legal del GDPR.

A més, els legisladors s'enfronten a a repte important per arribar a un consens sobre la definició d'IA que inclou tant els sistemes clàssics d'IA com les últimes aplicacions d'IA.

3 avantatges principals de la IA responsable

1. Biaix reduït

La IA responsable redueix el biaix en els processos de presa de decisions, generant confiança en els sistemes d'IA. La reducció del biaix en els sistemes d'IA pot proporcionar un sistema sanitari just i equitatiu i redueix el biaix en els sistemes d'IA. serveis financers etcètera...

2. Transparència millorada

La IA responsable fa aplicacions d'IA transparents que generen confiança en els sistemes d'IA. Sistemes d'IA transparents reduir el risc d'error i mal ús. La transparència millorada facilita l'auditoria dels sistemes d'IA, guanya la confiança de les parts interessades i pot conduir a sistemes d'IA responsables.

3. Millor seguretat

Les aplicacions d'IA segures garanteixen la privadesa de les dades, produeixen resultats fiables i inofensius i estan protegits dels ciberatacs.

Els gegants tecnològics com MicrosoftGoogle, que estan a l'avantguarda del desenvolupament de sistemes d'IA, han desenvolupat principis d'IA responsable. La IA responsable garanteix que la innovació en IA no sigui perjudicial per a les persones i la societat.

Els líders de pensament, els investigadors, les organitzacions i les autoritats legals haurien de revisar contínuament la literatura responsable d'IA per garantir un futur segur per a la innovació en IA.

Per obtenir més contingut relacionat amb la IA, visiteu unir.ai.