ciot Prejudecăți AI și stereotipuri culturale: efecte, limitări și atenuare - Unite.AI
Conectează-te cu noi

Inteligenta Artificiala

Prejudecățile AI și stereotipurile culturale: efecte, limitări și atenuare

mm

Publicat

 on

Prejudecățile AI și stereotipurile culturale: efecte, limitări și atenuare

Inteligenta artificiala (AI), in special AI generativă, continuă să depășească așteptările prin capacitatea sa de a înțelege și imita cunoașterea și inteligența umană. Cu toate acestea, în multe cazuri, rezultatele sau predicțiile sistemelor AI pot reflecta diferite tipuri de prejudecăți AI, cum ar fi culturale și rasiale.

Buzzfeed-ul „Barbies din lume” blogul (care acum este șters) manifestă clar aceste părtiniri culturale și inexactități. Aceste „barbi” au fost create folosind Mijlocul călătoriei – un generator de imagini AI de top, pentru a afla cum ar arăta barbies în fiecare parte a lumii. Vom vorbi mai multe despre asta mai târziu.

Dar aceasta nu este prima dată când AI este „rasist” sau a produs rezultate inexacte. De exemplu, în 2022, Apple a fost dat în judecată din cauza acuzațiilor că senzorul de oxigen din sânge al Apple Watch a fost părtinitor împotriva persoanelor de culoare. Într-un alt caz raportat, utilizatorii Twitter au descoperit asta AI de decupare automată a imaginilor de la Twitter a favorizat chipurile oamenilor albi în detrimentul celor de culoare și ale femeilor în detrimentul bărbaților. Acestea sunt provocări critice, iar abordarea lor este o provocare semnificativă.

În acest articol, vom analiza ce este părtinirea AI, cum afectează aceasta societatea noastră și vom discuta pe scurt despre modul în care practicienii pot diminua pentru a aborda provocări precum stereotipurile culturale.

Ce este AI Bias?

Prejudecățile AI apare atunci când modelele AI produc rezultate discriminatorii împotriva anumitor categorii demografice. Mai multe tipuri de părtiniri pot pătrunde în sistemele AI și pot produce rezultate incorecte. Unele dintre aceste prejudecăți ale AI sunt:

  • Bias stereotip: Prejudecățile stereotipe se referă la fenomenul în care rezultatele unui model AI constau în stereotipuri sau noțiuni percepute despre o anumită demografie.
  • Prejudecăți rasiale: Prejudecățile rasiale în IA se întâmplă atunci când rezultatul unui model de IA este discriminatoriu și inechitabil față de un individ sau un grup, în funcție de etnia sau rasa sa.
  • Prejudecăți culturale: Prejudecățile culturale intră în joc atunci când rezultatele unui model AI favorizează o anumită cultură față de alta.

În afară de părtiniri, alte probleme pot împiedica, de asemenea, rezultatele unui sistem AI, cum ar fi:

  • Inexactități: Inexactitățile apar atunci când rezultatele produse de un model AI sunt incorecte din cauza datelor de antrenament inconsecvente.
  • Halucinații: Halucinațiile apar atunci când modelele AI produc rezultate fictive și false care nu se bazează pe date faptice.

Impactul AI Bias asupra societății

Impactul părtinirii AI asupra societății poate fi dăunător. Sistemele AI părtinitoare pot produce rezultate inexacte care amplifică prejudecățile existente deja în societate. Aceste rezultate pot crește discriminarea și încălcarea drepturilor, pot afecta procesele de angajare și pot reduce încrederea în tehnologia AI.

De asemenea, rezultatele părtinitoare ale AI conduc adesea la predicții inexacte care pot avea consecințe grave pentru indivizi nevinovați. De exemplu, în august 2020, Robert McDaniel a devenit ținta unui act criminal din cauza algoritmului de poliție predictiv al Departamentului de Poliție din Chicago, care îl eticheta drept „persoană de interes”.

În mod similar, sistemele IA părtinitoare de asistență medicală pot avea rezultate acute pentru pacient. În 2019, Ştiinţă a descoperit că un utilizat pe scară largă algoritm medical american a fost părtinitoare din punct de vedere rasial împotriva persoanelor de culoare, ceea ce a dus la pacienții de culoare neagră să beneficieze de un management de îngrijire mai puțin cu risc ridicat.

Barbies din lume

În iulie 2023, Buzzfeed a publicat un blog cuprinzând 194 de barbii generate de AI din întreaga lume. Postarea a devenit virală pe Twitter. Deși Buzzfeed a scris o declarație de declinare a răspunderii, aceasta nu i-a împiedicat pe internauți să sublinieze inexactitățile rasiale și culturale. De exemplu, imaginea generată de inteligență artificială a lui Barbie germană purta uniforma lui a SS nazist generală.

Barbies of the World-imagine5

În mod similar, imaginea generată de inteligență artificială a unei Barbie din Sudanul de Sud a fost prezentată ținând o armă lângă ea, reflectând părtinirea adânc înrădăcinată în algoritmii AI.

Barbies of the World-imagine4

În afară de aceasta, alte câteva imagini au arătat inexactități culturale, cum ar fi Barbie Qatar purtând a Ghutra, o coafură tradițională purtată de bărbații arabi.

Barbies of the World-imagine3

Această postare pe blog a primit o reacție masivă pentru stereotipuri culturale și părtiniri. The London Interdisciplinary School (LIS) a spus asta prejudiciu reprezentativ care trebuie ținute sub control prin impunerea unor standarde de calitate și prin stabilirea de organisme de supraveghere a IA.

Limitările modelelor AI

AI are potențialul revoluționează multe industrii. Dar, dacă scenarii precum cele menționate mai sus proliferează, poate duce la o scădere a adoptării generale a AI, ceea ce duce la oportunități ratate. Astfel de cazuri apar de obicei din cauza limitărilor semnificative ale sistemelor AI, cum ar fi:

  • Lipsa de creativitate: Deoarece AI poate lua decizii numai pe baza datelor de antrenament date, îi lipsește creativitatea de a gândi în afara cutiei, ceea ce împiedică rezolvarea creativă a problemelor.
  • Lipsa înțelegerii contextuale: Sistemele AI întâmpină dificultăți în înțelegerea nuanțelor contextuale sau a expresiilor lingvistice ale unei regiuni, ceea ce duce adesea la erori în rezultate.
  • Prejudecata la antrenament: AI se bazează pe date istorice care pot conține tot felul de mostre discriminatorii. În timpul antrenamentului, modelul poate învăța cu ușurință modele discriminatorii pentru a produce rezultate nedrepte și părtinitoare.

Cum să reduceți părtinirea în modelele AI

Experții estima că până în 2026, 90% din conținutul online ar putea fi generat sintetic. Prin urmare, este vital să se minimizeze rapid problemele prezente în tehnologiile AI generative.

Pot fi implementate mai multe strategii cheie pentru a reduce părtinirea modelelor AI. Unele dintre acestea sunt:

  • Asigurați calitatea datelor: Ingerarea datelor complete, precise și curate într-un model AI poate ajuta la reducerea părtinirii și la producerea de rezultate mai precise.
  • Seturi de date diverse: Introducerea diferitelor seturi de date într-un sistem AI poate ajuta la atenuarea părtinirii, pe măsură ce sistemul AI devine mai incluziv în timp.
  • Reglementări sporite: Reglementările globale privind IA sunt cruciale pentru menținerea calității sistemelor AI dincolo de frontiere. Prin urmare, organizațiile internaționale trebuie să lucreze împreună pentru a asigura standardizarea AI.
  • Adoptarea sporită a IA responsabilă: Strategiile responsabile de AI contribuie pozitiv la atenuarea părtinirii AI, cultivând corectitudinea și acuratețea sistemelor AI și asigurându-se că acestea servesc unei baze de utilizatori diverse, în timp ce se străduiesc pentru îmbunătățirea continuă.

Încorporând diverse seturi de date, responsabilitate etică și medii de comunicare deschise, ne putem asigura că AI este o sursă de schimbare pozitivă la nivel mondial.

Dacă doriți să aflați mai multe despre părtinire și rolul inteligenței artificiale în societatea noastră, citiți următoarele bloguri.