taló Els investigadors d'IA proposen posar recompenses al biaix de la IA per fer que la IA sigui més ètica - Unite.AI
Connecteu-vos amb nosaltres

ètica

Els investigadors d'IA proposen posar recompenses al biaix de la IA per fer que la IA sigui més ètica

mm

publicat

 on

Un equip d'investigadors d'IA d'empreses i laboratoris de desenvolupament d'IA com Intel, Google Brain i OpenAI ha recomanat l'ús de recompenses per ajudar a garantir l'ús ètic de la IA. L'equip d'investigadors va publicar recentment una sèrie de propostes sobre l'ús ètic de la IA i van incloure un suggeriment que recompensar les persones per descobrir biaixos en la IA podria ser una manera eficaç de fer que la IA sigui més justa.

Tal com informa VentureBeat, investigadors de diverses empreses dels Estats Units i Europa es van unir per elaborar un conjunt de directrius ètiques per al desenvolupament de la IA, així com suggeriments sobre com complir les directrius. Un dels suggeriments que van fer els investigadors va ser oferir recompenses als desenvolupadors que troben biaix als programes d'IA. El suggeriment es va fer en un document titulat "Cap a un desenvolupament d'IA fiable: mecanismes per donar suport a les reclamacions verificables".

Com a exemples dels biaixos que l'equip d'investigadors espera abordar, s'han trobat dades i algorismes esbiaixats en tot, des d'aplicacions sanitàries fins a sistemes de reconeixement facial utilitzats per les forces de l'ordre. Un d'aquests casos de biaix és l'eina d'avaluació de riscos PATTERN que va ser usada recentment pel Departament de Justícia dels EUA per classificar els presos i decidir quins es podrien enviar a casa quan es redueixi la mida de la població de les presons en resposta a la pandèmia de coronavirus.

La pràctica de recompensar els desenvolupadors per trobar comportaments no desitjats en programes informàtics és un vell, però aquesta podria ser la primera vegada que un consell d'ètica de la IA ha avançat seriosament la idea com a opció per combatre el biaix de la IA. Tot i que és poc probable que hi hagi prou desenvolupadors d'IA per trobar prou biaixos perquè la IA es pugui garantir ètica, encara ajudaria a les empreses a reduir el biaix general i a tenir una idea de quins tipus de biaix s'estan filtrant als seus sistemes d'IA.

Els autors del document van explicar que el concepte de recompensa d'errors es pot estendre a la IA amb l'ús de biaix i recompenses de seguretat i que l'ús adequat d'aquesta tècnica podria conduir a conjunts de dades i models millor documentats. La documentació reflectiria millor les limitacions tant del model com de les dades. Els investigadors fins i tot assenyalen que la mateixa idea es podria aplicar a altres propietats d'IA com la interpretabilitat, la seguretat i la protecció de la privadesa.

A mesura que es debat cada cop més sobre els principis ètics de la IA, molts han observat que els principis per si sols no són suficients i que s'han de prendre accions per mantenir l'ètica de la IA. Els autors del document assenyalen que "les regulacions i normes existents a la indústria i l'acadèmia són insuficients per garantir un desenvolupament responsable de l'IA". El cofundador de Google Brain i el líder de la indústria d'IA Andrew Ng també opinat que només els principis rectors no tenen la capacitat de garantir que la IA s'utilitzi de manera responsable i justa, dient que molts d'ells han de ser més explícits i tenir idees accionables.

La recomanació de caça de recompenses biaix de l'equip de recerca combinat és un intent d'anar més enllà dels principis ètics cap a una àrea d'acció ètica. L'equip d'investigació també va fer una sèrie d'altres recomanacions que podrien estimular l'acció ètica en el camp de la IA.

L'equip d'investigació va fer una sèrie d'altres recomanacions que les empreses poden seguir per fer que el seu ús d'IA sigui més ètic. Suggereixen que s'hauria de crear una base de dades centralitzada d'incidents d'IA i compartir-la entre la comunitat d'IA més àmplia. De la mateixa manera, els investigadors proposen que s'hauria d'establir una pista d'auditoria i que aquestes pistes preservissin informació sobre la creació i el desplegament d'aplicacions crítiques per a la seguretat a les plataformes d'IA.

Per tal de preservar la privadesa de les persones, l'equip d'investigació va suggerir que s'haurien d'utilitzar tècniques centrades en la privadesa com les comunicacions xifrades, l'aprenentatge federat i la privadesa diferencial. Més enllà d'això, l'equip d'investigació va suggerir que les alternatives de codi obert s'haurien de fer àmpliament disponibles i que els models comercials d'IA s'haurien de revisar amb profunditat. Finalment, l'equip d'investigació suggereix que s'augmenti el finançament del govern perquè els investigadors acadèmics puguin verificar les afirmacions de rendiment del maquinari.