Tanke ledare
Avslöja fördomar i artificiell intelligens: utmaningar och lösningar

Den senaste tidens framsteg av generativ AI har sett en Ätföljande boom i företagsapplikationer över branscher, inklusive finans, hÀlsovÄrd, transport. Utvecklingen av denna teknik kommer ocksÄ att leda till annan framvÀxande teknik som försvarsteknik för cybersÀkerhet, framsteg inom kvantberÀkning och banbrytande trÄdlös kommunikationsteknik. Men denna explosion av nÀsta generations teknik kommer med sina egna utmaningar.
Till exempel kan antagandet av AI möjliggöra mer sofistikerade cyberattacker, minnes- och lagringsflaskhalsar pÄ grund av den ökade berÀkningskraften och etiska problem med fördomar som presenteras av AI-modeller. Den goda nyheten Àr att NTT Research har föreslagit ett sÀtt att övervinna fördomar i djupa neurala nÀtverk (DNN), en typ av artificiell intelligens.
Denna forskning Àr ett betydande genombrott med tanke pÄ att icke-partiska AI-modeller kommer att bidra till anstÀllningar, rÀttsvÀsendet och hÀlso- och sjukvÄrden nÀr de inte pÄverkas av egenskaper som ras och kön. I framtiden har diskriminering potential att elimineras genom att anvÀnda den hÀr typen av automatiserade system, vilket förbÀttrar branschövergripande affÀrsinitiativ inom DE&I. Slutligen kommer AI-modeller med icke-partiska resultat att förbÀttra produktiviteten och minska den tid det tar att slutföra dessa uppgifter. Emellertid har fÄ företag tvingats stoppa sina AI-genererade program pÄ grund av teknikens partiska lösningar.
Till exempel, Amazon avbröt anvĂ€ndningen av en anstĂ€llningsalgoritm nĂ€r den upptĂ€ckte att algoritmen visade en preferens för sökande som anvĂ€nde ord som âexecutedâ eller âcapturedâ oftare, vilka var mer förekommande i mĂ€ns CV. Ett annat uppenbart exempel pĂ„ partiskhet kommer frĂ„n Joy Buolamwini, en av de mest inflytelserika personerna inom AI Ă„r 2023 enligt TID, i samarbete med Timnit Gebru vid MIT, avslöjade att ansiktsanalystekniker visade högre felfrekvens vid bedömning av minoriteter, sĂ€rskilt minoritetskvinnor, potentiellt pĂ„ grund av otillrĂ€ckligt representativa trĂ€ningsdata.
Nyligen har DNN:er blivit genomgÄende inom vetenskap, teknik och affÀrer, och till och med i populÀra tillÀmpningar, men de förlitar sig ibland pÄ falska attribut som kan förmedla partiskhet. Enligt en MIT-studie Under de senaste Ären har forskare utvecklat djupa neurala nÀtverk som kan analysera stora mÀngder indata, inklusive ljud och bilder. Dessa nÀtverk kan identifiera delade egenskaper, vilket gör det möjligt för dem att klassificera mÄlord eller objekt. FrÄn och med nu stÄr dessa modeller i framkant av fÀltet som de primÀra modellerna för att replikera biologiska sensoriska system.
NTT Research Senior Scientist och Associate vid Harvard University Center for Brain Science Hidenori Tanaka och tre andra forskare föreslog att man skulle övervinna begrÀnsningarna av naiv finjustering, status quo-metoden för att minska en DNN:s fel eller "förlust", med en ny algoritm som minskar en modells beroende av bias-benÀgna attribut.
De studerade neurala nÀtverks förlustlandskap genom linsen för lÀgesanslutning, observationen att minimerare av neurala nÀtverk hÀmtade via trÀning pÄ en datauppsÀttning Àr anslutna via enkla vÀgar med lÄg förlust. Specifikt stÀllde de följande frÄga: Àr minimerare som förlitar sig pÄ olika mekanismer för att göra sina förutsÀgelser kopplade via enkla vÀgar med lÄg förlust?
De upptÀckte att naiv finjustering inte i grunden kan förÀndra beslutsmekanismen för en modell eftersom den krÀver att flytta till en annan dal i förlustlandskapet. IstÀllet mÄste du köra modellen över barriÀrerna som separerar "sÀnkorna" eller "dalarna" med lÄg förlust. Författarna kallar denna korrigerande algoritm för Connectivity-Based Fine-Tuning (CBFT).
Före denna utveckling anvÀnde en DNN, som klassificerar bilder som en fisk (en illustration som anvÀnds i denna studie) bÄde objektets form och bakgrund som indataparametrar för förutsÀgelse. Dess förlustminimerande vÀgar skulle dÀrför fungera i mekanistiskt olika lÀgen: en förlitar sig pÄ den legitima egenskapen form och den andra pÄ den falska egenskapen bakgrundsfÀrg. Som sÄdana skulle dessa lÀgen sakna linjÀr anslutning, eller en enkel vÀg med lÄg förlust.
Forskargruppen förstÄr mekanistisk lins pÄ lÀgesanslutning genom att övervÀga tvÄ uppsÀttningar parametrar som minimerar förlusten med hjÀlp av bakgrunder och objektformer som inmatningsattribut för förutsÀgelse, respektive. Och sedan frÄgade sig sjÀlva, Àr sÄdana mekanistiskt olika minimerare anslutna via vÀgar med lÄg förlust i landskapet? PÄverkar olikheten mellan dessa mekanismer enkelheten i deras anslutningsvÀgar? Kan vi utnyttja denna anslutning för att vÀxla mellan minimerare som anvÀnder vÄra önskade mekanismer?
Med andra ord kan djupa neurala nĂ€tverk, beroende pĂ„ vad de har lĂ€rt sig under trĂ€ning pĂ„ en viss datamĂ€ngd, bete sig vĂ€ldigt olika nĂ€r man testar dem pĂ„ en annan datamĂ€ngd. Teamets förslag kokade ner till konceptet med delade likheter. Det bygger pĂ„ den tidigare idĂ©n om lĂ€geskonnektivitet men med en twist â det undersöker hur liknande mekanismer fungerar. Deras forskning ledde till följande ögonöppnande upptĂ€ckter:
- minimerare som har olika mekanismer kan kopplas ihop pÄ ett ganska komplext, icke-linjÀrt sÀtt
- NÀr tvÄ minimerare Àr linjÀrt kopplade Àr det nÀra kopplat till hur lika deras modeller Àr vad gÀller mekanismer.
- enkel finjustering kanske inte rÀcker för att bli av med oönskade funktioner som plockats upp under tidigare trÀning
- Om du hittar regioner som Àr linjÀrt frÄnkopplade i landskapet kan du göra effektiva Àndringar i en modells interna funktioner.
Ăven om den hĂ€r forskningen Ă€r ett stort steg för att utnyttja AIs fulla potential, kan de etiska farhĂ„gorna kring AI fortfarande vara en kamp uppĂ„t. Teknologer och forskare arbetar för att bekĂ€mpa andra etiska svagheter i AI och andra stora sprĂ„kmodeller som integritet, autonomi, ansvar.
AI kan anvÀndas för att samla in och behandla stora mÀngder personuppgifter. Obehörig eller oetisk anvÀndning av dessa uppgifter kan Àventyra individers integritet, vilket leder till oro för övervakning, dataintrÄng och identitetsstöld. AI kan ocksÄ utgöra ett hot nÀr det gÀller ansvaret för deras autonoma applikationer, sÄsom sjÀlvkörande bilar. Att etablera rÀttsliga ramar och etiska standarder för ansvarsskyldighet och ansvarsskyldighet kommer att vara avgörande under de kommande Ären.
Sammanfattningsvis Àr den snabba tillvÀxten av generativ AI-teknik lovande för olika branscher, frÄn finans och hÀlsovÄrd till transport. Trots denna lovande utveckling Àr de etiska farhÄgorna kring AI fortfarande betydande. NÀr vi navigerar i denna omvÀlvande era av AI Àr det viktigt för teknologer, forskare och beslutsfattare att arbeta tillsammans för att upprÀtta rÀttsliga ramar och etiska standarder som kommer att sÀkerstÀlla en ansvarsfull och fördelaktig anvÀndning av AI-teknik under de kommande Ären. Forskare vid NTT Research och University of Michigan ligger ett steg före spelet med sitt förslag till en algoritm som potentiellt skulle kunna eliminera fördomar i AI.