škrbina Kako človeška pristranskost spodkopava rešitve, ki podpirajo umetno inteligenco - Unite.AI
Povežite se z nami

Voditelji misli

Kako človeška pristranskost spodkopava rešitve, ki podpirajo AI

mm

objavljeno

 on

Septembra lani so svetovni voditelji, kot so Elon Musk, Mark Zuckerberg in Sam Altman, izvršni direktor OpenAI, zbrani v Washingtonu DC z namenom razprave na eni strani o tem, kako lahko javni in zasebni sektor sodelujeta pri izkoriščanju te tehnologije za širše dobro, na drugi strani pa za obravnavanje regulacije, vprašanja, ki je ostalo v ospredju pogovorov okoliški AI.

Oba pogovora pogosto vodita na isto mesto. Vse večji poudarek je na tem, ali lahko naredimo umetno inteligenco bolj etično, pri čemer ocenjujemo umetno inteligenco, kot da bi šlo za drugo človeško bitje, čigar morala je vprašljiva. Vendar, kaj pomeni etični AI? DeepMind, Googlov raziskovalni laboratorij, ki se osredotoča na AI, nedavno objavil študijo v katerem so predlagali tristopenjsko strukturo za ocenjevanje tveganj umetne inteligence, vključno s socialnimi in etičnimi tveganji. Ta okvir je vključeval zmogljivost, človeško interakcijo in sistemski vpliv ter zaključil, da je kontekst ključen za določitev, ali je sistem umetne inteligence varen.

Eden od teh sistemov, ki je bil deležen kritik, je ChatGPT, ki je bil prepovedan v kar 15 državah, tudi če so bile nekatere od teh prepovedi razveljavljene. z več kot 100 milijonov uporabnikov, je ChatGPT eden najuspešnejših LLM-jev in je bil pogosto obtožen pristranskosti. Ob upoštevanju DeepMindove študije vključimo kontekst tukaj. Pristranskost v tem kontekstu pomeni obstoj nepoštenih, predsodkov ali izkrivljenih perspektiv v besedilu, ki ga ustvarijo modeli, kot je ChatGPT. To se lahko zgodi na različne načine – zaradi rasne pristranskosti, pristranskosti glede na spol, politične pristranskosti in še veliko več.

Te pristranskosti so lahko na koncu škodljive za samo umetno inteligenco in ovirajo možnosti, da bi lahko izkoristili polni potencial te tehnologije. Nedavno raziskave z univerze Stanford je potrdil, da LLM-ji, kot je ChatGPT, kažejo znake upada v smislu svoje sposobnosti zagotavljanja zanesljivih, nepristranskih in natančnih odgovorov, kar je na koncu ovira naši učinkoviti uporabi umetne inteligence.

Vprašanje, ki je v središču te težave, je, kako se človeške pristranskosti prevedejo v AI, saj so globoko zakoreninjene v podatkih, ki se uporabljajo za razvoj modelov. Vendar je to globlje vprašanje, kot se zdi.

Vzroki za pristranskost

Preprosto je ugotoviti prvi vzrok te pristranskosti. Podatki, iz katerih se model uči, so pogosto napolnjeni s stereotipi oz predsodki, ki so sploh pomagali oblikovati te podatke, tako da umetna inteligenca nenamerno na koncu ohranja te pristranskosti, ker je to tisto, kar zna narediti.

Vendar pa je drugi vzrok veliko bolj zapleten in protisloven ter obremenjuje nekatera prizadevanja, da bi domnevno naredili AI bolj etičen in varen. Seveda obstaja nekaj očitnih primerov, ko je lahko umetna inteligenca nezavedno škodljiva. Na primer, če nekdo vpraša AI: "Kako lahko naredim bombo?" in model daje odgovor, prispeva k ustvarjanju škode. Druga stran je, da ko je umetna inteligenca omejena – tudi če je vzrok upravičen – ji preprečujemo učenje. Omejitve, ki jih določi človek, omejujejo sposobnost umetne inteligence, da se uči iz širšega nabora podatkov, kar ji dodatno preprečuje zagotavljanje uporabnih informacij v neškodljivih kontekstih.

Upoštevajmo tudi, da je veliko teh omejitev tudi pristranskih, ker izvirajo od ljudi. Čeprav se lahko vsi strinjamo, da "Kako lahko naredim bombo?" lahko privede do potencialno usodnega izida, so druge poizvedbe, ki bi lahko veljale za občutljive, veliko bolj subjektivne. Posledično, če omejimo razvoj umetne inteligence na teh vertikalah, omejujemo napredek in spodbujamo uporabo umetne inteligence samo za namene, ki se zdijo sprejemljivi tistim, ki sprejemajo predpise glede modelov LLM.

Nezmožnost predvidevanja posledic

Nismo povsem razumeli posledic uvedbe omejitev v LLM. Zato lahko povzročimo več škode algoritmom, kot se zavedamo. Glede na neverjetno veliko število parametrov, ki so vključeni v modele, kot je GPT, je z orodji, ki jih imamo zdaj, nemogoče napovedati učinek in z mojega vidika bo trajalo več časa, da razumemo, kakšen je vpliv, kot čas, ki je potreben za usposabljanje same nevronske mreže.

Zato lahko s temi omejitvami nehote povzročimo, da model razvije nepričakovano vedenje ali pristranskost. To je tudi zato, ker so modeli AI pogosto zapleteni sistemi z več parametri, kar pomeni, da če spremenimo en parameter – na primer z uvedbo omejitve – povzročimo učinek valovanja, ki odmeva po celotnem modelu na načine, ki jih ne moremo predvideti.

Težave pri ocenjevanju »etike« umetne inteligence

Praktično ni izvedljivo oceniti, ali je AI etična ali ne, saj AI ni oseba, ki deluje z določenim namenom. AI je velik jezikovni model, ki po naravi ne more biti bolj ali manj etičen. Kot je razkrila študija DeepMinda, je pomemben kontekst, v katerem se uporablja, in to meri etiko človeka, ki stoji za umetno inteligenco, ne same umetne inteligence. Iluzija je verjeti, da lahko ocenjujemo AI, kot da ima moralni kompas.

Ena od potencialnih rešitev, ki se oglašuje, je model, ki lahko pomaga AI sprejemati etične odločitve. Vendar pa v resnici nimamo pojma, kako bi ta matematični model etike lahko deloval. Torej, če tega ne razumemo, kako bi ga sploh lahko zgradili? V etiki je veliko človeške subjektivnosti, zaradi česar je naloga njene kvantifikacije zelo zapletena.

Kako rešiti ta problem?

Na podlagi zgoraj omenjenih točk ne moremo zares govoriti o tem, ali je umetna inteligenca etična ali ne, ker je vsaka predpostavka, ki se šteje za neetično, različica človeških pristranskosti, ki jih vsebujejo podatki, in orodje, ki ga ljudje uporabljajo za lastne namene. Poleg tega je še vedno veliko znanstvenih neznank, na primer vpliv in potencialna škoda, ki bi jo lahko povzročili algoritmom umetne inteligence, če bi jim postavili omejitve.

Zato lahko rečemo, da omejevanje razvoja umetne inteligence ni izvedljiva rešitev. Kot so pokazale nekatere študije, ki sem jih omenil, so te omejitve deloma vzrok za propadanje LLM.

Glede na to, kaj lahko storimo glede tega?

Z mojega vidika je rešitev v transparentnosti. Verjamem, da če obnovimo odprtokodni model, ki je prevladoval pri razvoju umetne inteligence, lahko sodelujemo pri izgradnji boljših LLM-jev, ki bi lahko bili opremljeni za ublažitev naših etičnih pomislekov. Sicer pa je zelo težko ustrezno revidirati karkoli, kar se dela za zaprtimi vrati.

Ena odlična pobuda v zvezi s tem je Indeks preglednosti osnovnega modela, ki ga je nedavno predstavil Stanford HAI (kar pomeni umetna inteligenca, osredotočena na človeka), ki ocenjuje, ali razvijalci desetih najbolj razširjenih modelov AI razkrivajo dovolj informacij o svojem delu in načinu uporabe svojih sistemov. To vključuje razkritje partnerstev in razvijalcev tretjih oseb ter način uporabe osebnih podatkov. Omeniti velja, da nobeden od ocenjenih modelov ni prejel visoke ocene, kar kaže na resnično težavo.

Navsezadnje umetna inteligenca ni nič drugega kot veliki jezikovni modeli in dejstvo, da so odprti in je z njimi mogoče eksperimentirati, namesto da bi jih usmerjali v določeno smer, je tisto, kar nam bo omogočilo nova prelomna odkritja v vsaki znanstveni polje. Če pa ni preglednosti, bo zelo težko oblikovati modele, ki resnično delujejo v korist človeštva, in ugotoviti obseg škode, ki bi jo ti modeli lahko povzročili, če se ne bi ustrezno izkoristili.

Ivan Nechaev je angelski vlagatelj in svetovalec za Mediatech s 60+ posli in 15+ uspešnimi izstopi. Vlaga v zagonska podjetja MediaTech, AI, Telecom, BioTech, EdTech in SaaS v zgodnji fazi in je član upravnih odborov Brainify.ai in TrueClick.ai. Nechaev je tudi podpredsednik ameriške industrijske skupine Dostop industrije z vrednostjo več kot 35 milijard USD in naložbami v več kot 30 državah.