Povežite se s nama

Vođe misli

Zabrinutost oko potencijalnih rizika od ChatGPT-a uzima maha, ali je li pauza na AI dobar potez?

mm

Dok su Elon Musk i drugi globalni tehnološki čelnici pozvali na pauza u AI nakon izdanja ChatGPT-a, neki kritičari vjeruju da zaustavljanje razvoja nije rješenje. Evangelist umjetne inteligencije Andrew Pery iz tvrtke za inteligentnu automatizaciju ABBYY vjeruje da je uzimanje pauze poput vraćanja paste za zube natrag u tubu. Evo, on nam govori zašto…

AI aplikacije su sveprisutne, utječu na gotovo svaki aspekt naših života. Iako je pohvalno, sad kočenje može biti neuvjerljivo.

Svakako postoji opipljiva zabrinutost koja poziva na pojačani regulatorni nadzor kako bi vladao njegovim potencijalnim štetnim učincima.

Nedavno je talijanska uprava za zaštitu podataka privremeno blokirala korištenje ChatGPT-a u cijeloj zemlji zbog problema vezanih uz privatnost u vezi s načinom prikupljanja i obrade osobnih podataka koji se koriste za obuku modela, kao i očitog nedostatka zaštitnih mjera, izlažući djecu odgovorima “apsolutno neprimjereno njihovoj dobi i svijesti.”

Europska potrošačka organizacija (BEUC) poziva EU da istraži potencijalne štetne utjecaje velikih jezičnih modela s obzirom na “sve veću zabrinutost oko toga kako ChatGPT i slični chatbotovi mogu prevariti i manipulirati ljudima. Ovi sustavi umjetne inteligencije trebaju veći nadzor javnosti, a javna tijela moraju ponovno uspostaviti kontrolu nad njima.”

U SAD-u, Centar za AI i digitalnu politiku podnio je pritužbu Saveznoj komisiji za trgovinu da ChatGPT krši odjeljak 5 Zakona o saveznoj komisiji za trgovinu (FTC Act) (15 USC 45). Osnova pritužbe je da ChatGPT navodno ne ispunjava vođenje utvrdio FTC za transparentnost i objašnjivost sustava umjetne inteligencije. Upućeno je na ChatGPT-ovo priznanje nekoliko poznatih Rizici uključujući ugrožavanje prava na privatnost, stvaranje štetnog sadržaja i širenje dezinformacija.

Korisnost velikih jezičnih modela kao što je ChatGPT unatoč istraživanjima ukazuje na njihov potencijal Tamna strana. Dokazano daje netočne odgovore jer se temeljni ChatGPT model temelji na algoritmima dubokog učenja koji iskorištavaju velike skupove podataka za obuku s interneta. Za razliku od drugih chatbota, ChatGPT koristi jezične modele temeljene na tehnikama dubokog učenja koje generiraju tekst sličan ljudskim razgovorima, a platforma “do odgovora dolazi nizom nagađanja, što je dio razloga zašto može argumentirati pogrešne odgovore kao da su bile potpuno istinite.”

Nadalje, dokazano je da ChatGPT naglašava i pojačava pristranost što rezultira "odgovorima koji diskriminiraju spol, rasu i manjinske skupine, nešto što tvrtka pokušava ublažiti." ChatGPT također može biti pravo mjesto za zlobne aktere da iskoriste korisnike koji ništa ne sumnjaju, ugrožavajući njihove privatnost i izlažući ih napadi prijevara.

Ova zabrinutost potaknula je Europski parlament da objavi a komentar što pojačava potrebu za daljnjim jačanjem sadašnjih odredbi nacrta EU Zakon o umjetnoj inteligenciji, (AIA) koji još uvijek čeka ratifikaciju. U komentaru se ističe da je trenutni nacrt predložene uredbe usredotočen na ono što se naziva uskim aplikacijama umjetne inteligencije, koje se sastoje od specifičnih kategorija visokorizičnih sustava umjetne inteligencije kao što su zapošljavanje, kreditna sposobnost, zapošljavanje, provedba zakona i podobnost za socijalne usluge. Međutim, nacrt EU uredbe o AIA-i ne pokriva umjetnu inteligenciju opće namjene, poput velikih jezičnih modela koji pružaju naprednije kognitivne sposobnosti i koji mogu "obavljati širok raspon inteligentnih zadataka". Postoje pozivi da se proširi opseg nacrta uredbe kako bi se uključila zasebna, visokorizična kategorija sustava AI opće namjene, zahtijevajući od programera da poduzmu rigorozno ex ante testiranje sukladnosti prije stavljanja takvih sustava na tržište i kontinuirano nadziru njihovu izvedbu za potencijalni neočekivani štetni rezultati.

Posebno koristan komad istraživanja skreće svijest o ovom jazu da je EU AIA uredba “primarno usmjerena na konvencionalne modele umjetne inteligencije, a ne na novu generaciju čijem rađanju danas svjedočimo.”

Preporuča četiri strategije koje bi regulatori trebali razmotriti.

  1. Zahtijevati od razvijača takvih sustava da redovito izvještavaju o učinkovitosti svojih procesa upravljanja rizikom kako bi ublažili štetne rezultate.
  2. Tvrtke koje koriste jezične modele velikih razmjera trebale bi biti obvezne otkriti svojim klijentima da je sadržaj generirao umjetna inteligencija.
  3. Razvojni programeri trebali bi se pretplatiti na formalni proces postupnih izdanja, kao dio okvira upravljanja rizikom, osmišljenog za zaštitu od potencijalno nepredviđenih štetnih ishoda.
  4. Prenesite programerima odgovornost da "smanje rizik u korijenu" tako što će morati "proaktivno revidirati skup podataka o obuci radi pogrešnih predstavljanja".

Čimbenik koji produžava rizike povezane s disruptivnim tehnologijama je želja inovatora da ostvare prednost prvog pokretača usvajanjem poslovnog modela "najprije isporuči, a kasnije popravi". Dok je OpenAI donekle transparentan o potencijalnim rizicima ChatGPT-a, objavili su ga za široku komercijalnu upotrebu s obavezom korisnika da sami odvagnu i preuzmu rizike "kupac oprez". To bi mogao biti neodrživ pristup s obzirom na sveprisutni utjecaj konverzacijskih AI sustava. Proaktivna regulacija zajedno sa snažnim mjerama provedbe mora biti najvažnija pri rukovanju takvom disruptivnom tehnologijom.

Umjetna inteligencija već prožima gotovo svaki dio naših života, što znači da bi pauza u razvoju umjetne inteligencije mogla značiti mnoštvo nepredviđenih prepreka i posljedica. Umjesto iznenadnog prekida, industrija i zakonodavni akteri trebali bi surađivati ​​u dobroj vjeri kako bi donijeli djelotvornu regulativu koja je ukorijenjena u vrijednostima usmjerenim na čovjeka kao što su transparentnost, odgovornost i poštenje. Upućivanjem na postojeće zakonodavstvo kao što je AIA, čelnici u privatnom i javnom sektoru mogu osmisliti temeljite, globalno standardizirane politike koje će spriječiti zlonamjernu upotrebu i ublažiti negativne ishode, držeći tako umjetnu inteligenciju unutar granica poboljšanja ljudskih iskustava.

Andrew Pery je evangelist etike umjetne inteligencije u globalnoj tvrtki za inteligentnu automatizaciju ABBYY. Ima diplomu magistra prava s pohvalom na Pravnom fakultetu Sveučilišta Northwestern Pritzker i certificirani je stručnjak za privatnost podataka. Pery ima više od 25 godina iskustva u vođenju programa upravljanja tehnologijom za vodeće globalne tehnološke tvrtke. Njegova stručnost je u inteligentnoj automatizaciji procesa dokumenata i procesnoj inteligenciji s posebnom stručnošću u AI tehnologijama, aplikacijskom softveru, privatnosti podataka i AI etici.