Tankeledere
Bekymringer over potensielle risikoer ved ChatGPT får fart, men er en pause på AI et godt trekk?

Mens Elon Musk og andre globale teknologiledere har etterlyst en pause i AI etter utgivelsen av ChatGPT, mener noen kritikere at en stans i utviklingen ikke er svaret. AI-evangelist Andrew Pery fra intelligent automatiseringsselskapet ABBYY mener at å ta en pause er som å putte tannkremen tilbake i tuben. Her forteller han oss hvorfor...
AI-applikasjoner er gjennomgripende, og påvirker praktisk talt alle fasetter av livene våre. Selv om det er prisverdig, kan det være usannsynlig å sette på bremsene nå.
Det er absolutt påtakelige bekymringer som krever økt regulatorisk tilsyn for å regjere med potensielle skadelige virkninger.
For nylig blokkerte italienske datatilsyn midlertidig bruken av ChatGPT over hele landet på grunn av personvernhensyn knyttet til måten å samle inn og behandle personopplysninger brukt for å trene modellen på, samt en tilsynelatende mangel på sikkerhetstiltak, noe som utsetter barn for svar "absolutt upassende for deres alder og bevissthet."
Den europeiske forbrukerorganisasjonen (BEUC) oppfordrer EU til å undersøke potensielle skadelige virkninger av storskala språkmodeller gitt «bekymringer som vokser om hvordan ChatGPT og lignende chatbots kan lure og manipulere mennesker. Disse AI-systemene trenger større offentlig gransking, og offentlige myndigheter må hevde kontrollen over dem på nytt."
I USA, Senter for AI og digital politikk har sendt inn en klage til Federal Trade Commission om at ChatGPT bryter paragraf 5 i Federal Trade Commission Act (FTC Act) (15 USC 45). Grunnlaget for klagen er at ChatGPT angivelig ikke oppfyller veiledning fastsatt av FTC for åpenhet og forklaring av AI-systemer. Det ble henvist til ChatGPTs erkjennelser av flere kjente risikoer inkludert kompromittering av personvernrettigheter, generering av skadelig innhold og formidling av desinformasjon.
Nytten til storskala språkmodeller som ChatGPT til tross for forskning påpeker potensialet mørk side. Det er bevist å gi feil svar, ettersom den underliggende ChatGPT-modellen er basert på dype læringsalgoritmer som utnytter store treningsdatasett fra internett. I motsetning til andre chatbots, bruker ChatGPT språkmodeller basert på dyplæringsteknikker som genererer tekst som ligner på menneskelige samtaler, og plattformen "kommer frem til et svar ved å gjøre en rekke gjetninger, noe som er en del av grunnen til at den kan argumentere for feil svar som om de var helt sanne."
Videre er ChatGPT bevist å fremheve og forsterke skjevheter, noe som resulterer i "svar som diskriminerer kjønn, rase og minoritetsgrupper, noe som selskapet prøver å dempe." ChatGPT kan også være en bonanza for ondsinnede aktører til å utnytte intetanende brukere og kompromittere deres privatliv og utsette dem for svindelangrep.
Disse bekymringene fikk Europaparlamentet til å publisere en kommentaren som forsterker behovet for ytterligere å styrke gjeldende bestemmelser i utkastet EUs lov om kunstig intelligens, (AIA) som fortsatt venter på ratifisering. Kommentaren påpeker at det gjeldende utkastet til den foreslåtte forordningen fokuserer på det som omtales som smale AI-applikasjoner, bestående av spesifikke kategorier av høyrisiko AI-systemer som rekruttering, kredittverdighet, ansettelse, rettshåndhevelse og valgbarhet for sosiale tjenester. Imidlertid dekker ikke EU-utkastet til AIA-forordning generell AI, for eksempel store språkmodeller som gir mer avanserte kognitive evner og som kan "utføre et bredt spekter av intelligente oppgaver." Det er oppfordringer til å utvide omfanget av utkastet til forskrift til å omfatte en egen høyrisikokategori av AI-systemer for generelle formål, som krever at utviklere foretar strenge forhåndskonformitetstesting før de plasserer slike systemer på markedet og kontinuerlig overvåker ytelsen deres for potensielle uventede skadelige utganger.
Et spesielt nyttig stykke forskning gjør oppmerksom på dette gapet om at EUs AIA-forordning er "primært fokusert på konvensjonelle AI-modeller, og ikke på den nye generasjonen hvis fødsel vi er vitne til i dag."
Den anbefaler fire strategier som regulatorer bør vurdere.
- Krev at utviklere av slike systemer regelmessig rapporterer om effektiviteten av deres risikostyringsprosesser for å redusere skadelige utfall.
- Bedrifter som bruker storskala språkmodeller bør være forpliktet til å avsløre for kundene sine at innholdet var AI-generert.
- Utviklere bør abonnere på en formell prosess med trinnvise utgivelser, som en del av et rammeverk for risikostyring, designet for å beskytte mot potensielt uforutsette skadelige utfall.
- Legg byrden på utviklere for å "redusere risikoen ved røttene" ved å "proaktivt revidere opplæringsdatasettet for feilaktige fremstillinger."
En faktor som opprettholder risikoen forbundet med forstyrrende teknologier er innovatørers drivkraft for å oppnå first mover-fordel ved å ta i bruk en "skip først og fiks senere" forretningsmodell. Mens OpenAI er noe gjennomsiktig om de potensielle risikoene ved ChatGPT, har de gitt den ut for bred kommersiell bruk med en "kjøper pass på" pålagt brukere å veie og ta risikoen selv. Det kan være en uholdbar tilnærming gitt den gjennomgripende virkningen av samtale-AI-systemer. Proaktiv regulering kombinert med robuste håndhevingstiltak må være avgjørende ved håndtering av en slik forstyrrende teknologi.
Kunstig intelligens gjennomsyrer allerede nesten alle deler av livene våre, noe som betyr at en pause i AI-utviklingen kan innebære en rekke uforutsette hindringer og konsekvenser. I stedet for plutselig å pumpe pausene, bør industri og lovgivende aktører samarbeide i god tro for å vedta handlingskraftig regulering som er forankret i menneskesentriske verdier som åpenhet, ansvarlighet og rettferdighet. Ved å referere til eksisterende lovgivning som AIA, kan ledere i privat og offentlig sektor utforme grundige, globalt standardiserte retningslinjer som vil forhindre ond bruk og redusere uønskede utfall, og dermed holde kunstig intelligens innenfor grensene for å forbedre menneskelige opplevelser.