Følg os

Tanke ledere

Bekymringer over potentielle risici ved ChatGPT tager fart, men er en pause på AI et godt træk?

mm

Mens Elon Musk og andre globale tech-ledere har efterlyst en pause i AI efter udgivelsen af ​​ChatGPT mener nogle kritikere, at et stop i udviklingen ikke er svaret. AI-evangelist Andrew Pery fra intelligent automationsfirmaet ABBYY mener, at det at tage en pause er som at putte tandpastaen tilbage i tuben. Her fortæller han os hvorfor...

AI-applikationer er gennemgående og påvirker stort set alle facetter af vores liv. Selvom det er prisværdigt, kan det være usandsynligt at sætte bremsen på nu.

Der er helt sikkert håndgribelige bekymringer, der kræver øget lovgivningsmæssig tilsyn med dets potentielle skadelige virkninger.

For nylig blokerede den italienske databeskyttelsesmyndighed midlertidigt brugen af ​​ChatGPT landsdækkende på grund af privatlivsproblemer relateret til måden at indsamle og behandle personlige data på, der bruges til at træne modellen, samt en tilsyneladende mangel på sikkerhedsforanstaltninger, hvilket udsætter børn for svar "absolut upassende i forhold til deres alder og bevidsthed."

Den europæiske forbrugerorganisation (BEUC) opfordrer EU til at undersøge potentielle skadelige virkninger af store sprogmodeller i betragtning af "bekymringer, der vokser om, hvordan ChatGPT og lignende chatbots kan bedrage og manipulere folk. Disse kunstig intelligens-systemer har brug for større offentlig kontrol, og offentlige myndigheder skal genoprette kontrollen over dem."

I USA, den Center for kunstig intelligens og digital politik har indgivet en klage til Federal Trade Commission over, at ChatGPT overtræder paragraf 5 i Federal Trade Commission Act (FTC Act) (15 USC 45). Grundlaget for klagen er, at ChatGPT angiveligt ikke opfylder vejledning fastsat af FTC for gennemsigtighed og forklaring af AI-systemer. Der blev henvist til ChatGPT's anerkendelser af flere kendte risici herunder kompromittering af privatlivsrettigheder, generering af skadeligt indhold og udbredelse af desinformation.

Nytten af ​​storskala sprogmodeller som ChatGPT til trods for forskning påpeger dets potentiale mørk side. Det er bevist at give forkerte svar, da den underliggende ChatGPT-model er baseret på dybe læringsalgoritmer, der udnytter store træningsdatasæt fra internettet. I modsætning til andre chatbots bruger ChatGPT sprogmodeller baseret på deep learning-teknikker, der genererer tekst, der ligner menneskelige samtaler, og platformen "kommer frem til et svar ved at foretage en række gæt, hvilket er en del af grunden til, at den kan argumentere for forkerte svar, som om de var fuldstændig sande."

Desuden er ChatGPT bevist at fremhæve og forstærke skævhed, hvilket resulterer i "svar, der diskriminerer mod køn, race og minoritetsgrupper, noget som virksomheden forsøger at afbøde." ChatGPT kan også være en bonanza for ondsindede skuespillere til at udnytte intetanende brugere og kompromittere deres Beskyttelse af personlige oplysninger og udsætte dem for svindelangreb.

Disse bekymringer fik Europa-Parlamentet til at offentliggøre en kommentar hvilket forstærker behovet for yderligere at styrke de nuværende bestemmelser i udkastet EU's lov om kunstig intelligens, (AIA), som stadig afventer ratificering. Kommentaren påpeger, at det nuværende udkast til den foreslåede forordning fokuserer på det, der omtales som snævre AI-applikationer, bestående af specifikke kategorier af højrisiko AI-systemer såsom rekruttering, kreditværdighed, beskæftigelse, retshåndhævelse og berettigelse til sociale ydelser. EU's udkast til AIA-forordning dækker dog ikke AI til generelle formål, såsom store sprogmodeller, der giver mere avancerede kognitive kapaciteter, og som kan "udføre en bred vifte af intelligente opgaver." Der er opfordringer til at udvide anvendelsesområdet for udkastet til forordning til at omfatte en særskilt højrisikokategori af AI-systemer til generelle formål, som kræver, at udviklere udfører strenge forudgående overensstemmelsestests, før de markedsfører sådanne systemer og løbende overvåger deres ydeevne for potentielle uventede skadelige output.

Et særligt nyttigt stykke forskning gør opmærksom på dette hul, at EU's AIA-forordning er "primært fokuseret på konventionelle AI-modeller og ikke på den nye generation, hvis fødsel vi er vidne til i dag."

Den anbefaler fire strategier, som regulatorer bør overveje.

  1. Kræv, at udviklere af sådanne systemer regelmæssigt rapporterer om effektiviteten af ​​deres risikostyringsprocesser for at afbøde skadelige output.
  2. Virksomheder, der bruger store sprogmodeller, bør være forpligtet til at oplyse deres kunder om, at indholdet var AI-genereret.
  3. Udviklere bør abonnere på en formel proces med trinvise udgivelser, som en del af en risikostyringsramme, designet til at sikre mod potentielt uforudsete skadelige resultater.
  4. Placer byrden på udviklere for at "dæmpe risikoen ved dens rødder" ved at skulle "proaktivt revidere træningsdatasættet for urigtige fremstillinger."

En faktor, der fastholder de risici, der er forbundet med disruptive teknologier, er innovatørers drivkraft for at opnå first mover-fordel ved at vedtage en "skib først og fix senere" forretningsmodel. Mens OpenAI er noget gennemsigtig om de potentielle risici ved ChatGPT, har de frigivet det til bred kommerciel brug med en "køber pas på" byrden på brugerne til selv at veje og påtage sig risici. Det kan være en uholdbar tilgang i betragtning af den gennemgående virkning af AI-systemer til samtale. Proaktiv regulering kombineret med robuste håndhævelsesforanstaltninger skal være altafgørende, når en sådan forstyrrende teknologi håndteres.

Kunstig intelligens gennemsyrer allerede næsten alle dele af vores liv, hvilket betyder, at en pause i AI-udviklingen kan indebære en lang række uforudsete forhindringer og konsekvenser. I stedet for pludselig at pumpe pauserne, bør industrien og lovgivende aktører samarbejde i god tro for at indføre handlingsvenlig regulering, der er forankret i menneskecentrerede værdier som gennemsigtighed, ansvarlighed og retfærdighed. Ved at henvise til eksisterende lovgivning såsom AIA, kan ledere i den private og offentlige sektor designe grundige, globalt standardiserede politikker, der vil forhindre ondsindet brug og afbøde uønskede resultater, og dermed holde kunstig intelligens inden for grænserne for at forbedre menneskelige oplevelser.

Andrew Pery er en AI Ethics Evangelist hos en global intelligent automationsvirksomhed ABBYY. Han har en Master of Law med udmærkelse fra Northwestern University Pritzker School of Law og er certificeret databeskyttelsesprofessionel. Pery har mere end 25 ĂĄrs erfaring med at stĂĄ i spidsen for teknologistyringsprogrammer for førende globale teknologivirksomheder. Hans ekspertise er inden for intelligent dokumentprocesautomatisering og procesintelligens med en særlig ekspertise inden for AI-teknologier, applikationssoftware, databeskyttelse og AI-etik.