stub AI-gennemsigtighed og behovet for open source-modeller - Unite.AI
Følg os

Tanke ledere

AI-gennemsigtighed og behovet for open source-modeller

mm
Opdateret on

For at beskytte folk mod de potentielle skader ved AI, slår nogle regulatorer i USA og EU i stigende grad til lyd for kontrol og kontrol og balancering af kraften i open source AI-modeller. Dette er delvist motiveret af større virksomheders ønske om at kontrollere AI-udviklingen og at forme udviklingen af ​​AI på en måde, der gavner dem. Regulatorer er også bekymrede over tempoet i AI-udviklingen, da de bekymrer sig om, at AI udvikler sig for hurtigt, og at der ikke er tid nok til at indføre sikkerhedsforanstaltninger for at forhindre, at den bliver brugt til ondsindede formål.

AI Bill of Rights og NIST AI Risk Management Framework i USA sammen med EU's AI-lov, understøtter forskellige principper såsom nøjagtighed, sikkerhed, ikke-diskriminering, sikkerhed, gennemsigtighed, ansvarlighed, forklarlighed, fortolkbarhed og databeskyttelse. Desuden forudser både EU og USA, at standardiseringsorganisationer, hvad enten de er statslige eller internationale enheder, vil spille en afgørende rolle i etableringen af ​​retningslinjer for kunstig intelligens.

I lyset af denne situation er det bydende nødvendigt at stræbe efter en fremtid, der omfatter gennemsigtighed og evnen til at inspicere og overvåge AI-systemer. Dette ville gøre det muligt for udviklere over hele verden grundigt at undersøge, analysere og forbedre AI, især med fokus på træningsdata og -processer.

For med succes at bringe gennemsigtighed til AI skal vi forstå de beslutningsalgoritmer, der understøtter den, og derved optrevle AI's "black box"-tilgang. Open source og inspicerbare modeller spiller en integreret rolle i at nå dette mål, da de giver adgang til den underliggende kode, systemarkitektur og træningsdata til kontrol og revision. Denne åbenhed fremmer samarbejde, driver innovation og sikrer mod monopolisering.

For at være vidne til realiseringen af ​​denne vision er det vigtigt at facilitere politiske ændringer, græsrodsinitiativer og tilskynde til aktiv deltagelse fra alle interessenter, herunder udviklere, virksomheder, regeringer og offentligheden.

Aktuel tilstand af AI: Koncentration og kontrol

I øjeblikket er AI-udvikling, især vedr store sprogmodeller (LLM'er), er primært centraliseret og kontrolleret af større virksomheder. Denne magtkoncentration giver anledning til bekymring med hensyn til potentialet for misbrug og rejser spørgsmål om retfærdig adgang og retfærdig fordeling af fordelene ved fremskridt inden for kunstig intelligens.

Især mangler populære modeller som LLM'er open source-alternativer under uddannelsesprocessen på grund af de omfattende computerressourcer, der kræves, som typisk kun er tilgængelige for store virksomheder. Ikke desto mindre, selvom denne situation forbliver uændret, er det afgørende at sikre gennemsigtighed vedrørende uddannelsesdata og -processer for at lette kontrol og ansvarlighed.

OpenAIs nylige introduktion af et licenssystem for visse AI-typer har skabt frygt og bekymringer omkring reguleringsindfangning, da det ikke kun kan påvirke AI-banen, men også bredere sociale, økonomiske og politiske aspekter.

Behovet for gennemsigtig AI

Forestil dig, at du stoler på en teknologi, der træffer indflydelsesrige beslutninger på det menneskelige/personlige liv, men som alligevel ikke efterlader noget brødkrummespor, ingen forståelse af rationalet bag disse konklusioner. Det er her, gennemsigtighed bliver uundværlig.

Først og fremmest er gennemsigtighed afgørende og skaber tillid. Når AI-modeller bliver observerbare, indgyder de tillid til deres pålidelighed og nøjagtighed. Desuden ville en sådan gennemsigtighed efterlade udviklere og organisationer langt mere ansvarlige for resultaterne af deres algoritmer.

Et andet kritisk aspekt af gennemsigtighed er identifikation og afbødning af algoritmisk bias. Bias kan injiceres i AI-modeller på flere måder.

  • Menneskeligt element: Dataforskere er sårbare over for at fastholde deres egne skævheder i modeller.
  • Maskinlæring: Selv hvis videnskabsmænd skulle skabe rent objektiv AI, er modeller stadig meget modtagelige for bias. Machine learning starter med et defineret datasæt, men bliver derefter sat fri til at absorbere nye data og skabe nye læringsveje og nye konklusioner. Disse resultater kan være utilsigtede, partiske eller unøjagtige, da modellen forsøger at udvikle sig på egen hånd i det, der kaldes "datadrift".

Det er vigtigt at være opmærksom på disse potentielle kilder til bias, så de kan identificeres og afbødes. En måde at identificere bias på er at auditere de data, der bruges til at træne modellen. Dette inkluderer at lede efter mønstre, der kan indikere diskrimination eller uretfærdighed. En anden måde at afbøde bias er at bruge debiasing-teknikker. Disse teknikker kan hjælpe med at fjerne eller reducere bias fra modellen. Ved at være gennemsigtige omkring potentialet for bias og tage skridt til at afbøde det, kan vi være med til at sikre, at AI bliver brugt på en retfærdig og ansvarlig måde.

Gennemsigtige AI-modeller gør det muligt for forskere og brugere at undersøge træningsdataene, identificere skævheder og træffe korrigerende handlinger for at imødegå dem. Ved at synliggøre beslutningsprocessen hjælper gennemsigtighed os med at stræbe efter retfærdighed og forhindre udbredelsen af ​​diskriminerende praksis. Desuden er der behov for gennemsigtighed i hele modellens levetid som forklaret ovenfor for at forhindre datadrift, bias og AI-hallucinationer, der producerer falsk information. Disse hallucinationer er særligt udbredte i store sprogmodeller, men findes også i alle former for AI-produkter. Observerbarhed af AI spiller også en vigtig rolle i at sikre modellernes ydeevne og nøjagtighed, hvilket skaber sikrere, mere pålidelig AI, der er mindre tilbøjelige til fejl eller utilsigtede konsekvenser.

Det er dog ikke uden udfordringer at opnå gennemsigtighed i kunstig intelligens. Det er nødvendigt at finde en omhyggelig balance for at løse problemer som databeskyttelse, sikkerhed og intellektuel ejendom. Dette indebærer implementering af teknikker til beskyttelse af privatlivets fred, anonymisering af følsomme data og etablering af industristandarder og regler, der fremmer ansvarlig gennemsigtighedspraksis.

Gør gennemsigtig AI til en realitet

Udvikling af værktøjer og teknologier, der kan muliggøre inspektion i AI, er afgørende for at fremme gennemsigtighed og ansvarlighed i AI-modeller.

Ud over at udvikle værktøjer og teknologier, der muliggør inspektion i AI, kan teknologisk udvikling også fremme gennemsigtighed ved at skabe en kultur omkring AI. At tilskynde virksomheder og organisationer til at være gennemsigtige omkring deres brug af kunstig intelligens kan også bidrage til at opbygge tillid og tillid. Ved at gøre det nemmere at inspicere AI-modeller og ved at skabe en kultur af gennemsigtighed omkring AI, kan teknologisk udvikling være med til at sikre, at AI bliver brugt på en fair og ansvarlig måde.

Teknologisk udvikling kan dog også have den modsatte effekt. For eksempel, hvis teknologivirksomheder udvikler proprietære algoritmer, der ikke er åbne for offentlig kontrol, kan dette gøre det sværere at forstå, hvordan disse algoritmer fungerer, og at identificere eventuelle skævheder eller risici. At sikre, at AI gavner samfundet som helhed frem for nogle få udvalgte, kræver et højt niveau af samarbejde.

Forskere, politiske beslutningstagere og dataforskere kan etablere regler og standarder, der skaber den rette balance mellem åbenhed, privatliv og sikkerhed uden at kvæle innovation. Disse regler kan skabe rammer, der tilskynder til deling af viden, mens de adresserer potentielle risici og definerer forventninger til gennemsigtighed og forklarlighed i kritiske systemer.

Alle parter relateret til AI-udvikling og -implementering bør prioritere gennemsigtighed ved at dokumentere deres beslutningsprocesser, gøre kildekoden tilgængelig og omfavne gennemsigtighed som et kerneprincip i AI-systemudvikling. Dette giver alle mulighed for at spille en afgørende rolle i at udforske metoder til at gøre AI-algoritmer mere fortolkelige og udvikle teknikker, der letter forståelse og forklaring af komplekse modeller.

Endelig er offentlighedens engagement afgørende i denne proces. Ved at øge bevidstheden og fremme offentlige diskussioner omkring AI-gennemsigtighed kan vi sikre, at samfundsværdier afspejles i udviklingen og implementeringen af ​​AI-systemer.

Konklusion

Efterhånden som AI bliver mere og mere integreret i forskellige aspekter af vores liv, bliver AI-gennemsigtighed og brugen af ​​open source-modeller kritiske overvejelser. At omfavne inspicerbar AI sikrer ikke kun retfærdighed og ansvarlighed, men stimulerer også innovation, forhindrer koncentration af magt og fremmer lige adgang til AI-fremskridt.

Ved at prioritere gennemsigtighed, muliggøre undersøgelse af AI-modeller og fremme samarbejde kan vi i fællesskab forme en AI-fremtid, der kommer alle til gode, samtidig med at vi løser de etiske, sociale og tekniske udfordringer forbundet med denne transformative teknologi.

Liran Hason er medstifter og administrerende direktør for Aporia, en fuld stack AI-kontrolplatform, der bruges af Fortune 500-virksomheder og datavidenskabsteams over hele verden for at sikre ansvarlig AI. Aporia integreres problemfrit med enhver ML-infrastruktur. Uanset om det er en FastAPI-server oven på Kubernetes, et open source-implementeringsværktøj som MLFlow eller en maskinlæringsplatform som AWS Sagemaker.