Connect with us

Tankeledere

En Praktisk Veileder for Levering Ansvarlig AI

mm

Kunstig intelligens (AI) utrullinger skalerer beyond tidlige pilotfaser til å bli fullt integrerte løsninger, som driver produksjon og bedriftsvid transformasjon. Mot denne bakgrunnen står ledere overfor en utfordrende oppgave: å flytte AI fra bevis for konsept til kjerne av daglige operasjoner. Denne skiftet krever at de må svare på nye spørsmål, som spenner fra hvordan å utvikle, utrulle og bruke AI ansvarlig for å bygge en pålitelig grunn til å skalerer.

Responsible AI handler om å sikre at AI er nyttig uten å være skadelig for mennesker, organisasjoner og samfunn. Mens oppfatningen kan være at det kan slowe ned utviklingslivssyklusen, kan det i praksis gjøre innovasjonen sterkere. Utrollning av Responsible AI kan hjelpe med å redusere antallet kostbare feil, tillate raskere adopsjon og tillit, gi reguleringssystemer og forbedre bærekraft.

Men å forstå hvordan organisasjoner kan utvikle, utrulle og adoptere Responsible AI er nøkkel til å sikre dens grunnleggende praksis og fullstendig integrasjon. Her gir vi en praktisk veileder på hvordan bedrifter kan gjøre dette, og sikre menneskelig tilsyn fra de tidligste designstadiene gjennom utrulling, overvåking, risikovurdering og eventuell avvikling.

De som behandler Responsible AI som en ettertanke vil risikere reguleringsexponering, omdømmeskade og erosjon av kundetillit. I motsetning til dette er de som integrerer det fra starten bedre posisjonert til å skalerer AI på en bærekraftig måte.

Identifisering av de fem grunnleggende prinsippene for Integrering av Responsible AI

I hjertet av enhver Responsible AI-strategi ligger en sett av kjerneprinsipper som bør veilede utvikling, utrulling, evaluering og styring. Effekten av disse prinsippene vil forme praktisk styring, risikostyring og overholdelse av retningslinjer som sikrer mennesker og beskytter varemerkeverdi.

For store organisasjoner må de arbeide over team og med eksterne partnere for å sikre integrasjonen. Som sådan er det fem nøkkelprinsipper som bedrifter kan adoptere for å styre AI-initiativene mot tillit, overholdelse og etiske resultater.

Først er ansvarlighet. Noen må eie resultatet for hver viktig AI-system og det bør være en person eller team ansvarlig fra start til slutt. Start med en enkel inventar, automatiser for å skalerer og begynn med å liste AI-systemer, deres formål, datakilder og eiere. Det er også viktig å ha en plan for når ting går galt. Det er essensielt å vite hvordan å pause og hvordan å undersøke og mildne problemer.

For det andre er det viktig å vurdere AI sin rettferdighet og dens potensielle innvirkning på mennesker. Ikke bare basere seg på tekniske målinger og være klar over at AI-resultater kan være forskjellige mellom grupper og uforvollent skade noen. Dette er kritisk for høyrisikobruk i områder som rekruttering, långiving eller helse. Bruk datatest når det er mulig og inkluder menneskelig gjennomgang og grunner for utgang.

Tredje er sikkerhet. Trusler mot AI-systemer fortsetter å utvikle seg, nå inkludert prompt eller agentbaserte angrep. Det er kritisk å møte disse risikoene og arbeide med sikkerhetsteam for å modellere disse potensielle angrepene. Bygg sikkerhet inn i designet, begrens AI-tilgang til andre systemer og data, og gjennomfør kontinuerlig testing selv etter lansering.

Den fjerde faktoren er personvern. Denne bekymringen går beyond initialt treningsdata, og personvern bør beskyttes på hver enkelt stage. Vurdér personvern i brukerprompter, samtalelogger og AI-genererte utgang, da de alle kan inneholde private informasjon. Design systemer for å samle inn bare den dataen som er nødvendig, sett strenge regler for tilgang og oppbevaring, og gjennomfør personvernsgjennomgang for høyrisikobruk.

Til slutt er gjennomsiktighet og å tilby kontroller som tilpasser seg interessenter essensielt. Hva kunder trenger å vite skiller seg fra AI-utviklere. Alternativt bør brukere vite når de samhandler med AI og forstå dens begrensninger. Interne team trenger klart dokumentasjon på hvordan AI ble bygget og hvordan det fungerer. AI-systemets gjennomsiktighet fremmer delt tilsyn og tillit til systemets evner.

Å kjenne til forskjellene: Responsible AI vs. AI Governance

Mens Responsible AI og AI Governance ofte brukes om hverandre, er det nøkkel forskjeller. Responsible AI er en sett av holistiske praksis og prinsipper for å ta pålitelige beslutninger gjennom utvikling, utrulling og bruk av AI. Det fokuserer på å muliggjøre evner som de fem grunnleggende prinsippene ovenfor for å minimere risikoene og maksimere fordelen av AI.

AI Governance, på den andre siden, er en sett av retningslinjer, prosedyrer og praksis som sikter på å muliggjøre positive resultater og redusere sannsynligheten for skade. Det fokuserer på å sette i verk passende organisatoriske og tekniske kontroller for å muliggjøre ansvarlig og etisk AI, ofte med en vekt på ansvarlighet og overholdelse av lover og organisatoriske retningslinjer.

Organisasjoner er bedre posisjonert til å skalerer AI ansvarlig samtidig som de opprettholder tillit og reguleringssårbarhet når de forstår at disse to er distinkte men sammenhengende. I tillegg, mens noen handlinger på ansvar og styring er påkrevd av lov, er noen ikke. For eksempel lover som pålegger begrensninger på jobber kvinner kan ha i visse land. Derfor er begge nødvendige for en komprehensiv, balansert tilnærming til Responsible AI.

Den viktige fleksible styring

Ettersom AI utbreder seg, trer reguleringer inn med styringsrammer som går beyond frivillige retningslinjer. Reguleringer som Den europeiske unions kunstig intelligensakt setter risikobasert regulering i sentrum av AI-styring. I stedet for å regulere teknologien enhetlig, klassifiserer akten AI-systemer i flere risikonivåer som erkjenner den potensielle skaden basert på ulike bruksområder. For eksempel en AI-rekrutteringsskjermer versus en handleanbefalingsmotor. Dette innebærer at styring, dokumentasjon og sikkerhetstiltak bør sammenfalle med konteksten og bruken av AI.

Andre jurisdiksjoner har også definert rammer for å styre AI. Ifølge denne IAPP-rapporten, fremmer Singapore en fleksibel tilnærming med verktøy som sin Model AI Governance Framework, som vektlegger testing og gjennomsiktighet over strenge påbud. Sør-Koreas AI Basic Act blander også tilsyn med rom for innovasjon. Og innenfor industrier, forskjeller dette. Finans­tjenester har lenge stått overfor strenge sikkerhets- og rettferdighetsstandarder, mens helse-AI har medisinske enhetsreguleringer å møte. Forbrukerteknologiprodukter faller også under personvern og forbrukerbeskyttelseslover, med hver domene krever reguleringer tilpasset dens risikoprofil og samfunnsforventninger.

Derfor fungerer ikke en enhetlig tilnærming til AI-styring, ettersom industrier og landdomener forskjeller i typene skader, interessenter påvirkede og de juridiske rammer de opererer under. Som sådan må det være fleksibilitet.

Hvordan å håndtere Autonom AI

Ettersom AI går inn i en ny æra, skifter fra smale prediksjonsmotorer til agentbasert AI, systemer i stand til å planlegge, tilpasse og utføre autonome handlinger, kommer dette med nye risikoer.

For eksempel, vurdér en agentbasert AI som autonome utfører en finansiell transaksjon eller en HR-beslutning. Hvis det mis klassifiserer en transaksjon eller gjør en rekrutteringsanbefaling som innebygger bias, er forretningskonsekvensene alvorlige, fra finansiell tap til omdømmeskade, reguleringssanksjoner og juridisk eksponering.

Forskning presentert i Økonomiske og systematiske overveielser i agentbaserte web-systemer forklarer også nye utfordringer som kommer med det nye agentbaserte web-konseptet, som handler i multi-agent, grenseoverskridende, maskin-hastighetsmarkeder. Det skisserer noen preliminære, retningssøkende styringshåndtak, inkludert beskyttelses-/tilsynsagenter og maskinlesbar politikk, med en vekt på inklusiv adopsjon under ulike ressursbegrensninger.

Mot denne bakgrunnen må styringssystemer sette grenser og kontroller på hvor mye et AI-system kan håndtere autonome uten menneskelig godkjenning. De må etablere klare retningslinjer, begrens tilgang til verktøy og autoriseringsfunksjoner, samt tillate spesifikke designpunkter for obligatorisk menneskelig gjennomgang. Alle komponenter i arbeidsflyten bør testes, inkludert koblinger og interaksjoner mellom agenter, hvor feil ofte skjer. Hver handling bør logges for sporing og kontroller settes i verk for å deaktivere systemet når det er nødvendig for å håndtere denne risikoen.

Fremtiden for Responsible AI

AI tilbyr utenfor sammenligning muligheter til å transformere hvordan bedrifter opererer, innovere, levere verdi, og Responsible AI støtter dette. Å integrere Responsible AI i design, utvikling og utrulling ikke bare en juridisk risiko og risikomildnings­taktikk, det beskytter og forbedrer varemerke­rykte, tjener kunde- og kundetillit, samt låser marked­sfordel ved å demonstrere forpliktelse til etisk innovasjon.

Men for å låse opp dens fordeler, må bedrifter integrere nøkkelansvarlige praksiser gjennom hele AI-systemet, fra starten og ut til slutten av dens livssyklus. Dette inkluderer å integrere etiske og styrings­overveielser i datastrategi, personvern og innhenting, systemdesign, utvikling, gjennomsiktighet og rettferdighet, utrulling og overvåking, samt etter utrulling og avvikling.

For alle involvert i AI-utvikling og utrulling, er mandatet klart: bygg ansvarlig, styre proaktivt, forvente risikoene i dag, i morgen og utover for å sikre den suksessfulle utviklingen av AI i en endrende verden.

Dr Heather Domin, visepresident og sjef for kontoret for ansvarlig AI og styring i HCLTech, er en ledende ekspert på ansvarlig AI, og rådgir globale organisasjoner om etisk AI-styring og implementering.