Connect with us

AI 101

Hva er Ansvarlig AI? Prinsipper, Utfordringer og Fordeler

mm
A person holding on the globe in his hands while standing in fields.

Ansvarlig AI (RAI) refererer til å designe og deployere AI-systemer som er transparente, upartiske, ansvarlige og følger etiske retningslinjer. Ettersom AI-systemer blir mer robuste og utbredte, er det essensielt å sikre at de utvikles ansvarlig og følger sikkerhets- og etiske retningslinjer.

Helse, Transport, Nettverksstyring og Overvåking er sikkerhetskritiske AI-applikasjoner der systemfeil kan ha alvorlige konsekvenser. Store selskaper er klar over at RAI er essensielt for å mildne teknologirisker. Likevel, ifølge en rapport fra MIT Sloan/BCG som inkluderte 1093 respondenter, 54% av selskapene manglet Ansvarlig AI-ekspertise og talent.

Selv om tankeledere og organisasjoner har utviklet prinsipper for ansvarlig AI, stiller ansvarlig utvikling av AI-systemer fremdeles utfordringer. La oss utforske denne ideen i detalj:

5 Prinsipper for Ansvarlig AI

1. Fairness

Teknologer bør designe prosedyrer slik at AI-systemer behandler alle individer og grupper rettferdig uten bias. Derfor er fairness det primære kravet i høyrisiko-beslutningsapplikasjoner.

Fairness defineres som:

“Å undersøke effekten på ulike demografiske grupper og velge en av flere matematiske definisjoner av gruppefairness som vil tilfredsstille det ønskede sett av juridiske, kulturelle og etiske krav.”

2. Ansvarlighet

Ansvarlighet betyr at individer og organisasjoner som utvikler og deployerer AI-systemer skal være ansvarlige for sine beslutninger og handlinger. Teamet som deployerer AI-systemer skal sikre at deres AI-system er transparent, tolkbar, auditerbar og ikke skader samfunnet.

Ansvarlighet inkluderer syv komponenter:

  1. Kontekst (formål for hvilket ansvar er nødvendig)
  2. Omfang (emne for ansvar)
  3. Agent (hvem er ansvarlig?)
  4. Forum (til hvem den ansvarlige parten må rapportere)
  5. Standarder (kriterier for ansvar)
  6. Prosess (metode for ansvar)
  7. Konsekvenser (konsekvenser av ansvar)

3. Transparens

Transparens betyr at grunnen til beslutningstaking i AI-systemer er klar og forståelig. Transparente AI-systemer er forklarbare.

Ifølge Vurderingsliste for pålitelig kunstig intelligens (ALTAI) har transparens tre nøkkellementer:

  1. Sporbarhet (data, forbehandlingssteg og modell er tilgjengelig)
  2. Forklarbarhet (grunnen til beslutningstaking/prediksjon er klar)
  3. Åpen kommunikasjon (om begrensningene i AI-systemet)

4. Personvern

Personvern er ett av de viktigste prinsippene for ansvarlig AI. Det refererer til beskyttelsen av personlige opplysninger. Dette prinsippet sikrer at personlige opplysninger samles inn og prosesseres med samtykke og holdes utenfor hender på uvedkommende.

Som nylig vist, var det en sak om Clearview, et selskap som lager ansiktsgjenkjenningmodeller for lovverket og universiteter. Storbritannias dataovervåkere søkte Clearview AI for £ 7,5 millioner for å samle inn bilder av britiske innbyggere fra sosiale medier uten samtykke for å lage en database på 20 milliarder bilder.

5. Sikkerhet

Sikkerhet betyr å sikre at AI-systemer er sikre og ikke truer samfunnet. Et eksempel på en AI-sikkerhetstrussel er motstridende angrep. Disse ondsinnede angrepene lurte ML-modeller til å ta feil beslutninger. Å beskytte AI-systemer mot cyberangrep er avgjørende for ansvarlig AI.

4 Store Utfordringer og Risikoer for Ansvarlig AI

1. Bias

Menneskelige bias relatert til alder, kjønn, nasjonalitet og rase kan påvirke datainnsamling, potensielt føre til biasede AI-modeller. USAs handelsdepartements studie fant at ansiktsgjenkjenning AI misidentifiserer personer med farge. Derfor kan bruk av AI for ansiktsgjenkjenning i lovverket føre til uriktige arrestasjoner. I tillegg er det utfordrende å lage rettferdige AI-modeller fordi det finnes 21 forskjellige parametre for å definere dem. Derfor er det en avveining; å tilfredsstille ett rettferdig AI-parameter betyr å ofre et annet.

2. Forklarbarhet

Forklarbarhet er en kritisk utfordring i utviklingen av ansvarlig AI. Det refererer til å forstå hvordan maskinlæringsmodellen har nådd en bestemt konklusjon.

Dype neurale nettverk mangler forklarbarhet fordi de opererer som svarte bokser med flere lag med skjulte noder, noe som gjør det vanskelig å forstå beslutningsprosessen. Dette kan være en utfordring i høyrisiko-beslutninger som helse, finans etc.

I tillegg er det utfordrende å formalisere forklarbarhet i ML-modeller fordi det er subjektivt og domenespesifikt.

3. Styring

Styring refererer til en samling regler, politikker og prosedyrer som overvåker utviklingen og deployeringen av AI-systemer. Nylig har det vært betydelig fremgang i AI-styringsdiskursen, med organisasjoner som presenterer rammer og etiske retningslinjer.

Etiske retningslinjer for pålitelig AI fra EU, Australsk AI-etikkrammeverk og OECD AI-prinsipper er eksempler på AI-styringsrammer.

Men den raske fremgangen i AI de siste årene kan overgå disse AI-styringsrammene. Derfor må det finnes en rammeverk som vurderer rettferdigheten, forklarbarheten og etikken til AI-systemer.

4. Regulering

Ettersom AI-systemer blir mer utbredte, må det finnes reguleringer som tar hensyn til etiske og samfunnsmessige verdier. Å utvikle reguleringer som ikke kveler AI-innovasjon er en kritisk utfordring i ansvarlig AI.

Selv med Generell personvernforordning (GDPR), California Consumer Privacy Act (CCPA) og Personvernbeskyttelsesloven (PIPL) som reguleringer, fant AI-forskere at 97% av EU-nettsidene ikke overholder GDPR-kravene.

I tillegg står lovgivere overfor en betydelig utfordring i å nå enighet om definisjonen av AI som inkluderer både klassiske AI-systemer og de nyeste AI-applikasjonene.

3 Store Fordeler med Ansvarlig AI

1. Redusert Bias

Ansvarlig AI reduserer bias i beslutningsprosesser, bygger tillit til AI-systemer. Å redusere bias i AI-systemer kan gi en rettferdig og likeverdig helse- og finanstjeneste osv.

2. Forbedret Transparens

Ansvarlig AI gjør transparente AI-applikasjoner som bygger tillit til AI-systemer. Transparente AI-systemer reduserer risikoen for feil og misbruk. Forbedret transparens gjør det lettere å gjennomgå AI-systemer, vinner stakeholdernes tillit og kan føre til ansvarlige AI-systemer.

3. Bedre Sikkerhet

Sikre AI-applikasjoner sikrer datapersonvern, produserer pålitelige og harmløse utdata og er trygge mot cyberangrep.

Tekk-giganter som Microsoft og Google, som er i fremkant av å utvikle AI-systemer, har utviklet prinsipper for ansvarlig AI. Ansvarlig AI sikrer at innovasjonen i AI ikke er skadelig for individer og samfunnet.

Tankeledere, forskere, organisasjoner og myndigheter bør kontinuerlig revidere litteraturen om ansvarlig AI for å sikre en trygg fremtid for AI-innovasjon.

For mer AI-relatert innhold, besøk unite.ai.

Haziqa er en dataforsker med omfattende erfaring med å skrive teknisk innhold for AI- og SaaS-selskaper.