Kontakt med oss

AI 101

Hva er ansvarlig AI? Prinsipper, utfordringer og fordeler

mm
En person som holder pÄ kloden i hendene mens han stÄr i felt.

Ansvarlig AI (RAI) refererer til Ă„ designe og distribuere AI-systemer som er transparente, objektive, ansvarlige og fĂžlger etiske retningslinjer. Etter hvert som AI-systemer blir mer robuste og utbredte, er det viktig Ă„ sikre at de utvikles ansvarlig og fĂžlger sikkerhets- og etiske retningslinjer.

Helse, transport, nettverksadministrasjon og overvĂ„king er sikkerhetskritiske AI-applikasjoner hvor systemfeil kan fĂ„ alvorlige konsekvenser. Store firmaer er klar over at RAI er avgjĂžrende for Ă„ redusere teknologirisiko. Likevel ifĂžlge en MIT Sloan/BCG-rapport som inkluderte 1093 respondenter, 54% av selskaper manglet ansvarlig AI-ekspertise og talent.

Selv om tankeledere og organisasjoner har utviklet prinsipper for ansvarlig AI, byr det fortsatt pÄ utfordringer Ä sikre ansvarlig utvikling av AI-systemer. La oss utforske denne ideen i detalj:

5 prinsipper for ansvarlig AI

1. Rettferdighet

Teknologer bĂžr utforme prosedyrer slik at AI-systemer behandler alle individer og grupper rettferdig uten partiskhet. Derfor er rettferdighet det primĂŠre kravet i hĂžyrisikobeslutningsapplikasjoner.

Rettferdighet er definert som:

"UndersÞke innvirkningen pÄ ulike demografiske grupper og velge en av flere matematiske definisjoner av grupperettferdighet som vil tilfredsstille det Þnskede settet av juridiske, kulturelle og etiske krav."

2. ansvarlighet

Ansvarlighet betyr at enkeltpersoner og organisasjoner som utvikler og distribuerer AI-systemer bĂžr vĂŠre ansvarlige for sine beslutninger og handlinger. Teamet som distribuerer AI-systemer bĂžr sikre at deres AI-system er transparent, tolkbart, kontrollerbart og ikke skader samfunnet.

Ansvar inkluderer syv komponenter:

  1. Kontekst (formÄl som det kreves ansvarlighet)
  2. Rekkevidde (ansvarlig gjenstand)
  3. Agent (hvem er ansvarlig?)
  4. Forum (som den ansvarlige skal rapportere til)
  5. Standarder (kriterier for ansvarlighet)
  6. Prosess (metode for ansvarlighet)
  7. Implikasjoner (konsekvenser av ansvarlighet)

3. Äpenhet

Åpenhet betyr at Ă„rsaken bak beslutningstaking i AI-systemer er klar og forstĂ„elig. Gjennomsiktige AI-systemer kan forklares.

IfÞlge Vurderingsliste for pÄlitelig kunstig intelligens (ALTAI), Äpenhet har tre nÞkkelelementer:

  1. Sporbarhet (dataene, forbehandlingstrinnene og modellen er tilgjengelig)
  2. Forklarbarhet (begrunnelsen bak beslutningstaking/prediksjon er klar)
  3. Åpen kommunikasjon (angĂ„ende begrensning av AI-systemet)

4. Personvern

Personvern er et av hovedprinsippene for ansvarlig AI. Det refererer til beskyttelse av personopplysninger. Dette prinsippet sikrer at folks personopplysninger samles inn og behandles med samtykke og holdes utenfor hendene pÄ misfornÞyde.

Som vist nylig var det et tilfelle av Clearview, et selskap som lager ansiktsgjenkjenningsmodeller for rettshÄndhevelse og universiteter. Storbritannias datavakthunder saksÞkte Clearview AI for 7.5 millioner pund for Ä samle inn bilder av innbyggere i Storbritannia fra sosiale medier uten samtykke for Ä opprette en database med 20 milliarder bilder.

5. Sikkerhet

Sikkerhet betyr Ă„ sikre at AI-systemer er sikre og ikke truer samfunnet. Et eksempel pĂ„ en AI-sikkerhetstrussel er motstanderskapsangrep. Disse ondsinnede angrepene lurer ML-modeller til Ă„ ta feil beslutninger. Å beskytte AI-systemer mot cyberangrep er avgjĂžrende for ansvarlig AI.

4 store utfordringer og risikoer ved ansvarlig AI

1. Partiskhet

Menneskelige skjevheter knyttet til alder, kjĂžnn, nasjonalitet og rase kan pĂ„virke datainnsamlingen, noe som potensielt kan fĂžre til partiske AI-modeller. Studie fra det amerikanske handelsdepartementet fant ut at ansiktsgjenkjenning AI feilidentifiserer fargede personer. Derfor kan bruk av AI for ansiktsgjenkjenning i rettshĂ„ndhevelse fĂžre til urettmessige arrestasjoner. Dessuten er det utfordrende Ă„ lage rettferdige AI-modeller fordi det finnes 21 forskjellige parametere for Ă„ definere dem. SĂ„ det er en avveining; Ă„ tilfredsstille en rettferdig AI-parameter betyr Ă„ ofre en annen.

2. Tolkbarhet

Tolkbarhet er en kritisk utfordring i utviklingen av ansvarlig AI. Det refererer til Ä forstÄ hvordan maskinlÊringsmodellen har kommet til en bestemt konklusjon.

Dype nevrale nettverk mangler tolkbarhet fordi de fungerer som svarte bokser med flere lag med skjulte nevroner, noe som gjÞr det vanskelig Ä forstÄ beslutningsprosessen. Dette kan vÊre en utfordring i beslutningstaking med hÞy innsats som helsevesen, finans osv.

Dessuten er det utfordrende Ă„ formalisere tolkbarhet i ML-modeller fordi det er det subjektive og domenespesifikke.

3. styresett

Styring refererer til et sett med regler, retningslinjer og prosedyrer som overvÄker utviklingen og distribusjonen av AI-systemer. Nylig har det vÊrt betydelig fremgang i AI-styringsdiskursen, med organisasjoner som presenterer rammeverk og etiske retningslinjer.

Etiske retningslinjer for pĂ„litelig AI fra EUAustralian AI Ethics Frameworkog OECD AI-prinsipper er eksempler pĂ„ AI-styringsrammer.

Men den raske fremgangen innen AI de siste Ärene kan overgÄ disse AI-styringsrammene. For dette formÄl mÄ det vÊre et rammeverk som vurderer rettferdigheten, tolkbarheten og etikken til AI-systemer.

4. Forskrift

Etter hvert som AI-systemer blir mer utbredt, mĂ„ det vĂŠre regulering for Ă„ vurdere etiske og samfunnsmessige verdier. Å utvikle regulering som ikke kveler AI-innovasjon er en kritisk utfordring i ansvarlig AI.

Selv med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) og loven om beskyttelse av personopplysninger (PIPL) som reguleringsorganer, fant AI-forskere at 97% av EU-nettsteder overholder ikke GDPRs juridiske rammekrav.

Dessuten stÄr lovgivere overfor en betydelig utfordring i Ä nÄ en konsensus om definisjonen av AI som inkluderer bÄde klassiske AI-systemer og de nyeste AI-applikasjonene.

3 store fordeler med ansvarlig kunstig intelligens

1. Redusert skjevhet

Ansvarlig AI reduserer skjevhet i beslutningsprosesser, og bygger tillit til AI-systemer. Å redusere skjevhet i AI-systemer kan gi et rettferdig og rettferdig helsevesen og reduserer skjevhet i AI-basert finansielle tjenester og sĂ„ videre

2. Forbedret Äpenhet

Ansvarlig AI lager transparente AI-applikasjoner som bygger tillit til AI-systemer. Transparente AI-systemer redusere risikoen for feil og misbruk. Forbedret Äpenhet gjÞr revisjon av AI-systemer enklere, vinner interessentenes tillit og kan fÞre til ansvarlige AI-systemer.

3. Bedre sikkerhet

Sikre AI-applikasjoner sikrer datavern, produserer pÄlitelige og ufarlige utdata og er sikre mot cyberangrep.

Tekniske giganter som Microsoft og Google, som er i forkant av utviklingen av AI-systemer, har utviklet prinsipper for ansvarlig AI. Ansvarlig AI sikrer at innovasjonen innen AI ikke er skadelig for enkeltpersoner og samfunnet.

Tankeledere, forskere, organisasjoner og juridiske myndigheter bĂžr kontinuerlig revidere ansvarlig AI-litteratur for Ă„ sikre en trygg fremtid for AI-innovasjon.

For mer AI-relatert innhold, besĂžk unite.ai.