AI 101
Hva er ansvarlig AI? Prinsipper, utfordringer og fordeler

Ansvarlig AI (RAI) refererer til Ă„ designe og distribuere AI-systemer som er transparente, objektive, ansvarlige og fĂžlger etiske retningslinjer. Etter hvert som AI-systemer blir mer robuste og utbredte, er det viktig Ă„ sikre at de utvikles ansvarlig og fĂžlger sikkerhets- og etiske retningslinjer.
Helse, transport, nettverksadministrasjon og overvÄking er sikkerhetskritiske AI-applikasjoner hvor systemfeil kan fÄ alvorlige konsekvenser. Store firmaer er klar over at RAI er avgjÞrende for Ä redusere teknologirisiko. Likevel ifÞlge en MIT Sloan/BCG-rapport som inkluderte 1093 respondenter, 54% av selskaper manglet ansvarlig AI-ekspertise og talent.
Selv om tankeledere og organisasjoner har utviklet prinsipper for ansvarlig AI, byr det fortsatt pÄ utfordringer Ä sikre ansvarlig utvikling av AI-systemer. La oss utforske denne ideen i detalj:
5 prinsipper for ansvarlig AI
1. Rettferdighet
Teknologer bĂžr utforme prosedyrer slik at AI-systemer behandler alle individer og grupper rettferdig uten partiskhet. Derfor er rettferdighet det primĂŠre kravet i hĂžyrisikobeslutningsapplikasjoner.
Rettferdighet er definert som:
"UndersÞke innvirkningen pÄ ulike demografiske grupper og velge en av flere matematiske definisjoner av grupperettferdighet som vil tilfredsstille det Þnskede settet av juridiske, kulturelle og etiske krav."
2. ansvarlighet
Ansvarlighet betyr at enkeltpersoner og organisasjoner som utvikler og distribuerer AI-systemer bĂžr vĂŠre ansvarlige for sine beslutninger og handlinger. Teamet som distribuerer AI-systemer bĂžr sikre at deres AI-system er transparent, tolkbart, kontrollerbart og ikke skader samfunnet.
Ansvar inkluderer syv komponenter:
- Kontekst (formÄl som det kreves ansvarlighet)
- Rekkevidde (ansvarlig gjenstand)
- Agent (hvem er ansvarlig?)
- Forum (som den ansvarlige skal rapportere til)
- Standarder (kriterier for ansvarlighet)
- Prosess (metode for ansvarlighet)
- Implikasjoner (konsekvenser av ansvarlighet)
3. Äpenhet
à penhet betyr at Ärsaken bak beslutningstaking i AI-systemer er klar og forstÄelig. Gjennomsiktige AI-systemer kan forklares.
IfÞlge Vurderingsliste for pÄlitelig kunstig intelligens (ALTAI), Äpenhet har tre nÞkkelelementer:
- Sporbarhet (dataene, forbehandlingstrinnene og modellen er tilgjengelig)
- Forklarbarhet (begrunnelsen bak beslutningstaking/prediksjon er klar)
- à pen kommunikasjon (angÄende begrensning av AI-systemet)
4. Personvern
Personvern er et av hovedprinsippene for ansvarlig AI. Det refererer til beskyttelse av personopplysninger. Dette prinsippet sikrer at folks personopplysninger samles inn og behandles med samtykke og holdes utenfor hendene pÄ misfornÞyde.
Som vist nylig var det et tilfelle av Clearview, et selskap som lager ansiktsgjenkjenningsmodeller for rettshÄndhevelse og universiteter. Storbritannias datavakthunder saksÞkte Clearview AI for 7.5 millioner pund for Ä samle inn bilder av innbyggere i Storbritannia fra sosiale medier uten samtykke for Ä opprette en database med 20 milliarder bilder.
5. Sikkerhet
Sikkerhet betyr Ä sikre at AI-systemer er sikre og ikke truer samfunnet. Et eksempel pÄ en AI-sikkerhetstrussel er motstanderskapsangrep. Disse ondsinnede angrepene lurer ML-modeller til Ä ta feil beslutninger. à beskytte AI-systemer mot cyberangrep er avgjÞrende for ansvarlig AI.
4 store utfordringer og risikoer ved ansvarlig AI
1. Partiskhet
Menneskelige skjevheter knyttet til alder, kjÞnn, nasjonalitet og rase kan pÄvirke datainnsamlingen, noe som potensielt kan fÞre til partiske AI-modeller. Studie fra det amerikanske handelsdepartementet fant ut at ansiktsgjenkjenning AI feilidentifiserer fargede personer. Derfor kan bruk av AI for ansiktsgjenkjenning i rettshÄndhevelse fÞre til urettmessige arrestasjoner. Dessuten er det utfordrende Ä lage rettferdige AI-modeller fordi det finnes 21 forskjellige parametere for Ä definere dem. SÄ det er en avveining; Ä tilfredsstille en rettferdig AI-parameter betyr Ä ofre en annen.
2. Tolkbarhet
Tolkbarhet er en kritisk utfordring i utviklingen av ansvarlig AI. Det refererer til Ä forstÄ hvordan maskinlÊringsmodellen har kommet til en bestemt konklusjon.
Dype nevrale nettverk mangler tolkbarhet fordi de fungerer som svarte bokser med flere lag med skjulte nevroner, noe som gjÞr det vanskelig Ä forstÄ beslutningsprosessen. Dette kan vÊre en utfordring i beslutningstaking med hÞy innsats som helsevesen, finans osv.
Dessuten er det utfordrende Ă„ formalisere tolkbarhet i ML-modeller fordi det er det subjektive og domenespesifikke.
3. styresett
Styring refererer til et sett med regler, retningslinjer og prosedyrer som overvÄker utviklingen og distribusjonen av AI-systemer. Nylig har det vÊrt betydelig fremgang i AI-styringsdiskursen, med organisasjoner som presenterer rammeverk og etiske retningslinjer.
Etiske retningslinjer for pÄlitelig AI fra EU, Australian AI Ethics Frameworkog OECD AI-prinsipper er eksempler pÄ AI-styringsrammer.
Men den raske fremgangen innen AI de siste Ärene kan overgÄ disse AI-styringsrammene. For dette formÄl mÄ det vÊre et rammeverk som vurderer rettferdigheten, tolkbarheten og etikken til AI-systemer.
4. Forskrift
Etter hvert som AI-systemer blir mer utbredt, mÄ det vÊre regulering for Ä vurdere etiske og samfunnsmessige verdier. à utvikle regulering som ikke kveler AI-innovasjon er en kritisk utfordring i ansvarlig AI.
Selv med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) og loven om beskyttelse av personopplysninger (PIPL) som reguleringsorganer, fant AI-forskere at 97% av EU-nettsteder overholder ikke GDPRs juridiske rammekrav.
Dessuten stÄr lovgivere overfor en betydelig utfordring i Ä nÄ en konsensus om definisjonen av AI som inkluderer bÄde klassiske AI-systemer og de nyeste AI-applikasjonene.
3 store fordeler med ansvarlig kunstig intelligens
1. Redusert skjevhet
Ansvarlig AI reduserer skjevhet i beslutningsprosesser, og bygger tillit til AI-systemer. à redusere skjevhet i AI-systemer kan gi et rettferdig og rettferdig helsevesen og reduserer skjevhet i AI-basert finansielle tjenester og sÄ videre
2. Forbedret Äpenhet
Ansvarlig AI lager transparente AI-applikasjoner som bygger tillit til AI-systemer. Transparente AI-systemer redusere risikoen for feil og misbruk. Forbedret Äpenhet gjÞr revisjon av AI-systemer enklere, vinner interessentenes tillit og kan fÞre til ansvarlige AI-systemer.
3. Bedre sikkerhet
Sikre AI-applikasjoner sikrer datavern, produserer pÄlitelige og ufarlige utdata og er sikre mot cyberangrep.
Tekniske giganter som Microsoft og Google, som er i forkant av utviklingen av AI-systemer, har utviklet prinsipper for ansvarlig AI. Ansvarlig AI sikrer at innovasjonen innen AI ikke er skadelig for enkeltpersoner og samfunnet.
Tankeledere, forskere, organisasjoner og juridiske myndigheter bĂžr kontinuerlig revidere ansvarlig AI-litteratur for Ă„ sikre en trygg fremtid for AI-innovasjon.
For mer AI-relatert innhold, besĂžk unite.ai.