Connect with us

AI 101

Hvad er Ansvarlig AI? Principper, Udfordringer & Fordele

mm
A person holding on the globe in his hands while standing in fields.

Ansvarlig AI (RAI) henviser til design og implementering af AI-systemer, der er gennemsigtige, upartiske, ansvarlige og følger etiske retningslinjer. Da AI-systemer bliver mere avancerede og udbredte, er det essentielt at sikre, at de udvikles ansvarligt og følger sikkerheds- og etiske retningslinjer.

Sundhedsvesen, Transport, Netværksstyring og Overvågning er safety-kritiske AI-anvendelser, hvor systemsvigt kan have alvorlige konsekvenser. Store virksomheder er bevidste om, at RAI er afgørende for at minimere teknologiriske. Dog viser en rapport fra MIT Sloan/BCG, der inkluderer 1093 respondenter, at 54% af virksomhederne manglede ekspertise og talent inden for Ansvarlig AI.

Selvom tankeledere og organisationer har udviklet principper for ansvarlig AI, er det stadig en udfordring at sikre, at AI-systemer udvikles ansvarligt. Lad os udforske denne idé i detaljer:

5 Principper for Ansvarlig AI

1. Fairness

Teknologer skal designe procedurer, så AI-systemer behandler alle individer og grupper fair og upartisk. Fairness er derfor det primære krav i high-risk beslutningsanvendelser.

Fairness defineres som:

“At undersøge impact på forskellige demografiske grupper og vælge en af flere matematiske definitioner af gruppefairness, der tilfredsstiller det ønskede sæt af juridiske, kulturelle og etiske krav.”

2. Ansvarlighed

Ansvarlighed betyder, at individer og organisationer, der udvikler og implementerer AI-systemer, skal være ansvarlige for deres beslutninger og handlinger. Teamet, der implementerer AI-systemer, skal sikre, at deres AI-system er gennemsigtigt, fortolkelig, revisionssikret og ikke skader samfundet.

Ansvarlighed inkluderer syv komponenter:

  1. Kontekst (formål for hvilket ansvar er påkrævet)
  2. Omfang (emne for ansvar)
  3. Agent (hvem er ansvarlig?)
  4. Forum (til hvem den ansvarlige part skal rapportere)
  5. Standarder (kriterier for ansvar)
  6. Proces (metode for ansvar)
  7. Konsekvenser (følger af ansvar)

3. Gennemsigtighed

Gennemsigtighed betyder, at årsagen til beslutningstagning i AI-systemer er klar og forståelig. Gennemsigtige AI-systemer er forklarlige.

Ifølge Assessment List for Trustworthy Artificial Intelligence (ALTAI) har gennemsigtighed tre nøgleelementer:

  1. Sporbarhed (data, forarbejdningstrin og model er tilgængelige)
  2. Forklarligehed (årsagen til beslutningstagning/forudsigelse er klar)
  3. Åben kommunikation (om begrænsningerne af AI-systemet)

4. Privatliv

Privatliv er en af de vigtigste principper for ansvarlig AI. Det henviser til beskyttelsen af personlige oplysninger. Denne princip sikrer, at personlige oplysninger indsamles og behandles med samtykke og holdes uden for rækkevidde af uvedkommende.

Som det blev demonstreret for nylig, var der en sag om Clearview, et firma, der laver ansigtsgenkendelsesmodeller til politi og universiteter. Storbritanniens dataovervågningsmyndigheder søgte Clearview AI for £ 7,5 million for at indsamle billeder af britiske beboere fra sociale medier uden samtykke for at oprette en database på 20 mia. billeder.

5. Sikkerhed

Sikkerhed betyder, at AI-systemer er sikre og ikke truer samfundet. Et eksempel på en AI-sikkerhedsTrussel er adversarial angreb. Disse ondsindede angreb bedrager ML-modeller til at træffe forkerte beslutninger. Beskyttelse af AI-systemer mod cyberangreb er afgørende for ansvarlig AI.

4 Store Udfordringer & Risici for Ansvarlig AI

1. Bias

Menneskelig bias relateret til alder, køn, nationalitet og race kan påvirke dataindsamling og potentielt føre til biasede AI-modeller. US Department of Commerce-studie fandt, at ansigtsgenkendelses-AI misidentificerer personer af farve. Derfor kan brug af AI til ansigtsgenkendelse i politiarbejde føre til uretmæssige anholdelser. Desuden er det en udfordring at skabe fair AI-modeller, da der er 21 forskellige parametre at definere dem. Derfor er der en trade-off; at tilfredsstille ét fair AI-parameter betyder at ofre et andet.

2. Fortolkning

Fortolkning er en kritisk udfordring i udviklingen af ansvarlig AI. Det henviser til at forstå, hvordan maskinlæringsmodellen er nået til en bestemt konklusion.

Dybe neurale netværk manglede fortolkning, da de fungerer som sorte kasser med multiple lag af skjulte neuroner, hvilket gør det svært at forstå beslutningsprocessen. Dette kan være en udfordring i high-stakes beslutninger som sundhedsvesen, finans etc.

Desuden er det en udfordring at formalisere fortolkning i ML-modeller, da det er subjektivt og domænespecifikt.

3. Styring

Styring henviser til en samling regler, politikker og procedurer, der overvåger udviklingen og implementeringen af AI-systemer. For nylig har der været betydelig fremgang i AI-styringsdiskurs, med organisationer, der præsenterer rammer og etiske retningslinjer.

Etiske retningslinjer for trustworthy AI fra EU, Australsk AI-etisk ramme og OECD AI-principper er eksempler på AI-styringsrammer.

Men den hurtige udvikling i AI de seneste år kan overgå disse AI-styringsrammer. Derfor er der behov for en ramme, der vurderer fairheden, fortolkningen og etikken af AI-systemer.

4. Regulation

Da AI-systemer bliver mere udbredte, er der behov for regulation, der tager hensyn til etiske og samfundsorienterede værdier. At udvikle regulation, der ikke kvæler AI-innovation, er en kritisk udfordring i ansvarlig AI.

Selv med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) og Personal Information Protection Law (PIPL) som reguleringssystemer, fandt AI-forskere, at 97% af EU-websider ikke overholder GDPR’s lovmæssige rammer.

Desuden står lovgivere over for en betydelig udfordring i at nå til enighed om definitionen af AI, der inkluderer både klassiske AI-systemer og de seneste AI-anvendelser.

3 Store Fordele ved Ansvarlig AI

1. Reduceret Bias

Ansvarlig AI reducerer bias i beslutningsprocesser og opbygger tillid til AI-systemer. At reducere bias i AI-systemer kan give en fair og lige sundhedsordning og reducerer bias i AI-baserede finansiel service osv.

2. Forbedret Gennemsigtighed

Ansvarlig AI gør gennemsigtige AI-anvendelser, der opbygger tillid til AI-systemer. Gennemsigtige AI-systemer reducerer risikoen for fejl og misbrug. Forbedret gennemsigtighed gør det lettere at gennemføre revision af AI-systemer, vinder stakeholders’ tillid og kan føre til ansvarlige AI-systemer.

3. Bedre Sikkerhed

Sikre AI-anvendelser sikrer dataintegritet, producerer troværdige og harmløse output og er sikre mod cyberangreb.

Teknologigiganter som Microsoft og Google, der er i front for udviklingen af AI-systemer, har udviklet principper for Ansvarlig AI. Ansvarlig AI sikrer, at innovationen i AI ikke er skadelig for individer og samfund.

Tankeledere, forskere, organisationer og lovgivere skal kontinuerligt revidere litteraturen om ansvarlig AI for at sikre en sikker fremtid for AI-innovation.

For mere AI-relateret indhold, besøg unite.ai.

Haziqa er en Data Scientist med omfattende erfaring i at skrive teknisk indhold til AI- og SaaS-virksomheder.