Følg os

AI 101

Hvad er ansvarlig AI? Principper, udfordringer og fordele

mm
En person, der holder på kloden i sine hænder, mens han står på marker.

Ansvarlig AI (RAI) refererer til at designe og implementere AI-systemer, der er gennemsigtige, upartiske, ansvarlige og følger etiske retningslinjer. Efterhånden som AI-systemer bliver mere robuste og udbredte, er det vigtigt at sikre, at de udvikles ansvarligt og følge sikkerheds- og etiske retningslinjer.

Sundhed, transport, netværksstyring og overvĂĄgning er sikkerhedskritiske AI-applikationer hvor systemfejl kan fĂĄ alvorlige konsekvenser. Store virksomheder er klar over, at RAI er afgørende for at afbøde teknologiske risici. Men ifølge en MIT Sloan/BCG-rapport, der omfattede 1093 respondenter, 54% af virksomheder manglede ansvarlig AI-ekspertise og talent.

Selvom tankeledere og organisationer har udviklet principper for ansvarlig AI, giver det stadig udfordringer at sikre en ansvarlig udvikling af AI-systemer. Lad os udforske denne idé i detaljer:

5 principper for ansvarlig AI

1. Retfærdighed

Teknologer bør designe procedurer, så AI-systemer behandler alle individer og grupper retfærdigt uden forudindtagethed. Derfor er retfærdighed det primære krav i højrisikobeslutningsapplikationer.

Fairness er defineret som:

"Undersøgelse af indvirkningen på forskellige demografiske grupper og valg af en af ​​flere matematiske definitioner af grupperetfærdighed, der i tilstrækkelig grad vil tilfredsstille det ønskede sæt af juridiske, kulturelle og etiske krav."

2. Ansvarlighed

Ansvarlighed betyder, at enkeltpersoner og organisationer, der udvikler og implementerer AI-systemer, skal være ansvarlige for deres beslutninger og handlinger. Holdet, der implementerer AI-systemer, bør sikre, at deres AI-system er gennemsigtigt, kan fortolkes, kan auditeres og ikke skader samfundet.

Ansvarlighed omfatter syv komponenter:

  1. Kontekst (formål, som der kræves ansvarlighed for)
  2. Rækkevidde (genstand for ansvarlighed)
  3. Agent (hvem er ansvarlig?)
  4. Forum (som den ansvarlige skal rapportere til)
  5. Standarder (kriterier for ansvarlighed)
  6. Proces (metode til ansvarlighed)
  7. Implikationer (konsekvenser af ansvarlighed)

3. Gennemsigtighed

Gennemsigtighed betyder, at ĂĄrsagen bag beslutningstagning i AI-systemer er klar og forstĂĄelig. Gennemsigtige AI-systemer kan forklares.

Ifølge Vurderingsliste for pålidelig kunstig intelligens (ALTAI), gennemsigtighed har tre nøgleelementer:

  1. Sporbarhed (dataene, forbehandlingstrinene og modellen er tilgængelige)
  2. Forklarlighed (begrundelsen bag beslutningstagning/forudsigelse er klar)
  3. Åben kommunikation (vedrørende begrænsningen af ​​AI-systemet)

4. Privatliv

Privatliv er et af hovedprincipperne for ansvarlig AI. Det henviser til beskyttelse af personlige oplysninger. Dette princip sikrer, at folks personlige oplysninger indsamles og behandles med samtykke og holdes ude af hænderne på utilfredse.

Som det fremgår for nylig, var der et tilfælde af Clearview, en virksomhed, der laver ansigtsgenkendelsesmodeller til retshåndhævelse og universiteter. Storbritanniens datavagthunde sagsøgte Clearview AI for 7.5 millioner pund for at indsamle billeder af britiske beboere fra sociale medier uden samtykke til at oprette en database med 20 milliarder billeder.

5. Sikkerhed

Sikkerhed betyder at sikre, at AI-systemer er sikre og ikke truer samfundet. Et eksempel på en AI-sikkerhedstrussel er modstridende angreb. Disse ondsindede angreb narrer ML-modeller til at træffe forkerte beslutninger. Beskyttelse af AI-systemer mod cyberangreb er bydende nødvendigt for ansvarlig AI.

4 store udfordringer og risici ved ansvarlig kunstig intelligens

1. Bias

Menneskelige skævheder relateret til alder, køn, nationalitet og race kan pĂĄvirke dataindsamlingen, hvilket potentielt kan føre til forudindtaget AI-modeller. US Department of Commerce undersøgelse fandt ud af, at ansigtsgenkendelse AI fejlidentificerer farvede mennesker. Derfor kan brug af kunstig intelligens til ansigtsgenkendelse inden for retshĂĄndhævelse føre til uretmæssige anholdelser. Det er ogsĂĄ udfordrende at lave fair AI-modeller, fordi der er 21 forskellige parametre for at definere dem. SĂĄ der er en afvejning; at opfylde en fair AI-parameter betyder at ofre en anden.

2. Fortolkelighed

Fortolkning er en kritisk udfordring i udviklingen af ​​ansvarlig AI. Det refererer til at forstå, hvordan maskinlæringsmodellen har nået en bestemt konklusion.

Dybe neurale netværk mangler fortolkning, fordi de fungerer som sorte bokse med flere lag af skjulte neuroner, hvilket gør det vanskeligt at forstå beslutningsprocessen. Dette kan være en udfordring i beslutningstagningen med høj indsats såsom sundhedspleje, finans osv.

Desuden er det udfordrende at formalisere fortolkning i ML-modeller, fordi det er det subjektive og domænespecifik.

3. Styring

Governance refererer til et sæt regler, politikker og procedurer, der fører tilsyn med udviklingen og implementeringen af ​​AI-systemer. For nylig har der været betydelige fremskridt i AI-styringsdiskursen, hvor organisationer præsenterer rammer og etiske retningslinjer.

Etiske retningslinjer for troværdig AI fra EUAustralsk AI Ethics Frameworkog OECD AI-principper er eksempler pĂĄ AI-styringsrammer.

Men den hurtige fremgang inden for AI i de seneste år kan overgå disse AI-styringsrammer. Til dette formål skal der være en ramme, der vurderer AI-systemers retfærdighed, fortolkbarhed og etik.

4. Forordning

Efterhånden som AI-systemer bliver mere udbredte, skal der være regulering for at tage hensyn til etiske og samfundsmæssige værdier. At udvikle regulering, der ikke kvæler AI-innovation, er en kritisk udfordring i ansvarlig AI.

Selv med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) og loven om beskyttelse af personlige oplysninger (PIPL) som regulerende organer, fandt AI-forskere, at 97% af EU-websteder ikke overholder GDPR-lovgivningskravene.

Desuden står lovgiverne over for en væsentlig udfordring at nå til enighed om definitionen af ​​AI, der omfatter både klassiske AI-systemer og de nyeste AI-applikationer.

3 store fordele ved ansvarlig kunstig intelligens

1. Reduceret skævhed

Ansvarlig AI reducerer skævhed i beslutningsprocesser og opbygger tillid til AI-systemer. At reducere skævhed i AI-systemer kan give et retfærdigt og retfærdigt sundhedssystem og reducere skævhed i AI-baserede finansielle tjenesteydelser etc.

2. Forbedret gennemsigtighed

Ansvarlig AI laver gennemsigtige AI-applikationer, der opbygger tillid til AI-systemer. Gennemsigtige AI-systemer mindske risikoen for fejl og misbrug. Forbedret gennemsigtighed gør revision af AI-systemer nemmere, vinder interessenters tillid og kan føre til ansvarlige AI-systemer.

3. Bedre sikkerhed

Sikre AI-applikationer sikrer databeskyttelse, producerer pålidelige og harmløse output og er sikre mod cyberangreb.

Teknikgiganter kan lide microsoft og Google, som er pĂĄ forkant med at udvikle AI-systemer, har udviklet Responsible AI-principper. Ansvarlig AI sikrer, at innovationen i AI ikke er skadelig for individer og samfund.

Tankeledere, forskere, organisationer og juridiske myndigheder bør løbende revidere ansvarlig AI-litteratur for at sikre en sikker fremtid for AI-innovation.

For mere AI-relateret indhold, besøg forene.ai.