AI 101
Hvad er ansvarlig AI? Principper, udfordringer og fordele

Ansvarlig AI (RAI) refererer til at designe og implementere AI-systemer, der er gennemsigtige, upartiske, ansvarlige og følger etiske retningslinjer. Efterhånden som AI-systemer bliver mere robuste og udbredte, er det vigtigt at sikre, at de udvikles ansvarligt og følge sikkerheds- og etiske retningslinjer.
Sundhed, transport, netværksstyring og overvågning er sikkerhedskritiske AI-applikationer hvor systemfejl kan få alvorlige konsekvenser. Store virksomheder er klar over, at RAI er afgørende for at afbøde teknologiske risici. Men ifølge en MIT Sloan/BCG-rapport, der omfattede 1093 respondenter, 54% af virksomheder manglede ansvarlig AI-ekspertise og talent.
Selvom tankeledere og organisationer har udviklet principper for ansvarlig AI, giver det stadig udfordringer at sikre en ansvarlig udvikling af AI-systemer. Lad os udforske denne idé i detaljer:
5 principper for ansvarlig AI
1. Retfærdighed
Teknologer bør designe procedurer, så AI-systemer behandler alle individer og grupper retfærdigt uden forudindtagethed. Derfor er retfærdighed det primære krav i højrisikobeslutningsapplikationer.
Fairness er defineret som:
"Undersøgelse af indvirkningen på forskellige demografiske grupper og valg af en af ​​flere matematiske definitioner af grupperetfærdighed, der i tilstrækkelig grad vil tilfredsstille det ønskede sæt af juridiske, kulturelle og etiske krav."
2. Ansvarlighed
Ansvarlighed betyder, at enkeltpersoner og organisationer, der udvikler og implementerer AI-systemer, skal være ansvarlige for deres beslutninger og handlinger. Holdet, der implementerer AI-systemer, bør sikre, at deres AI-system er gennemsigtigt, kan fortolkes, kan auditeres og ikke skader samfundet.
Ansvarlighed omfatter syv komponenter:
- Kontekst (formål, som der kræves ansvarlighed for)
- Rækkevidde (genstand for ansvarlighed)
- Agent (hvem er ansvarlig?)
- Forum (som den ansvarlige skal rapportere til)
- Standarder (kriterier for ansvarlighed)
- Proces (metode til ansvarlighed)
- Implikationer (konsekvenser af ansvarlighed)
3. Gennemsigtighed
Gennemsigtighed betyder, at ĂĄrsagen bag beslutningstagning i AI-systemer er klar og forstĂĄelig. Gennemsigtige AI-systemer kan forklares.
Ifølge Vurderingsliste for pålidelig kunstig intelligens (ALTAI), gennemsigtighed har tre nøgleelementer:
- Sporbarhed (dataene, forbehandlingstrinene og modellen er tilgængelige)
- Forklarlighed (begrundelsen bag beslutningstagning/forudsigelse er klar)
- Åben kommunikation (vedrørende begrænsningen af ​​AI-systemet)
4. Privatliv
Privatliv er et af hovedprincipperne for ansvarlig AI. Det henviser til beskyttelse af personlige oplysninger. Dette princip sikrer, at folks personlige oplysninger indsamles og behandles med samtykke og holdes ude af hænderne på utilfredse.
Som det fremgår for nylig, var der et tilfælde af Clearview, en virksomhed, der laver ansigtsgenkendelsesmodeller til retshåndhævelse og universiteter. Storbritanniens datavagthunde sagsøgte Clearview AI for 7.5 millioner pund for at indsamle billeder af britiske beboere fra sociale medier uden samtykke til at oprette en database med 20 milliarder billeder.
5. Sikkerhed
Sikkerhed betyder at sikre, at AI-systemer er sikre og ikke truer samfundet. Et eksempel på en AI-sikkerhedstrussel er modstridende angreb. Disse ondsindede angreb narrer ML-modeller til at træffe forkerte beslutninger. Beskyttelse af AI-systemer mod cyberangreb er bydende nødvendigt for ansvarlig AI.
4 store udfordringer og risici ved ansvarlig kunstig intelligens
1. Bias
Menneskelige skævheder relateret til alder, køn, nationalitet og race kan påvirke dataindsamlingen, hvilket potentielt kan føre til forudindtaget AI-modeller. US Department of Commerce undersøgelse fandt ud af, at ansigtsgenkendelse AI fejlidentificerer farvede mennesker. Derfor kan brug af kunstig intelligens til ansigtsgenkendelse inden for retshåndhævelse føre til uretmæssige anholdelser. Det er også udfordrende at lave fair AI-modeller, fordi der er 21 forskellige parametre for at definere dem. Så der er en afvejning; at opfylde en fair AI-parameter betyder at ofre en anden.
2. Fortolkelighed
Fortolkning er en kritisk udfordring i udviklingen af ​​ansvarlig AI. Det refererer til at forstå, hvordan maskinlæringsmodellen har nået en bestemt konklusion.
Dybe neurale netværk mangler fortolkning, fordi de fungerer som sorte bokse med flere lag af skjulte neuroner, hvilket gør det vanskeligt at forstå beslutningsprocessen. Dette kan være en udfordring i beslutningstagningen med høj indsats såsom sundhedspleje, finans osv.
Desuden er det udfordrende at formalisere fortolkning i ML-modeller, fordi det er det subjektive og domænespecifik.
3. Styring
Governance refererer til et sæt regler, politikker og procedurer, der fører tilsyn med udviklingen og implementeringen af ​​AI-systemer. For nylig har der været betydelige fremskridt i AI-styringsdiskursen, hvor organisationer præsenterer rammer og etiske retningslinjer.
Etiske retningslinjer for troværdig AI fra EU, Australsk AI Ethics Frameworkog OECD AI-principper er eksempler på AI-styringsrammer.
Men den hurtige fremgang inden for AI i de seneste år kan overgå disse AI-styringsrammer. Til dette formål skal der være en ramme, der vurderer AI-systemers retfærdighed, fortolkbarhed og etik.
4. Forordning
Efterhånden som AI-systemer bliver mere udbredte, skal der være regulering for at tage hensyn til etiske og samfundsmæssige værdier. At udvikle regulering, der ikke kvæler AI-innovation, er en kritisk udfordring i ansvarlig AI.
Selv med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) og loven om beskyttelse af personlige oplysninger (PIPL) som regulerende organer, fandt AI-forskere, at 97% af EU-websteder ikke overholder GDPR-lovgivningskravene.
Desuden står lovgiverne over for en væsentlig udfordring at nå til enighed om definitionen af ​​AI, der omfatter både klassiske AI-systemer og de nyeste AI-applikationer.
3 store fordele ved ansvarlig kunstig intelligens
1. Reduceret skævhed
Ansvarlig AI reducerer skævhed i beslutningsprocesser og opbygger tillid til AI-systemer. At reducere skævhed i AI-systemer kan give et retfærdigt og retfærdigt sundhedssystem og reducere skævhed i AI-baserede finansielle tjenesteydelser etc.
2. Forbedret gennemsigtighed
Ansvarlig AI laver gennemsigtige AI-applikationer, der opbygger tillid til AI-systemer. Gennemsigtige AI-systemer mindske risikoen for fejl og misbrug. Forbedret gennemsigtighed gør revision af AI-systemer nemmere, vinder interessenters tillid og kan føre til ansvarlige AI-systemer.
3. Bedre sikkerhed
Sikre AI-applikationer sikrer databeskyttelse, producerer pålidelige og harmløse output og er sikre mod cyberangreb.
Teknikgiganter kan lide microsoft og Google, som er pĂĄ forkant med at udvikle AI-systemer, har udviklet Responsible AI-principper. Ansvarlig AI sikrer, at innovationen i AI ikke er skadelig for individer og samfund.
Tankeledere, forskere, organisationer og juridiske myndigheder bør løbende revidere ansvarlig AI-litteratur for at sikre en sikker fremtid for AI-innovation.
For mere AI-relateret indhold, besøg forene.ai.