AI 101
Vad Àr Ansvarsfull AI? Principer, utmaningar och fördelar

Ansvarig AI (RAI) syftar pÄ att designa och distribuera AI-system som Àr transparenta, opartiska, ansvarsfulla och följer etiska riktlinjer. NÀr AI-system blir mer robusta och utbredda Àr det viktigt att sÀkerstÀlla att de utvecklas pÄ ett ansvarsfullt sÀtt och att de följer sÀkerhets- och etiska riktlinjer.
HÀlsa, transport, nÀtverkshantering och övervakning Àr sÀkerhetskritiska AI-tillÀmpningar dÀr systemfel kan fÄ allvarliga konsekvenser. Stora företag Àr medvetna om att RAI Àr avgörande för att mildra tekniska risker. Men enligt en MIT Sloan/BCG-rapport som inkluderade 1093 svarande, 54% av företag saknade Ansvarsfull AI-expertis och talang.
Ăven om tankeledare och organisationer har utvecklat principer för ansvarsfull AI, innebĂ€r det fortfarande utmaningar att sĂ€kerstĂ€lla en ansvarsfull utveckling av AI-system. LĂ„t oss utforska denna idĂ© i detalj:
5 principer för ansvarsfull AI
1. RĂ€ttvisa
Teknologer bör utforma procedurer sÄ att AI-system behandlar alla individer och grupper rÀttvist utan fördomar. DÀrför Àr rÀttvisa det primÀra kravet i högriskbeslutsapplikationer.
RÀttvisa Àr definierad som:
"Undersöka effekten pÄ olika demografiska grupper och vÀlja en av flera matematiska definitioner av grupprÀttvisa som pÄ ett adekvat sÀtt kommer att tillfredsstÀlla den önskade uppsÀttningen av juridiska, kulturella och etiska krav."
2. Ansvarighet
Ansvarsskyldighet innebÀr att individer och organisationer som utvecklar och distribuerar AI-system bör vara ansvariga för sina beslut och handlingar. Teamet som distribuerar AI-system bör se till att deras AI-system Àr transparent, tolkbart, granskningsbart och inte skadar samhÀllet.
Ansvar inkluderar sju komponenter:
- Sammanhang (ÀndamÄl för vilket ansvar krÀvs)
- RÀckvidd (föremÄl för ansvarighet)
- Agent (vem Àr ansvarig?)
- Forum (till vilken ansvarig ska rapportera)
- Standarder (kriterier för ansvarighet)
- Process (metod för ansvarighet)
- Implikationer (konsekvenser av ansvarighet)
Transparency
Transparens innebÀr att orsaken bakom beslutsfattande i AI-system Àr tydlig och begriplig. Transparenta AI-system kan förklaras.
Enligt Bedömningslista för pÄlitlig artificiell intelligens (ALTAI), har transparens tre nyckelelement:
- SpÄrbarhet (data, förbehandlingssteg och modell Àr tillgÀngliga)
- Förklarbarhet (resonemanget bakom beslutsfattande/förutsÀgelse Àr tydligt)
- Ăppen kommunikation (angĂ„ende begrĂ€nsningen av AI-systemet)
4. Integritet
Sekretess Àr en av huvudprinciperna för ansvarsfull AI. Det avser skydd av personuppgifter. Denna princip sÀkerstÀller att mÀnniskors personuppgifter samlas in och behandlas med samtycke och hÄlls utom hÀnderna pÄ missnöjda.
Som framgÄtt nyligen var det ett fall med Clearview, ett företag som tillverkar ansiktsigenkÀnningsmodeller för brottsbekÀmpande myndigheter och universitet. Storbritanniens datavakthundar stÀmde Clearview AI pÄ 7.5 miljoner pund för att samla in bilder pÄ invÄnare i Storbritannien frÄn sociala medier utan samtycke för att skapa en databas med 20 miljarder bilder.
5. SĂ€kerhet
SÀkerhet innebÀr att se till att AI-system Àr sÀkra och inte hotar samhÀllet. Ett exempel pÄ ett AI-sÀkerhetshot Àr motstridiga attacker. Dessa skadliga attacker lurar ML-modeller att fatta felaktiga beslut. Att skydda AI-system frÄn cyberattacker Àr absolut nödvÀndigt för ansvarsfull AI.
4 stora utmaningar och risker med ansvarsfull AI
1. Bias
MÀnskliga fördomar relaterade till Älder, kön, nationalitet och ras kan pÄverka datainsamlingen, vilket kan leda till partiska AI-modeller. Studie av amerikanska handelsdepartementet fann att ansiktsigenkÀnning AI felidentifierar fÀrgade personer. DÀrför kan anvÀndning av AI för ansiktsigenkÀnning inom brottsbekÀmpning leda till felaktiga arresteringar. Att göra rÀttvisa AI-modeller Àr ocksÄ utmanande eftersom det finns 21 olika parametrar för att definiera dem. SÄ det finns en avvÀgning; att uppfylla en rÀttvis AI-parameter innebÀr att offra en annan.
2. Tolkbarhet
Tolkbarhet Àr en kritisk utmaning för att utveckla ansvarsfull AI. Det syftar pÄ att förstÄ hur maskininlÀrningsmodellen har nÄtt en viss slutsats.
Djupa neurala nÀtverk saknar tolkningsmöjligheter eftersom de fungerar som svarta lÄdor med flera lager av dolda neuroner, vilket gör det svÄrt att förstÄ beslutsprocessen. Detta kan vara en utmaning i beslutsfattande med hög insats som sjukvÄrd, ekonomi, etc.
Dessutom Àr det utmanande att formalisera tolkningsbarheten i ML-modeller eftersom det Àr det subjektiv och domÀnspecifika.
3. styrning
Styrning hÀnvisar till en uppsÀttning regler, policyer och procedurer som övervakar utvecklingen och driftsÀttningen av AI-system. Nyligen har det skett betydande framsteg inom AI-styrningsdiskursen, dÀr organisationer presenterar ramverk och etiska riktlinjer.
Etiska riktlinjer för pÄlitlig AI frÄn EU, Australian AI Ethics Frameworkoch OECD AI-principer Àr exempel pÄ ramverk för AI-styrning.
Men de snabba framstegen inom AI de senaste Ären kan övertrÀffa dessa AI-styrningsramar. För detta ÀndamÄl mÄste det finnas ett ramverk som bedömer AI-systemens rÀttvisa, tolkningsbarhet och etik.
4. Förordning
I takt med att AI-system blir allt vanligare mÄste det finnas reglering för att beakta etiska och samhÀlleliga vÀrderingar. Att utveckla reglering som inte kvÀver AI-innovation Àr en kritisk utmaning inom ansvarsfull AI.
Ăven med General Data Protection Regulation (GDPR), California Consumer Privacy Act (CCPA) och lagen om personlig informationsskydd (PIPL) som tillsynsorgan, fann AI-forskare att 97% av EU:s webbplatser uppfyller inte GDPR:s juridiska ramkrav.
Dessutom stÄr lagstiftarna inför en betydande utmaning för att nÄ en konsensus om definitionen av AI som inkluderar bÄde klassiska AI-system och de senaste AI-applikationerna.
3 stora fördelar med ansvarsfull AI
1. Minskad bias
Ansvarsfull AI minskar partiskhet i beslutsprocesser och bygger förtroende för AI-system. Att minska partiskhet i AI-system kan ge ett rÀttvist och rÀttvist sjukvÄrdssystem och minskar partiskhet i AI-baserade finansiella tjÀnster och sÄ vidare
2. FörbÀttrad transparens
Ansvarsfull AI gör transparenta AI-applikationer som bygger förtroende för AI-system. Transparenta AI-system minska risken för fel och missbruk. FörbÀttrad transparens gör revision av AI-system enklare, vinner intressenternas förtroende och kan leda till ansvarsfulla AI-system.
3. BÀttre sÀkerhet
SÀkra AI-applikationer sÀkerstÀller datasekretess, producerar pÄlitlig och ofarlig produktion och Àr sÀkra frÄn cyberattacker.
Tekniska jÀttar gillar Microsoft och Google, som ligger i framkant nÀr det gÀller att utveckla AI-system, har utvecklat principer för ansvarsfull AI. Ansvarsfull AI sÀkerstÀller att innovationen inom AI inte Àr skadlig för individer och samhÀlle.
Tankeledare, forskare, organisationer och juridiska myndigheter bör kontinuerligt revidera ansvarig AI-litteratur för att sÀkerstÀlla en sÀker framtid för AI-innovation.
För mer AI-relaterat innehÄll, besök förena.ai.