Tankeledere
Med fremgang i generativ AI, er tiden kommet for å takle ansvarlig AI nå

I 2022 hadde selskapene i gjennomsnitt 3,8 AI-modeller i produksjon. I dag er syv av ti selskaper i ferd med å eksperimentere med generativ AI, noe som betyr at antallet AI-modeller i produksjon vil øke dramatisk i årene som kommer. Som følge av dette har bransjediskusjonene om ansvarlig AI fått økt urgensi.
Det gode nyheten er at mer enn halvparten av organisasjonene allerede er forkjempere for AI-etikk. Imidlertid har bare rundt 20% implementert omfattende programmer med rammer, styring og beskyttelsesmekanismer for å overvåke utviklingen av AI-modeller og proaktivt identifisere og mildne risikoer. Gitt den raske utviklingen av AI, bør ledere gå videre nå for å implementere rammer og modne prosesser. Reguleringer verden over er på vei, og allerede en av to organisasjoner har hatt et ansvarlig AI-feil.
Ufordringer ved implementering av ansvarlig AI
Ansvarlig AI omfatter opptil 20 forskjellige forretningsfunksjoner, noe som øker prosess- og beslutningskompleksiteten. Teamene for ansvarlig AI må samarbeide med nøkkelinteressenter, inkludert ledelse; forretnings-eiere; data-, AI- og IT-team; og partnere for å:
- Bygge AI-løsninger som er rettferdige og frie for fordommer: Teamene og partnerne kan bruke forskjellige tekniker, som utforskende dataanalyse, for å identifisere og mildne potensielle fordommer før løsningene utvikles – slik at modellene bygges med rettferdighet i mente fra starten. Teamene og partnerne kan også gjennomgå dataene som brukes i forprosessering, algoritmdesign og postprosessering for å sikre at de er representative og balanserte. I tillegg kan de bruke gruppe- og individuelle rettferdighetsteknikker for å sikre at algoritmene behandler forskjellige grupper og enkeltindivider rettferdig. Og kontrafaktiske rettferdighets-tilnærmingene modellerer resultater hvis visse faktorer endres, noe som hjelper med å identifisere og adresse fordommer.
- Fremme AI-gjennomsiktighet og forklarbarhet: AI-gjennomsiktighet betyr at det er lett å forstå hvordan AI-modellene fungerer og tar beslutninger. Forklarbarhet betyr at disse beslutningene kan lett kommuniseres til andre på ikke-tekniske termer. Ved å bruke vanlig terminologi, holde regelmessige diskusjoner med interessenter og skape en kultur av AI-bevissthet og kontinuerlig læring, kan man oppnå disse målene.
- Sikre dataintegritet og -sikkerhet: AI-modellene bruker store mengder data. Selskapene utnytter førstegangs- og tredjepartsdata for å mate modellene. De bruker også privatlivsbeskyttende læringsmetoder, som å lage syntetisk data for å overvinne sparsomhetsproblemer. Ledere og teamene vil ønske å gjennomgå og utvikle dataintegritets- og sikkerhetssikringene for å sikre at konfidensielle og sensitive data fortsatt er beskyttet mens de brukes på nye måter. For eksempel bør syntetisk data etterligne kundens nøkkelkarakteristika, men ikke være sporbar tilbake til enkeltindivider.
- Implementere styring: Styringen vil variere basert på selskapets AI-modning. Imidlertid bør selskapene sette AI-prinsipper og -politikker fra starten. Etterhvert som bruken av AI-modeller øker, kan de utnevne AI-ansvarlige; implementere rammer; skape ansvar og rapporteringsmekanismer; og utvikle tilbakemeldingsløkker og kontinuerlige forbedringsprogrammer.
Kritiske muliggjørere av et ansvarlig AI-program
Hva skiller selskapene som er ansvarlige AI-ledere fra andre? De:
- Skaper en visjon og mål for AI: Ledere kommuniserer sin visjon og mål for AI og hvordan det fordeler selskapet, kundene og samfunnet.
- Setter forventninger: Seniorledere setter riktige forventninger til teamene for å bygge ansvarlige AI-løsninger fra bunnen av, i stedet for å forsøke å tilpasse løsningene etter at de er fullført.
- Implementerer en ramme og prosesser: Partnere tilbyr ansvarlige AI-rammer med transparente prosesser og sikkerhetsskranke. For eksempel bør dataintegritet, rettferdighet og fordommer-sjekker være bygget inn i den innledende dataforberedningen, modellutviklingen og den kontinuerlige overvåkingen.
- Får tilgang til domene-, bransje- og AI-ferdigheter: Teamene ønsker å akselerere innovasjonen av AI-løsninger for å øke forretningskonkurransen. De kan vende seg til partnere for relevante domene- og bransjeferdigheter, som data- og AI-strategi-innsetting og -utførelse, kombinert med kundeanalyse, markedsførings-teknologi, leverandørkjede og andre ferdigheter. Partnere kan også tilby fullspekter AI-ferdigheter, inkludert stor-språkmodell (LLM) ingeniørarbeid, utvikling, drift og plattform-ferdigheter, som utnytter ansvarlige AI-rammer og prosesser for å designe, utvikle, operasjonalisere og produsere løsninger.
- Får tilgang til akseleratorer: Partnere tilbyr tilgang til et AI-økosystem, som reduserer utviklingstiden for ansvarlige tradisjonelle og generative AI-pilotprosjekter med opptil 50%. Bedriftene får vertikale løsninger som øker deres markedskonkurransesevne.
- Sikrer teamadopsjon og ansvar: Bedrifts- og partner-teamene blir trent på nye politikker og prosesser. I tillegg gjennomfører bedriftene en revisjon av teamene for å sikre overholdelse av nøkkel-politikker.
- Bruker riktige målinger for å kvantifisere resultater: Ledere og teamene bruker benchmark og andre målinger for å demonstrere hvordan ansvarlig AI bidrar til forretningsverdien for å holde interessentengasjementet høyt.
- Overvåker AI-systemer: Partnere tilbyr modell-overvåkningstjenester, som løser problemer proaktivt og sikrer at de leverer pålitelige resultater.
Planlegg for ansvarlig AI nå
Hvis ditt selskap akselerer AI-innovasjon, har du sannsynligvis behov for et ansvarlig AI-program. Gå proaktivt for å redusere risiko, modne programmer og prosesser, og demonstrere ansvarighet overfor interessenter.
En partner kan tilby de ferdighetene, rammer, verktøyene og partnerskapene du trenger for å låse opp forretningsverdien med ansvarlig AI. Distribuer modeller som er rettferdige og frie for fordommer, gjennomfør kontroller og øk overholdelse med selskapets krav, samtidig som du forbereder deg på fremtidige reguleringer.












