stub Mangel på pålitelig AI kan hindre innovasjon og forretningsverdi - Unite.AI
Kontakt med oss

Tankeledere

Mangel på pålitelig AI kan hemme innovasjon og forretningsverdi

mm

Publisert

 on

En fersk undersøkelse blant globale bedriftsledere viser at pålitelig AI er en hovedprioritet, men mange tar ikke nok skritt for å oppnå det, men til hvilken pris?

Faktisk, den IBM-undersøkelse avslørte at svimlende 85 % av respondentene er enige i at det er mer sannsynlig at forbrukere velger et selskap som er åpent om hvordan AI-modellene bygges, administreres og brukes.

Flertallet innrømmet imidlertid at de ikke har tatt viktige skritt for å sikre at deres AI er pålitelig og ansvarlig, for eksempel å redusere skjevhet (74 %), spore ytelsesvariasjoner og modelldrift (68 %), og sørge for at de kan forklare AI-drevet vedtak (61 %). Dette er bekymringsfullt, spesielt når du tenker på at bruken av AI fortsetter å vokse – med 35 % som sier at de nå bruker AI i sin virksomhet, opp fra 31 % for ett år siden.

Jeg deltok nylig kun på invitasjonen Corporate Innovation Summit i Toronto hvor deltakerne utvekslet innovative ideer og viste frem teknologier som var klare til å forme fremtiden. Jeg hadde privilegiet av å delta i tre rundebord innen finansielle tjenester, forsikring og detaljhandelssegmenter med tre nøkkelområder som dukker opp: behovet for mer åpenhet for å fremme tillit til AI, demokratisering av AI gjennom no-code/low-code, og utvikling til levere raskere tid-til-verdi og risikoreduksjon gjennom beste praksis for AI-regulatorisk styring.

Øk tilliten til AI-teknologier. COVID-19 forsterket og akselererte trenden mot å gå inn for AI-drevne chatbots, virtuelle økonomiske assistenter og berøringsfri kunde-ombordstigning. Denne trenden vil fortsette som bekreftet i forskning av Cap Gemini som viser at 78 % av de spurte forbrukerne planlegger å øke bruken av AI-teknologier, inkludert digital identitetshåndtering i deres samhandling med finansielle tjenesteorganisasjoner.

Til tross for de iboende fordelene, dukker det opp en rekke utfordringer. Den øverste blant dem er fortsatt mistillit til AI-teknologier og hvordan deres allestedsnærværende natur påvirker deres personvern- og sikkerhetsrettigheter. 30 % av forbrukerne sa at de ville være mer komfortable med å dele biometrisk informasjon hvis deres finansielle tjenesteleverandører ga mer åpenhet i å forklare hvordan informasjonen deres samles inn, administreres og sikres.

IT-sjefer må adoptere pålitelige AI-prinsipper og iverksette strenge tiltak som ivaretar personvern og sikkerhetsrettigheter. De kan oppnå dette gjennom kryptering, dataminimering og sikrere autentisering, inkludert å vurdere å komme frem desentraliserte standarder for digital identitet. Som et resultat vil din intelligente automatiseringsinnsats og selvbetjeningstilbud se mer adopsjon og trenge mindre menneskelig intervensjon.

Fjern barrierer for demokratisering av kunstig intelligens. Det er et økende skifte mot utvikling av AI-applikasjoner uten kode/lav kode, som forskning prognoser for å nå 45.5 milliarder dollar innen 2025. Hoveddriveren er raskere tid til å verdsette med forbedringer i applikasjonsutviklingsproduktiviteten med 10x.

For eksempel vurderer 56 % av de spurte finanstjenesteorganisasjonene datainnsamling fra låntakere som et av de mest utfordrende og ineffektive trinnene i lånesøknadsprosessen, noe som resulterer i høye avbruddsrater. Mens AI-drevet biometrisk identifikasjon og datainnsamlingsteknologier har vist seg å forbedre effektiviteten i lånesøknadsprosessen, kan de også skape overholdelsesrisiko spesielt datavern, konfidensialitet og AI-algoritmisk skjevhet.

For å redusere og avhjelpe slike risikoer må programmer med lav kode/ingen kode inkludere omfattende testing for å sikre at de fungerer i samsvar med de opprinnelige designmålene, fjerne potensiell skjevhet i opplæringsdatasettet som kan inkludere samplingskjevhet, merkingsskjevhet og er sikret mot motstand. AI-angrep som kan påvirke AI-algoritmiske utfall negativt. Hensyn til ansvarlige datavitenskapelige prinsipper av rettferdighet, nøyaktighet, konfidensialitet og sikkerhet er avgjørende.

Utvikle et AI-styrings- og regelverk. AI-styring er ikke lenger hyggelig å ha initiativ, men et imperativ. I følge OECDs tracker på nasjonal AI-politikk er det over 700 AI-reguleringsinitiativer under utvikling i over 60 land. Det er imidlertid frivillige etiske retningslinjer og etiske AI-prinsipper utviklet av internasjonale standardiseringsorganisasjoner som f. Institutt for elektriske og elektroniske ingeniører (“IEEE”) og National Institute of Standards and Technology (NIST).

Bekymringer fra organisasjoner omgir antagelsen om at AI-forskrifter vil påtvinge mer strenge overholdelsesforpliktelser på dem, støttet av tyngende håndhevingsmekanismer, inkludert straff for manglende overholdelse. Likevel er AI-regulering uunngåelig.

Europa og Nord-Amerika tar proaktive holdninger som vil kreve at IT-sjefer samarbeider med sine teknologi- og forretningskolleger for å danne effektive retningslinjer. For eksempel foreslår EU-kommisjonen en Lov om kunstig intelligens foreslår å innføre risikobaserte forpliktelser på AI-leverandører for å beskytte forbrukerrettigheter, samtidig som de fremmer innovasjon og økonomiske muligheter knyttet til AI-teknologier.

I tillegg, i juni 2022, ga den kanadiske føderale regjeringen ut det etterlengtede Lov om gjennomføring av digital charter som beskytter mot negative påvirkninger av høyrisiko AI-systemer. USA fortsetter også med AI-reguleringsinitiativer, om enn på sektorbasis.  Federal Trade Commission (FTC), den Consumer Financial Protection Bureau (CFPB) Og Federal Reserve Board spenner alle sine regulatoriske muskler gjennom sine håndhevelsesmekanismer for å beskytte forbrukere mot negative påvirkninger som oppstår fra økt bruk av AI som kan resultere i diskriminerende utfall, om enn utilsiktede. Et AI-regelverk er et must for ethvert innovativt selskap.

Å oppnå pålitelig AI krever datadrevet innsikt

Implementering av pålitelig AI kan ikke oppnås uten en datadrevet tilnærming for å bestemme hvor applikasjonene av AI-teknologier kan ha størst innvirkning før man fortsetter med implementeringen. Er det for å forbedre kundeengasjementet, eller for å realisere driftseffektivitet eller for å redusere etterlevelsesrisiko?

Hver av disse forretningsdriverne krever en forståelse av hvordan prosesser utføres, hvordan eskaleringer og unntak håndteres, og identifisere variasjoner i veisperringer for prosessutførelse og deres rotårsaker. Basert på slike datadrevne analyser, kan organisasjoner ta informerte forretningsbeslutninger med hensyn til virkningen og resultatene knyttet til implementering av AI-baserte løsninger for å redusere friksjon ved innføring av kunder og forbedre driftseffektiviteten. Når organisasjoner har fordelen av datadrevet innsikt, kan de automatisere svært arbeidskrevende prosesser som å møte AI-samsvarsmandater, samsvarsrevisjon, KYC og AML i finansielle tjenester.

Det viktigste er at en integrert del av AI-aktivert prosessautomatisering er implementering av pålitelige AI-beste praksiser. Etisk bruk av kunstig intelligens bør ikke bare betraktes som en juridisk og moralsk forpliktelse, men som en forretningsmessig nødvendighet. Det gir god forretningsmessig mening å være transparent i bruken av AI. Det fremmer tillit og skaper merkelojalitet.

Andrew Pery er en AI Ethics Evangelist hos intelligent automation company ABBYY. Pery har mer enn 25 års erfaring med å lede produktadministrasjonsprogrammer for ledende globale teknologiselskaper. Hans ekspertise er innen intelligent dokumentprosessautomatisering og prosessintelligens med en spesiell ekspertise innen AI-teknologier, applikasjonsprogramvare, datapersonvern og AI-etikk. Han har en Master of Law-grad med utmerkelse fra Northwestern University Pritzker School of Law og er en sertifisert personvernekspert.