Connect with us

Når AI’s ‘kunnskap’ er 50 år gammel: Den kompliance-risikoen du ikke kan ignorere

Tankeledere

Når AI’s ‘kunnskap’ er 50 år gammel: Den kompliance-risikoen du ikke kan ignorere

mm

Spørsmålet om feil AI-insikt er en akutt utfordring mens bedrifter øker bruken av generative verktøy. Til tross for vidt utbredt entusiasme om AI-tilpasning, finnes det også en sterk strøm av kritikk. Kritiske kommentatorer peker ofte på åpenbart tilfeldige, uforutsigbare uakkurater i AI’s utdata, som undergraver dens verdi – og kan til og med true virkelig skade på mennesker, spesielt i sektorer som helse og transport, der feil utdata teoretisk sett kan føre til alt fra feil medisin til tog på kollisjonskurs.

Ofte er disse uakkuratene blitt tillagt AI ‘hallusinasjoner‘ – eksempler på hvor AI genererer et ‘beste gjett’ svar, fremført med samme sikkerhet som et ‘ekte’ svar, i stedet for å informere brukeren om et gap i dens kunnskap eller evne. Hallusinasjoner kan være vanskelige å spore på første blikk – men det finnes et stille, like alvorlig problem som er enda vanskeligere å oppdage.

Datakvalitets-gjeld: AI’s akilleshæl

Når AI-systemer trekker fra foreldede, ufullstendige eller uakkurate data, skjer feil utdata, men er mindre umiddelbart synlige. For eksempel kan du be AI om å identifisere symptomene på en medisinsk tilstand og motta et svar basert på en 50 år gammel artikkel i stedet for nåværende forskning. Resultatet er lite sannsynlig å være åpenbart, latterlig feil – men den initielle skinn av plausibilitet utgjør en reell risiko for både pasienten i spørsmål og helseleverandøren.

Dette er sant over hele industrien – hvis dataene som mates til AI-modellen inkluderer gamle, foreldede eller delvis informasjon, er det en høy risiko for feil utdata. Og mens flere bedrifter integrerer AI i virksomhetskritiske prosesser, øker risikoen for å trekke feil konklusjoner fra dårlig styrt data.

Nøyaktighet for regulator

Dette er ikke bare et problem for dag-til-dag-operasjoner – det er også en betydelig kompliance-utfordring. Reguleringskrav utvikler seg raskt for å møte bekymringer om uakkurate AI. For eksempel har en rekke tidlige reguleringsaksjoner på AI funnet sted; merkbart da Italia midlertidig forbudt ChatGPT over personvernsbekymringer, og EU Data Protection Board lanserte en dedikert arbeidsgruppe for å koordinere potensielle aksjoner mot ChatGPT.

En av de mest talende reguleringsendringene har vært vedtaket av EU AI-loven, verdens første omfattende lovmessige ramme for AI. Loven setter ut krav basert på risikonivået for AI-systemer, fra ‘uakseptable risiko’-systemer, som er forbudt, til ‘høyrisiko’-systemer, som møter strenge krav om åpenhet, datakvalitet, styring og menneskelig tilsyn.

Betydningen av EU AI-loven ligger ikke i dens ambisiøse omfang, men viktigere på precedensen den setter. Regulatorer gjør det klart at AI vil være underlagt bindende, gjennomførbare regler, og at organisasjoner må behandle kompliance og åpenhet rundt hvor og hvordan AI brukes som en integrert del av AI-tilpasning, i stedet for en ettertanke.

Loven har et bredt omfang, med potensialet til å påvirke en stor andel av AI-utviklingen. I dens hjerte ligger det å gjøre AI trygg, samtidig som det respekterer grunnleggende rettigheter og verdier. Innenfor dette nye prinsipielle økosystemet kommer diagnosen av potensielle kilder for AI-uakkurater, inkludert dataene og datasamlingene som mates til modellene, modell-uavhengighet og tilgang, og systemdesign og bruk. AI-løsninger er en konstruksjon av alle tre – problemer med noen av disse kan ha en negativ utgang. Ikke bare det, men dataene som går inn i design, modellutvikling, distribusjon og drift av AI, er sannsynligvis hovedsakelig bestående av forretningsposter som selv er underlagt ulike kompliance-krav.

Med andre ord, den regulerende omgangen rundt AI blir stadig strengere – og det er like sant for datainndata som for datautdata, selv om sistnevnte får mer oppmerksomhet.

Fem skritt for å mate AI kompliant, aktuell, relevant data

For å løse denne doble utfordringen – å sikre både kompliant datahåndtering og høykvalitetsinndata som muliggjør høykvalitetsutdata – må bedrifter ha kontroll over trening- og slutningsdata. Dessverre er dette noe mange bedrifter fortsatt mangler.

I det minste bør organisasjonene anvende sine bredere kompliance- og styringsprogrammer på AI-initiativer. De må begynne med å fange og vedlikeholde passende poster på dataene de mater AI-modellene, hvordan modellene og systemene er designet, samt beslutningene og innholdet generert via AI.

Men det blir også kritisk viktig for organisasjonene å gå et skritt videre og sikre at de har full kontroll over all data som kan brukes i AI-distribusjoner, enten for initial trening eller ‘live’-arbeid. Dette krever en høykvalitets datahåndtering- og lagringsstrategi, som sikrer at all relevant data er intelligently samlet, renset, lagret, klassifisert og berettiget. For å oppnå dette, må organisasjonene vurdere fire nøkkel-skritt:

1. Dataætt og proveniens

Dette inkluderer å vedlikeholde en post over dataens kilde, dens opphav, eierskap og eventuelle endringer i metadata (hvis tillatt) gjennom hele dens livssyklus. Det inkluderer også å vedlikeholde rik metadata og alle underliggende dokumenter eller artefakter fra hvilke det er avledet.

2. Dataautentisitet

Dette krever å vedlikeholde en klar kjede av besittelse for all data, lagre objekter i deres native former, og hash-objekter mottatt for å demonstrere at data forblir uendret. I tillegg må organisasjonene vedlikeholde en full audit-historikk for hvert objekt, og for alle handlinger og hendelser med hensyn til alle endringer.

3. Dataklassifisering

Å etablere naturen til en samling eller type data er viktig. Organisasjoner må kunne styre strukturert data, semi-strukturert data og strukturerte datasamlinger. Å gi hver klasse en unik skjema kan tillate organisasjonene å håndtere diverse datasamlinger uten en en-size-fits-all fast ontologi – og unngå at dataene blir unødvendig manipulert for å tvinge dem inn i en inflexibel datastruktur.

4. Datanormalisering

Å etablere felles definisjoner og formater for metadata er viktig for bruk i analyser og AI-løsninger. Tydelig definerte skjema er et viktig element, sammen med verktøy som kan transformere eller kartlegge data for å vedlikeholde konsistente, normaliserte visninger av relatert data.

5. Databerettigelse

Bedrifter må ha granulerte berettigelseskontroller, inkludert på objekt- eller felt-nivå, basert på bruker- eller systemprofiler. Dette betyr at riktig data er tilgjengelig for brukere og systemer som er berettiget til å aksessere det, mens det begrenser eller begrenser aksess til de som ikke er.

Med disse kritiske elementene på plass, vil bedrifter være best plassert til å sikre at dataene som mates til AI-modellene er både høykvalitets og kompliant. AI vil drive forbedringer og effektiviseringer over hele industrien – men for at dette skal skje, er en solid data-grunnlag essensiell.

George Tziahanas er VP for Compliance og Associate General Counsel i Archive360. George er en ledende eksekutiv med en dyptgående forståelse av kompleks teknologi, bankreguleringer, datastyring og risikostyring. Og, arbeider tett med nåværende og potensielle kunder for å sikre at komplekse krav til datastyring og compliance blir møtt, i tråd med Archive360-løsninger.