Connect with us

Tankeledere

En Praktisk Vejledning til Ansvarlig AI

mm

Kunstig intelligens (AI) udviklinger skalerer ud over de tidlige pilotfaser til at blive fuldt integrerede løsninger, der driver produktion og virksomhedsomfattende forvandling. Imod denne baggrund står ledere over for en udfordrende opgave: at flytte AI fra bevis for koncept til kernen af daglige operationer. Denne ændring kræver, at de besvarer nye spørgsmål, der strækker sig fra, hvordan man udvikler, implementerer og bruger AI på en ansvarlig måde til at opbygge en troværdig grund, hvorpå man kan skalerer.

Ansvarlig AI handler om at sikre, at AI er nyttig uden at være skadelig for mennesker, organisationer og samfund. Mens perceptionen kan være, at det kan langsommere udviklingslivscyklussen, kan det i praksis gøre innovationen stærkere. Udrulning af Ansvarlig AI kan hjælpe med at reducere antallet af dyre fejl, tillade hurtigere adoption og tillid, give reguleringsklare systemer og forbedre bæredygtighed.

Men at forstå, hvordan organisationer kan udvikle, implementere og adoptere Ansvarlig AI, er nøgle til at sikre dens grundlæggende praksis og fulde integration. Her giver vi en praktisk vejledning om, hvordan virksomheder kan gøre dette, og sikre menneskelig oversigt fra de tidligste designfaser til implementering, overvågning, risikovurdering og eventuel afvikling.

De, der behandler Ansvarlig AI som en eftertanke, vil risikere regulativ eksponering, reputationsbeskadigelse og erosion af kundetillid. Til gengæld er de, der integrerer det fra starten, bedre positioneret til at skalerer AI på en bæredygtig måde.

At identificere de fem grundlæggende principper for integration af Ansvarlig AI

I hjertet af enhver Ansvarlig AI-strategi ligger en samling af kerneprincipper, der skal vejlede udvikling, implementering, evaluering og styring. Virkningen af disse principper vil forme praktisk styring, risikostyring og overholdelse af regler, der beskytter mennesker og beskytter mærkeværdi.

For store organisationer skal de arbejde på tværs af hold og med eksterne partnere for at sikre integrationen. Som sådan er der fem nøgleprincipper, som virksomheder kan adoptere for at styre deres AI-initiativer mod tillid, overholdelse og etiske resultater.

Først er ansvarlighed. Nogen må eje udfaldet for hvert vigtigt AI-system, og der skal være en person eller hold ansvarlig fra start til slut. Start med en simpel inventar, automatiser for at skalerer og begynd at liste AI-systemer, deres formål, datakilder og ejere. Det er også vigtigt at have en plan for, når ting går galt. Det er essentiel at vide, hvordan man kan pause og hvordan man kan undersøge og afhjælpe problemer.

Anden er at vurdere AI’s retfærdighed og dens potentielle indvirkning på mennesker. Afhæng ikke kun af tekniske målinger og vær opmærksom på, at AI-resultater kan variere mellem grupper og ufrivilligt udsætte nogen for ulemper. Dette er kritisk for højrisiko-brugsfald i områder som rekruttering, långivning eller sundhedspleje. Brug data-tests, når det er muligt, og inkluder menneskelig gennemgang og årsager til output.

Tredje er sikkerhed. Trusler mod AI-systemer fortsætter med at udvikle sig, nu inklusive prompt eller agent-baserede angreb. Det er afgørende at adresse disse risici og arbejde med sikkerhedshold for at modellere disse potentielle angreb. Byg sikkerhed ind i designet, begræns AI’s adgang til andre systemer og data, og udfør løbende testning, selv efter lanceringen.

Den fjerde faktor er privatliv. Denne bekymring går ud over den første træningsdata, og privatliv skal beskyttes på hvert trin. Overvej privatliv i brugerprompter, samtalelogfiler og AI-genererede output, da de alle kan indeholde private oplysninger. Design systemer til at indsamle kun den data, der er nødvendig, fastsæt strenge regler for adgang og opbevaring, og udfør privatlivsgennemgang for højrisiko-applikationer.

Til sidst er gennemsigtighed og kontroller, der tilpasser sig interessenter, afgørende. Hvad kunderne har brug for at vide, adskiller sig fra AI-udviklere. Til gengæld skal brugere vide, når de interagerer med AI, og forstå dens begrænsninger. Interne hold har brug for klart dokumentation om, hvordan AI blev bygget og hvordan det fungerer. AI-systemets gennemsigtighed fremmer fælles oversigt og tillid til systemets evner.

At kende forskellen: Ansvarlig AI vs. AI-styring

Mens Ansvarlig AI og AI-styring ofte bruges som synonyme, er der nøgleforskelle. Ansvarlig AI er en samling af holistiske praksisser og principper for at træffe troværdige beslutninger under udvikling, implementering og brug af AI. Det fokuserer på at aktivere evner som de fem ovennævnte principper for at minimere risici og maksimere AI’s fordele.

AI-styring, på den anden side, er en samling af politikker, procedurer og praksisser, der sigter mod at aktivere positive resultater og reducere sandsynligheden for skade. Det fokuserer på at etablere de rette organisatoriske og tekniske kontroller for at aktivere ansvarlig og etisk AI, ofte med fokus på ansvarlighed og overholdelse af love og organisatoriske politikker.

Organisationer er bedre positioneret til at skalerer AI ansvarligt, mens de opretholder tillid og regulativ beredskab, når de forstår, at disse to er forskellige, men forbundne. Derudover, mens nogle handlinger på ansvarlighed og styring er påkrævet af loven, er nogle ikke. For eksempel love, der pålægger begrænsninger på job, kvinder kan have i visse lande. Derfor er begge nødvendige for en komplet, balanceret tilgang til Ansvarlig AI.

Den vigtige fleksible styring

Da AI spreder sig, træder regulatorene ind med styringsrammer, der går ud over frivillige retningslinjer. Regler som Den Europæiske Unions Kunstig Intelligensakt sætter risikobaseret regulering i centrum af AI-styring. I stedet for at regulere teknologien ensartet, klassificerer akten AI-systemer i multiple risikoniveauer, der anerkender den potentielle skade baseret på forskellige brugsfald. For eksempel en AI-rekrutteringsskærm versus en anbefalingsmotor til shopping. Dette indebærer, at styring, dokumentation og sikkerhedsforanstaltninger skal være i overensstemmelse med konteksten og anvendelsen af AI.

Andre jurisdiktioner har også defineret rammer for at styre AI. Ifølge denne IAPP-rapport fremmer Singapore en fleksibel tilgang med værktøjer som dets Model AI-styringsramme, der fremhæver testning og gennemsigtighed over strenge påbud. Sydkoreas AI-Basicloven kombinerer også tilsyn med plads til innovation. Og inden for brancher, adskiller det sig. Finansservice har længe stået over for strenge sikkerheds- og retfærdighedskrav, mens sundheds-AI har medicinske enhedsregler at opfylde. Forbrugerteknologiprodukter falder også under privatlivs- og forbrugerbeskyttelseslove, med hver domæne, der kræver regler tilpasset dets risikoprofil og samfundsmæssige forventninger.

Derfor fungerer en tilpasningsdygtig tilgang til AI-styring ikke, da brancher og landedomæner adskiller sig i de typer skader, de berørte interessenter og de lovrammer, de opererer under. Derfor skal der være fleksibilitet.

Hvordan man styrer Autonom AI

Da AI går ind i en ny æra, skifter fra snævre forudsigelsesmotorer til agentbaseret AI, systemer, der kan planlægge, tilpasse sig og udføre autonome handlinger, kommer dette med nye risici.

For eksempel overvej en agentbaseret AI, der udfører en finansielle transaktion eller en HR-beslutning på egen hånd. Hvis det misclassificerer en transaktion eller giver en rekrutteringsanbefaling, der indbygger bias, er virksomhedskonsekvenserne alvorlige, fra finansielt tab til reputationsbeskadigelse, regulativ eksponering og juridisk eksponering.

Forskning præsenteret i Økonomiske og systemiske overvejelser i agentbaserede web-systemer forklarer også nye udfordringer, der følger med den opdykkende agentbaserede web-koncept, der handler i multi-agent, tværgående, maskin-hastigheds-markeder. Det fremhæver nogle præliminære, retningssættende styringsgreb, herunder guardian/oversigtsgenter og maskinlæsbare politik, med fokus på inklusiv adoption under urent ressourcebegrænsninger.

Imod denne baggrund har styringssystemer brug for at sætte grænser og kontroller for, hvor meget et AI-system kan håndtere på egen hånd uden menneskelig godkendelse. De skal etablere klare vejledninger, begrænse adgang til værktøjer og autorisationsfunktioner samt tillade specifikke designpunkter for obligatorisk menneskelig gennemgang. Alle komponenter i arbejdsgangen skal testes, herunder forbindelser og interaktioner mellem agenter, hvor fejl ofte opstår. Hver handling skal logges for sporbarhed, og kontroller skal sættes i place for at deaktivere systemet, når det er nødvendigt for at håndtere denne risiko.

Fremtiden for Ansvarlig AI

AI tilbyder udenforstående muligheder for at forvandle, hvordan virksomheder opererer, innovere, levere værdi, og Ansvarlig AI understøtter dette. At integrere Ansvarlig AI i design, udvikling og implementering er ikke kun en juridisk risiko og risikomindskningstaktik, men beskytter og forbedrer mærkeværdi, opnår kunde- og kundetillid samt låser markedfordele ved at demonstrere engagement i etisk innovation.

Men for at låse dets fordele, må virksomheder indbygge nøgleansvarlige praksisser i hele AI-systemet, fra starten og ud til slutningen af dets livscyklus. Dette inkluderer at integrere etiske og styringsovervejelser i datastrategi, privatliv og indsamling, systemdesign, udvikling, gennemsigtighed og retfærdighed, implementering og overvågning samt post-implementering og afvikling.

For alle, der er involveret i AI-udvikling og -implementering, er mandatet klart: Byg ansvarligt, styre proaktivt, forudse risici i dag, i morgen og herefter for at sikre den succesfulde udvikling af AI i en foranderlig verden.

Dr. Heather Domin, Vice President og leder af kontoret for Ansvarlig AI og Governance hos HCLTech, er en førende ekspert i Ansvarlig AI, der rådgiver globale organisationer om etisk AI-styring og implementering.