Connect with us

Tankeledere

3 Overvejelser for Sikre og Pålidelige AI-Agenter til Virksomheder

mm

Ifølge Gartner, 30% af GenAI-projekter vil sandsynligvis blive opgivet efter proof-of-concept ved udgangen af 2025. Tidlig tilpasning af GenAI afslørede, at de fleste virksomheders datainfrastruktur og styrepraksis ikke var klar til effektiv AI-udrulning. Den første bølge af GenAI-produktudvikling mødte betydelige hindringer, og mange organisationer kæmpede med at gå beyond proof-of-concept-faser for at opnå meningsfulde forretningsværdier.

Da vi går ind i den anden bølge af generativ AI-produktudvikling, indser virksomhederne, at en succesfuld implementering af disse teknologier kræver mere end blot at tilkoble en LLM til deres data. Nøglen til at låse AI’s potentiale hviler på tre kernepillar: at få data i orden og sikre, at den er klar til integration med AI; at omstrukturere datastyrepraksis for at imødekomme de unikke udfordringer, GenAI introducerer; og at udrulle AI-agenter på en måde, der gør sikker og pålidelig brug naturlig og intuitiv, så brugerne ikke er tvunget til at lære specialiserede færdigheder eller præcise brugs mønster. Sammen skaber disse pillar en stærk grundlag for sikre, effektive AI-agenter i virksomheds miljøer.

At forberede dine data korrekt til AI

Selvom struktureret data måske ser organiseret ud for det blotte øje, når den er ordnet i tabeller og kolonner, kæmper LLM’er ofte med at forstå og arbejde med denne strukturerede data effektivt. Dette skyldes, at data i de fleste virksomheder ikke er mærket på en semantisk meningsfuld måde. Data har ofte kryptiske mærker, f.eks. “ID” med ingen klar indikation af, om det er en identifikator for en kunde, et produkt eller en transaktion. Med struktureret data er det også svært at fange den rette kontekst og relationer mellem forskellige forbundne datapunkter, som f.eks. hvordan trin i en kunderejse er relateret til hinanden. Ligesom vi havde brug for at mærke hver enkelt billed i computer vision-applikationer for at aktivere meningsfuld interaktion, må organisationerne nu påtage sig den komplekse opgave at semantisk mærke deres data og dokumentere relationer på tværs af alle systemer for at aktivere meningsfulde AI-interaktioner.

Derudover er data spredt over mange forskellige steder – fra traditionelle servere til forskellige cloud-tjenester og forskellige software-applikationer. Dette patchwork af systemer fører til kritiske interoperabilitets- og integrationsproblemer, der bliver endnu mere problematiske, når AI-løsninger implementeres.

En anden grundlæggende udfordring ligger i inkonsistensen af forretningsdefinitioner på tværs af forskellige systemer og afdelinger. F.eks. kan kundesucces-hold definere “upsell” på en måde, mens salgsteamet definerer det på en anden måde. Når du tilkobler en AI-agent eller chatbot til disse systemer og begynder at stille spørgsmål, får du forskellige svar, fordi datadefinitionerne ikke er aligneret. Denne mangel på alignment er ikke en mindre ulempe – det er en kritisk barriere for at implementere pålidelige AI-løsninger.

Dårlig datakvalitet skaber en klassisk “skrald ind, skrald ud“-scenario, der bliver eksponentielt mere alvorligt, når AI-værktøjer udrulles på tværs af en virksomhed. Forkert eller rodet data påvirker langt mere end en enkelt analyse – det spreder forkert information til alle, der bruger systemet gennem deres spørgsmål og interaktioner. For at opbygge tillid til AI-systemer til rigtige forretningsbeslutninger må virksomheder sikre, at deres AI-applikationer har data, der er ren, præcis og forstået i en korrekt forretningskontekst. Dette repræsenterer en fundamental ændring i, hvordan organisationer må tænke om deres dataaktiver i AI-alderen – hvor kvalitet, konsistens og semantisk klarethed bliver lige så afgørende som dataene selv.

At styrke tilgangene til styre

Datastyre har været et stort fokus for organisationer i de seneste år, primært centreret omkring at styre og beskytte data, der bruges i analyser. Virksomheder har gjort en indsats for at kortlægge følsomme oplysninger, overholde adgangsstandarder, overholde love som GDPR og CCPA og opdage personlige data. Disse initiativer er væsentlige for at skabe AI-klar data. Men da organisationer introducerer generative AI-agenter i deres arbejdsgange, udvider styreudfordringen sig beyond blot data selv til at omfatte hele brugerinteraktionsoplevelsen med AI.

Vi står nu over for det imperativ at styre ikke blot den underliggende data, men også processen, hvormed brugere interagerer med denne data gennem AI-agenter. Eksisterende lovgivning, såsom Den Europæiske Unions AI-akt, og flere regler på vej understreger nødvendigheden af at styre spørgsmål-svar-processen selv. Dette betyder, at AI-agenter skal levere transparente, forklarelige og sporbarhedssvar. Når brugere modtager sorte-kasse-svar – som f.eks. at spørge, “Hvor mange influenza-patienter blev indlagt i går?” og kun få “50” uden kontekst – er det svært at stole på denne information til kritiske beslutninger. Uden at vide, hvor data kommer fra, hvordan det er beregnet eller definitioner af begreber som “indlagt” og “i går”, mister AI-udgangen pålidelighed.

I modsætning til interaktioner med dokumenter, hvor brugere kan spore svar tilbage til bestemte PDF’er eller politikker for at verificere nøjagtighed, mangler interaktioner med struktureret data via AI-agenter ofte denne niveau af sporbarhed og forklarbarhed. For at imødekomme disse problemer må organisationer implementere styreforanstaltninger, der ikke blot beskytter følsomme data, men også gør AI-interaktionsoplevelsen styret og pålidelig. Dette inkluderer at etablere robuste adgangskontroller for at sikre, at kun autoriseret personale kan få adgang til bestemte oplysninger, at definere klare dataejerskabs- og forvaltningsansvar og at sikre, at AI-agenter leverer forklaringer og referencer for deres udgang. Ved at omstrukturere datastyrepraksis for at inkludere disse overvejelser kan virksomheder sikkert udnytte kraften af AI-agenter, samtidig med at de overholder udviklende regler og opretholder brugertillid.

At tænke beyond prompt-teknik

Da organisationer introducerer generative AI-agenter i et forsøg på at forbedre dataadgang, er prompt-teknik dukket op som en ny teknisk barriere for business-brugere. Selvom det er blevet fremhævet som en lovende karrierevej, er prompt-teknik i virkeligheden blot en genskabelse af de samme barrierer, vi har kæmpet med i dataanalyse. At skabe perfekte prompts er ikke anderledes end at skrive specialiserede SQL-forespørgsler eller bygge dashboard-filtre – det er blot en overførsel af teknisk ekspertise fra en format til en anden, stadig krævende specialiserede færdigheder, som de fleste business-brugere ikke har og ikke burde have.

Virksomheder har længe forsøgt at løse dataadgangsproblemet ved at uddanne brugere til bedre at forstå datasystemer, oprette dokumentation og udvikle specialiserede roller. Men denne tilgang er forkert – vi beder brugerne om at tilpasse sig data i stedet for at gøre data til at tilpasse sig brugerne. Prompt-teknik truer med at fortsætte denne mønster ved at skabe endnu et lag af tekniske mellemled.

Sand data-demokratisering kræver systemer, der forstår business-sprog, ikke brugere, der forstår datasprog. Når direktører spørger om kunde-tilbageholdelse, skal de ikke have perfekt terminologi eller prompts. Systemer skal forstå hensigt, genkende relevante data på tværs af forskellige mærker (uanset om det er “afhop”, “tilbageholdelse” eller “kunde-livscyklus”) og levere kontekstuelle svar. Dette låter business-brugere fokusere på beslutninger i stedet for at lære at stille teknisk perfekte spørgsmål.

Konklusion

AI-agenter vil bringe vigtige ændringer til, hvordan virksomheder opererer og tager beslutninger, men de kommer med deres eget unikke sæt af udfordringer, der må løses, før de udrulles. Med AI er hver enkelt fejl forstærket, når ikke-tekniske brugere har selvbetjeningadgang, hvilket gør det afgørende at få grundlaget ret.

Organisationer, der succesfuldt løser de grundlæggende udfordringer med datakvalitet, semantisk alignment og styre, samtidig med at de bevæger sig beyond prompt-teknikkens begrænsninger, vil være positioneret til at sikre en demokratisk adgang til data og beslutningstagning. Den bedste tilgang indebærer at skabe et samarbejdsmiljø, der faciliterer teamwork og aligner menneske-maskine såvel som maskine-maskine-interaktioner. Dette garanterer, at AI-drevne indsigt er nøjagtig, sikker og pålidelig, og opmuntrer en organisationsomfattende kultur, der styrer, beskytter og maksimerer data til deres fulde potentiale.

Inna Tokarev Sela, administrerende direktør og grundlægger af Illumex, leder en platform, der forbereder jeres organisations strukturerede data til optimal udrulning af genAI-analyseagenter ved at oversætte dem til meningsfuld, kontekst rig business-sprog med indbygget styring.