Connect with us

Tankeledere

3 Overveielser for Sikre og Pålidelige AI-Agenter for Bedrifter

mm

Ifølge Gartner, 30% av GenAI-prosjekter vil sannsynligvis bli forkastet etter proof-of-concept ved utgangen av 2025. Tidlig innføring av GenAI avdekket at de fleste bedrifters datainfrastruktur og styringspraksis ikke var klar for effektiv AI-utplassering. Den første bølgen av GenAI-produktisering møtte betydelige hindringer, og mange organisasjoner kjempet for å gå beyond proof-of-concept-faser for å oppnå meningsfulle forretningsverdier.

Da vi går inn i den andre bølgen av generativ AI-produktisering, innser bedriftene at suksessfull implementering av disse teknologiene krever mer enn bare å koble en LLM til deres data. Nøkkelen til å låse opp AI-potensialet ligger på tre kjernepilarer: å få data i orden og sikre at den er klar for integrasjon med AI; å omstrukturere datastyringspraksiser for å møte de unike utfordringene GenAI introduserer; og å utplassere AI-agenter på måter som gjør det naturlig og intuitivt å bruke dem trygt og pålitelig, slik at brukerne ikke må lære spesialiserte ferdigheter eller presise bruksmønster. Disse pilarene skaper sammen en sterk grunnlag for sikre og effektive AI-agenter i bedriftsmiljøer.

Proper Forberedelse av Din Data for AI

Selv om strukturert data kan se organisert ut for det blotte øye, ordnet i tabeller og kolonner, har LLMs ofte vanskeligheter med å forstå og arbeide med denne strukturerte dataen effektivt. Dette skjer fordi data ofte ikke er merket på en semantisk meningsfull måte i de fleste bedrifter. Data har ofte kryptiske merker, for eksempel “ID” uten noen tydelig indikasjon på om det er en identifikator for en kunde, et produkt eller en transaksjon. Med strukturert data er det også vanskelig å fange den riktige konteksten og relasjonene mellom forskjellige sammenkoblede datapunkter, som hvordan trinn i en kundereise er relatert til hverandre. Like som vi trengte å merke hver enkelt bilde i computer vision-applikasjoner for å muliggjøre meningsfull interaksjon, må organisasjonene nå påta seg den komplekse oppgaven å semantisk merke deres data og dokumentere relasjoner over alle systemer for å muliggjøre meningsfull AI-interaksjon.

I tillegg er data spredt over mange forskjellige steder – fra tradisjonelle servere til forskjellige skytjenester og ulike programvareapplikasjoner. Dette patchwork av systemer fører til kritiske interoperabilitets- og integreringsproblemer som blir enda mer problematiske når det gjelder implementering av AI-løsninger.

En annen grunnleggende utfordring ligger i inkonsistensen av forretningsdefinisjoner over forskjellige systemer og avdelinger. For eksempel kan kundesuksess-team definere “oppgradering” på en måte, mens salgsteamet definerer det på en annen måte. Når du kobler en AI-agent eller chatbot til disse systemene og begynner å stille spørsmål, vil du få forskjellige svar fordi datadefinisjonene ikke er alignert. Dette manglende alignement er ikke en mindre ulempe – det er en kritisk barriere for å implementere pålitelige AI-løsninger.

Dårlig datakvalitet skaper en klassisk “skrald inn, skrald ut“-scenario som blir eksponentielt mer alvorlig når AI-verktøy deployeres over en bedrift. Feil eller uordentlig data påvirker langt mer enn en analyse – det sprer feil informasjon til alle som bruker systemet gjennom deres spørsmål og interaksjoner. For å bygge tillit til AI-systemer for virkelige forretningsbeslutninger, må bedrifter sikre at deres AI-applikasjoner har data som er ren, nøyaktig og forstått i en riktig forretningskontekst. Dette representerer en grunnleggende endring i hvordan organisasjoner må tenke om deres dataaktiver i AI-alderen – hvor kvalitet, konsistens og semantisk klarhet blir like kritisk som dataene selv.

Styrking av Tilnærminger til Styring

Datastyring har vært et hovedfokus for organisasjoner i de siste årene, hovedsakelig sentrert rundt å håndtere og beskytte data brukt i analyser. Selskaper har arbeidet for å kartlegge følsom informasjon, holde seg til tilgangsstandarder, overholde lover som GDPR og CCPA, og oppdage personlig data. Disse initiativene er avgjørende for å skape AI-klar data. Men når organisasjoner introduserer generativ AI-agenter i deres arbeidsflyt, utvider styringsutfordringen seg beyond bare dataene selv til å omfatte hele brukerinteraksjonsopplevelsen med AI.

Vi står nå overfor imperativet til å styre ikke bare de underliggende dataene, men også prosessen hvor brukerne interagerer med dataene gjennom AI-agenter. Eksisterende lovgivning, som Den europeiske unions AI-akt, og flere reguleringer på horisontet understreker nødvendigheten av å styre spørsmåls-svareprosessen selv. Dette betyr å sikre at AI-agenter gir transparente, forklarbare og sporable svar. Når brukerne mottar svarteboks-svar – som å spørre “Hvor mange influensapatienter ble innlagt i går?” og bare få “50” uten kontekst – er det vanskelig å stole på denne informasjonen for kritiske beslutninger. Uten å vite hvor dataene kom fra, hvordan de ble beregnet, eller definisjoner av begreper som “innlagt” og “i går”, mister AI-utgangen påliteligheten.

I motsetning til interaksjoner med dokumenter, hvor brukerne kan spore svar tilbake til bestemte PDF-er eller politikker for å verifisere nøyaktighet, mangler interaksjoner med strukturert data via AI-agenter ofte denne nivået av sporing og forklarbarhet. For å møte disse problemene, må organisasjonene implementere styringsmessige tiltak som ikke bare beskytter følsom data, men også gjør AI-interaksjonsopplevelsen styrt og pålitelig. Dette inkluderer å etablere robuste tilgangskontroller for å sikre at bare autoriserte personer kan få tilgang til bestemt informasjon, å definere klare dataeierskaps- og forvaltningsansvar, og å sikre at AI-agenter gir forklaringer og referanser for deres utganger. Ved å omstrukturere datastyringspraksiser for å inkludere disse overveielser, kan bedrifter trygt utnytte kraften av AI-agenter samtidig som de overholder utviklende reguleringer og opprettholder brukertillit.

Tenke Beyond Prompt-teknikk

Da organisasjoner introduserer generativ AI-agenter i et forsøk på å forbedre data tilgjengelighet, har prompt-teknikk oppstått som en ny teknisk barriere for forretningsbrukere. Selv om det lovet å være en løftende karrierevei, er prompt-teknikk i realiteten å gjenskape de samme barrierene vi har kjempet med i dataanalyse. Å lage perfekte prompter er ikke forskjellig fra å skrive spesialiserte SQL-forespørsler eller bygge dashbordfiltre – det er å flytte teknisk ekspertise fra en format til en annen, fortsatt krever spesialiserte ferdigheter som de fleste forretningsbrukere ikke har og ikke bør trenge.

Bedrifter har lenge forsøkt å løse data tilgjengelighetsproblemet ved å trene brukerne til å bedre forstå datasystemer, lage dokumentasjon og utvikle spesialiserte roller. Men denne tilnærmingen er bakvendt – vi ber brukerne til å tilpasse seg data i stedet for å gjøre data tilgjengelig for brukerne. Prompt-teknikk truer med å fortsette denne mønsteren ved å skape enda et lag av tekniske mellomledd.

Sann data-demokratisering krever systemer som forstår forretnings språk, ikke brukere som forstår dataspråk. Når ekskjutiver spør om kundebeholdning, bør de ikke trenge perfekt terminologi eller prompter. Systemer bør forstå intensjon, gjenkjenne relevante data over forskjellige merker (uansett om det er “avhopping”, “behholdning” eller “kundelivssyklus”), og gi kontekstuelle svar. Dette lar forretningsbrukere fokusere på beslutninger i stedet for å lære å stille teknisk perfekte spørsmål.

Konklusjon

AI-agenter vil bringe viktige endringer til hvordan bedrifter opererer og tar beslutninger, men kommer med sine egne unike utfordringer som må møtes før de deployeres. Med AI er hver feil forsterket når ikke-tekniske brukere har selvbetjeningstilgang, gjør det kritisk å få grunnlaget riktig.

Organisasjoner som suksessfullt møter de grunnleggende utfordringene med datakvalitet, semantisk alignering og styring, samtidig som de går beyond begrensningene av prompt-teknikk, vil være posisjonert for å trygt demokratisere data tilgang og beslutningstaking. Den beste tilnærmingen inkluderer å skape et samarbeidsmiljø som fremmer samarbeid og aligner menneske-til-maskin samt maskin-til-maskin interaksjoner. Dette garanterer at AI-drevne innsikter er nøyaktige, sikre og pålitelige, og oppmuntre en organisasjonsomfattende kultur som håndterer, beskytter og maksimerer data til sin fulle potensiale.

Inna Tokarev Sela, administrerende direktør og grunnlegger av Illumex, leder en plattform som forbereder din organisasjons strukturerte data for optimal utrullning av genAI-analyseagenter ved å oversette dem til meningsfulle, kontekstrike forretnings språk med innbygget styring.