Kontakt med oss

Tankeledere

Bryte sirkelen: Hvordan organisasjoner kan unngå nederlag og levere suksess

mm

Helt siden det teoretiske konseptet på 1950-tallet har kunstig intelligens (KI) banet vei for bedrifter til å oppleve forbedrede muligheter og produktivitet gjennom ulike teknikker, spesielt maskinlæringssystemer. Disse verktøyene/teknologiene forbedret prognoser og beslutningstaking, og la grunnlaget for fremtidige tekniske fremskritt. I nyere tid har generativ KI lovet å snu opp ned på alt vi vet om arbeid og har demokratisert KI-opplevelsen. Brukere engasjerer seg nå med KI-modeller som ChatGPT, gjennom «prompting», der man samhandler frem og tilbake med en KI-modell. Imidlertid kommer disse fordelene også med en ny utfordring: Doomprompting. Dette tilsvarer doom-scrolling på nettinnhold, uten et definert mål, og fanger brukere i kaninhull. Med KI snakker imidlertid kaninhullet tilbake. Denne handlingen med kontinuerlig forbedring av KI-prompter for både generative og agentiske modeller, drevet av ambisjonen om å oppnå det perfekte resultatet (og noen ganger ved å spørre uten noe spesifikt mål i tankene), fører til økte kostnader og avtagende avkastning. Det skaper en stor hindring for suksess og motvirker formålet med å bruke selve KI-teknologien.

Etter hvert som bedrifter øker sine AI-relaterte budsjetter, må beslutningstakere forstå veien til reell avkastning på investeringene sine og hvilken verdi de genererer. En rapport fra IEEE fra 2025, «De skjulte kostnadene ved AI: Hvordan små ineffektiviteter hoper seg opp»,' demonstrerer hvordan små justeringer kan akkumuleres til betydelige økonomiske byrder. For å unngå å bli en del av denne kostbare kampen, må organisasjoner forbedre opplæringen av ansatte som bruker LLM-er for å oppnå det fulle potensialet av sine AI-investeringer.

Generativ AI gir løftet om optimalisering og effektivitet. Men når team blir fanget i en syklus av endeløs forbedring (eller radarløs vandring), undergraver ineffektivitet dette grunnlaget.

Rydding av «verkstedet»

En av grunnene til at team kontinuerlig forbedrer resultater for å generere et perfekt svar er arbeidsløsninger. Arbeidsløsninger ble først beskrevet i Harvard Business Review og omfatter «AI-generert arbeidsinnhold som utgir seg for å være godt arbeid, men mangler substansen til å fremme en gitt oppgave på en meningsfull måte».

Denne AI-produserte «drittsekken» er den første dominobrikken i en lang rekke som skaper den såkalte «doomprompting»-syklusen. Selv om det er viktig å endre det dårlige innholdet gjennom iterasjoner eller redigeringer, må man forstå når man skal stoppe, før det ender opp i en skråning med avtagende avkastning. Organisasjoner må nærme seg tidsinvesteringen sin i AI-opplæring med en hårfin balansegang. På den ene siden bør teamene være bevisste på den nødvendige kvaliteten, på den andre siden bør de vite når det blir for mye. Opplæring av ansatte i smartere bruk av AI-modeller gjennom optimal veiledning og klare mål vil også være nyttig.

Bruk Agentic AI for å unngå doomprompting

I de senere årene har bedrifter økt interessen og investeringene i agentisk AI betydelig, som er anerkjent for sin evne til å forbedre driftseffektiviteten. Agentisk AI kan ta på seg komplekse oppgaver, orkestrere med flere agenter (inkludert RAG og handlingsagenter) for å bestemme handlingsforløpet, og utføre oppgavene for å fullføre den overordnede oppgaven autonomt.

Disse egenskapene kan hjelpe AI med å redusere doomprompting, eller unngå det helt. Dette kan fjerne behovet for å instruere GenAI-grensesnitt gjennom flere ledetekster for å fullføre oppgaven. Et eksempel på dette kan finnes i AI-drevne IT-operasjoner, eller AIOps, som moderniserer IT ved å integrere AI i daglige oppgaver. Tradisjonelt bruker team tiden sin på å justere systemer manuelt. Avdelinger i det 21. århundre er de som bruker AI til å autonomt håndtere kritiske funksjoner som feilsøking, hendelsesrespons og ressursallokering.

Et annet passende eksempel er hvordan agentiske AI-systemer kan håndtere en kompleks hendelse autonomt. Disse agentene, sammen med IT-operatører, er i stand til å forstå problemet kontekstuelt, orkestrere med resonnerende agenter for å bestemme handlingsplanen, bruke handlingsagenter til å gjøre de siste løsningene på IT-systemer og til slutt bruke læringsagenter til å forstå løsningen og anvende den mer effektivt i fremtidige hendelser.

Agentic AIs intelligente automatisering bidrar til mindre menneskelig interaksjon og utfører oppgaver autonomt. For å møte utviklende forretningskrav bør repeterende oppgaver og operasjoner overføres til autonom AI. Denne delegeringen eliminerer syklusen med gjentatte spørsmål og gjentatt forbedring som ofte fører til «doomprompting». Autonome operasjoner lar AI-modeller kontinuerlig optimalisere og reagere på skiftende variabler uten manuell inndata, noe som fører til raskere resultater med minimal menneskelig inngripen.

Selv om trente fagfolk fortsatt vil spille en sentral rolle i den daglige driften via en «menneskelig aktør»-tilnærming, vil tiden deres bli bedre utnyttet til skanning for resultatverifisering. Denne tilnærmingen minimerer risikoen for feil eller overjustering.

Styringens rolle i å forhindre doomprompting

I en fersk McKinsey undersøkelse88 % av respondentene rapporterte at de brukte AI i minst én forretningsfunksjon. Dette var en økning på 10 % fra 2024 og en forbløffende økning på 33 % siden 2023. For Agentic AI var denne økningen enda større. Fra bare 33 % i 2023 til nesten 80 % i 2025.

Denne utbredte bruken driver bedrifter til å finne nye løsninger for å håndtere «doomprompting». Et slikt verktøy er robuste styringsrammeverk. Disse bør utformes nøye for å sikre at AI-prosjekter forblir i tråd med forretningsmål og ikke blir ofre for den endeløse optimaliseringsvalsen. Når team utvikler disse rammeverkene, bør de vurdere:

  • Etablering av retningslinjerDatastrømmer til og fra AI-modeller blir stadig mer komplekse. For å forenkle dette bør AI-retningslinjer skape et rammeverk for team slik at de kan håndtere data, ta beslutninger og administrere AI-utdata på en ansvarlig måte.
  • Opplæring av brukerne: Riktig opplæring i rask bruk kan bidra til optimal produktivitet
  • Bruk av spesialiserte modeller: Bransje- og formålsspesifikke AI-modeller vil sannsynligvis gi kontekstuelle og meningsfulle resultater raskere
  • Trening av AI-modellene: Å trene AI-modellene med bransje-/oppgave-/organisasjonsspesifikke data (der det er mulig) kan føre til mindre arbeidsforløp og mer passende resultater raskere.
  • RegelutviklingDet er viktig å utarbeide og implementere et tydelig sett med regler for å veilede utvikling og utrulling av AI. Når team etablerer operative grenser, sørger de for at systemene som er tatt i bruk er i samsvar med organisasjonens mål, etiske standarder og regulatoriske krav.

Selv om adopsjonsraten for AI-løsninger øker, har ikke styringen gjort det. Ifølge PEX Industry Report fra 2025, mindre enn halvparten har en styringspolicy for AI på plass. I mellomtiden var bare 25 % i ferd med å implementere en, og nesten en tredjedel hadde ingen styringspolicy for AI på plass. Disse rammeverkene kan være den avgjørende faktoren for å hjelpe bedrifter med å sette klare grenser for hva som utgjør akseptabel ytelse.

Unnslippe Doomprompting-løkken

For å unngå å falle inn i en ond sirkel av dommedagsprofetisjon, må bedrifter ta i bruk AI-strategier som prioriterer resultater fremfor perfeksjon. Bruk av rask opplæring, formålsspesifikke AI-modeller og modeller trent på kontekstuelle bedriftsdata kan redusere behovet for omfattende gjentatte promptinger. Bedrifter som utnytter agentbasert AI, autonom IT-drift og sterke styringsrammeverk, kan omfordele kritiske ressurser for å nå sine forretningsmål uten å bli overveldet av endeløse optimaliseringssykluser. Suksess vil komme når team endrer tankegangen fra konstant forbedring til en med fokusert utførelse og målbare resultater.

Arunava Bag CTO (EMEA) hos Digitalisere er en erfaren IT-konsulent og leder med over 25 års erfaring i bransjen, inkludert dyp ekspertise innen programvareprodukter basert på kunstig intelligens og maskinlæring, ytelsesteknikk, kapasitetsmodellering, IT-optimalisering, høyytelsesdatabehandling, applikasjonsutvikling og teknologipraksishåndtering. Han har med hell promotert nye produkter, ledet teknologipraksis og levert komplekse teknologiprogrammer på tvers av ulike bransjevertikaler og geografiske områder.