Tankeledere
Å bryte syklusen: Hvordan organisasjoner kan unngå Doomprompting og levere suksess

Siden det teoretiske konseptet i 1950-årene, har kunstig intelligens (AI) åpnet opp for bedrifter til å oppleve forbedrede muligheter og produktivitet gjennom ulike teknikker, spesielt maskinlæringsystemer. Disse verktøyene/teknologiene forbedret prognoser og beslutningstaking, og la grunnlaget for fremtidige tekniske fremgang. I nyere tid har Generative AI lovet å snu alt vi vet om arbeid på hodet, og har demokratisert AI-erfaringen. Brukere engasjerer nå med AI-modeller som ChatGPT, gjennom “prompting”, hvor en interagerer frem og tilbake med en AI-modell. Imidlertid kommer disse fordelene også med en ny utfordring: Doomprompting. Dette er ekvivalent med å bla gjennom nettinnhold uten et definert mål, og fanger brukerne i kaninhull. Med AI, snakker kaninhullet tilbake. Denne kontinuerlige AI-prompt-forbedringen for både generative og agente modeller, drevet av ambisjonen om å oppnå det perfekte utgangspunktet (og noen ganger ved å prompte uten et bestemt mål i tankene), fører til økte kostnader og avtagende avkastning. Dette skaper en stor hindring for suksess og motvirker formålet med å bruke AI-teknologien selv.
Siden bedrifter øker sine AI-relaterte budsjetter, må beslutningstakere forstå veien til virkelige avkastninger på sine investeringer og hva verdien er den genererer. En rapport fra 2025 fra IEEE, The Hidden Costs of AI: How Small Inefficiencies Stack Up, demonstrerer hvordan små justeringer kan akkumuleres til betydelige økonomiske byrder. For å unngå å bli en del av denne kostbare kampen, må organisasjoner forbedre opplæringen av ansatte med LLMs for å oppnå fullt potensial av sine AI-investeringer.
Generative AI bringer løftet om optimalisering og effisiens. Imidlertid, når team blir fanget i syklusen av endeløs forbedring (eller radar-løs vandring), undergraver ineffisiens denne grunnlaget.
Rydding opp i “Workslop”
En av årsakene til at team kontinuerlig forbedrer utgangspunkt for å generere et perfekt svar er workslop. Først beskrevet i Harvard Business Review, omfatter workslop ‘AI-generert arbeidsinnhold som maskeerer som godt arbeid, men mangler substansen til å betydelig fremme en gitt oppgave’.
Dette AI-produserte ‘slop’ er den første dominoen i en lang rekke som skaper doomprompting-syklusen. Mens modifisering av underordnet innhold gjennom iterasjoner eller redigeringer er viktig, må en forstå når det er på tide å stoppe, før det kommer inn i skråningen av avtagende avkastning. Organisasjoner må tilnærme seg sin tidsinvestering i AI-opplæring med en balansert holdning. På den ene siden, må team være bevisste på den nødvendige kvaliteten; på den andre siden, må de vite når det er for mye. Opplæring av ansatte i smartere bruk av AI-modeller gjennom optimal prompting og klare mål ville også være nyttig.
Utnytting av Agentic AI for å unngå Doomprompting
I nyere år, har bedrifter betydelig økt sin interesse og investering i agentic AI, som er kjent for sin evne til å forbedre operasjonell effektivitet. Agentic AI kan ta komplekse oppgaver, orkestrere med multiple agenter (inkludert RAG og handling agenter) for å bestemme handlingens retning, og utføre oppgavene for å fullføre den totale oppgaven autonomt.
Disse egenskapene kan hjelpe AI til å motvirke doomprompting, eller sidesteppe det helt. Dette kan fjerne behovet for å instruere GenAI-grensesnitt gjennom multiple prompts for å fullføre oppgaven. Et eksempel på dette kan finnes i AI-drevne IT-drift, eller AIOps, som moderniserer IT ved å tråle AI inn i daglige oppgaver. Tradisjonelt, tilbringer team sin tid på å justere systemer manuelt. 21. århundres avdelinger er de som utnytter AI til å håndtere kritiske funksjoner som feilsøking, hendelsesrespons og ressursallokering autonomt.
Et annet passende eksempel er hvordan agentic AI-systemer kan håndtere komplekse hendelser autonomt. Disse agentene, sammen med ITOps, er i stand til å forstå hendelsens kontekst, orkestrere med resonnerende agenter for å bestemme handlingens retning, bruke handling agenter for å gjøre siste mile justeringer på IT-systemer og til slutt, anvende læringsagenter for å forstå løsningen og anvende den mer effektivt i fremtidige hendelser.
Agentic AI sin intelligente automatisering hjelper til å redusere menneskelig interaksjon og utføre oppgaver autonomt. For å møte utviklende forretningskrav, bør repetitive oppgaver og operasjoner overføres til autonom AI. Dette delegeringen eliminerer syklusen av re-prompting og repetert forbedring som ofte driver doomprompting. Autonome operasjoner tillater AI-modeller å kontinuerlig optimere og respondere på endrede variabler uten manuell inngripen, og fører til raskere resultater med minimal menneskelig inngripen.
Mens trente fagfolk fortsatt vil spille en instrumental rolle i dag-til-dag operasjoner via menneske-i-løkken tilnærmingen, vil deres tid bli bedre utnyttet i å scannere for resultateverifisering. Denne tilnærmingen minimiserer risikoen for å introdusere feil eller over-justering.
Rollen til styring i å forebygge Doomprompting
I en nylig McKinsey-undersøkelse, rapporterte 88% av respondentene at de utnyttet AI i minst en forretningsfunksjon. Dette var en 10% økning fra 2024 og en forbløffende 33% økning siden 2023. For Agentic AI, var denne økningen enda mer betydelig. Fra bare 33% i 2023 til nesten 80% i 2025.
Denne omfattende adopsjonen driver bedrifter til å finne nye løsninger på doomprompting. Et slikt verktøy er robuste styringsrammer. Disse bør være nøye utformet for å sikre at AI-prosjekter forblir i tråd med forretningsmål og ikke faller offer for den endeløse valsen av optimalisering. Når team utvikler disse rammer, bør de vurdere:
- Etablering av retningslinjer: Datastrømmer til og fra AI-modeller blir stadig mer komplekse. For å forenkle dette, bør AI-retningslinjer skape en ramme for team til å håndtere data, ta beslutninger og håndtere AI-utgangspunkt ansvarlig.
- Opplæring av brukerne: Riktig opplæring i prompt-bruk kan bidra til optimal produktivitet
- Bruk av spesialiserte modeller: Bransje- og formålsspesifikke AI-modeller er sannsynligvis å gi kontekstuelle og meningsfulle utgangspunkt raskere
- Opplæring av AI-modellene: Opplæring av AI-modellene med bransje/oppgave/organisasjonsspesifikke data (hvor mulig) kan føre til mindre workslop og mer passende utgangspunkt raskere.
- Utvikling av regler: Utarbeidelse og implementering av en klar sett med regler er essensiell for å guide AI-utvikling og -utplassering. Når team etablerer operasjonelle grenser, sikrer de at de adopterte systemene er i tråd med organisatoriske mål, etiske standarder og regulatoriske krav.
Mens adopsjonsraten av AI-løsninger øker, har styringen ikke. Ifølge 2025 PEX Industry Report , har mindre enn halvparten en AI-styringspolitikk på plass. I mellomtiden var bare 25% i ferd med å implementere en, og nesten en tredjedel hadde ingen AI-styringspolitikk på plass. Disse rammer kan være den avgjørende faktoren i å hjelpe bedrifter å sette klare grenser for hva som utgjør akseptabelt resultat.
Escaping Doomprompting-løkken
For å unngå å falle inn i syklusen av doomprompting, må bedrifter omfavne AI-strategier som prioriterer resultater over perfeksjon. Bruk av prompt-opplæring, formålsspesifikke AI-modeller og modeller trent på kontekstuell bedriftsdata kan redusere behovet for omfattende re-prompting. Bedrifter som utnytter agentic AI, autonome IT-drift og sterke styringsrammer kan omfordele kritiske ressurser mot å oppnå sine forretningsmål uten å bli fanget i endeløse optimaliseringssykluser. Suksess vil komme når team skifter sin holdning fra kontinuerlig forbedring til en av fokusert gjennomføring og målbare resultater.












