Tankeledere
Brud af cirklen: Hvordan organisationer kan undgå Doomprompting og leverer succes

Siden dens teoretiske koncept i 1950’erne har kunstig intelligens (AI) banet vejen for virksomheder til at opleve forbedrede muligheder og produktivitet gennem forskellige teknikker, især maskinelæringsystemer. Disse værktøjer/teknologier forbedrede prognoser og beslutningstagning, lagde grundstenen for fremtidige tekniske fremskridt. I nyere tid har Generative AI lovet at ændre alt, vi ved om arbejde, og har demokratiseret AI-oplevelsen. Brugere interagerer nu med AI-modeller som ChatGPT gennem “prompting”, hvor man interagerer frem og tilbage med en AI-model. however, disse fordele kommer også med en ny udfordring: Doomprompting. Dette er ligesom doom scrolling på online-indhold, uden en defineret mål, fanger brugere i kaninhuller. Med AI, taler kaninhullet tilbage. Denne handling af kontinuerlig AI-prompt-afklaring for både generative og agente modeller, drevet af ambitionen om at opnå det perfekte output (og nogle gange ved at prompte uden nogen specifik mål i mente), fører til øgede omkostninger og aftagende afkast. Det skaber en stor vejspærring til succes og modsiger formålet med at bruge AI-teknologien selv.
Da virksomheder øger deres AI-relaterede budgetter, skal beslutningstagerne forstå vejen til reel afkast på deres investeringer og hvad værdien er, det genererer. En rapport fra 2025 af IEEE, ‘The Hidden Costs of AI: How Small Inefficiencies Stack Up, demonstrerer, hvordan mindre justeringer kan akkumulere til betydelige økonomiske byrder. For at undgå at blive en del af denne dyre kamp, skal organisationer afklare deres træning af medarbejdere med brug af LLM til at opnå det fulde potentiale af deres AI-investeringer.
Generative AI bringer løftet om optimering og effektivitet. however, når hold bliver fanget i cirklen af endeløs afklaring (eller radar-løs vandring), underminerer ineffektiviteten denne grundlag.
Rensning af “Workslop”
En af årsagerne til, at hold kontinuerligt afklarer output for at generere en perfekt respons, er workslop. Først beskrevet i Harvard Business Review, omfatter workslop ‘AI-genereret arbejdsindhold, der masquerer som godt arbejde, men mangler substansen til at betydeligt fremme en given opgave.’
Dette AI-producerede ‘slop’ er den første domino i en lang række, der skaber doomprompting-cirklen. Mens modificering af undermålende indhold gennem iterationer eller redigeringer er vigtigt, skal man forstå, når man skal stoppe, før det kommer på skråningen af aftagende afkast. Organisationer skal tilgang deres tidsinvestering i AI-træning med en delikat balance. På den ene side skal hold være bevidste om den nødvendige kvalitet; på den anden side skal de vide, når det er for meget. Træningen af medarbejdere i den smarte brug af AI-modeller gennem optimal prompting og klare mål ville også komme i hånden.
Udnyttelse af Agentic AI til at undgå Doomprompting
I de seneste år har virksomheder betydeligt øget deres interesse og investering i agentic AI, der er kendt for sin evne til at forbedre operationel effektivitet. Agentic AI kan tage komplekse opgaver, orkestrere med multiple agenter (herunder RAG og handling agenter) til at bestemme handlingsplanen og udføre opgaverne til at fuldføre den samlede opgave autonomt.
Disse egenskaber kan hjælpe AI med at mindske doomprompting, eller sidesteppe det helt. Dette kan fjerne behovet for at instruere GenAI-grænseflader gennem multiple prompts for at fuldføre opgaven. Et eksempel på dette kan findes i AI-drevne IT-operationer, eller AIOps, som moderniserer IT ved at træde AI ind i daglige opgaver. Traditionelt bruger hold deres tid på manuel tilpasning af systemer. 21. århundredes afdelinger er dem, der udnytter AI til at håndtere kritiske funktioner som fejlfinding, incidentrespons og ressourceallokering autonomt.
Et andet passende eksempel er, hvordan agentic AI-systemer kan håndtere komplekse incidenter autonomt. Disse agenter, sammen med ITOps, er i stand til at forstå konteksten af problemet, orkestrere med raison-agenter til at bestemme handlingsplanen, bruge handling-agenter til at udføre sidste mile-justeringer på IT-systemer og endelig anvende læring-agenter til at forstå løsningen og anvende den mere effektivt i fremtidige incidenter.
Agentic AI’s intelligente automatisering hjælper med mindre menneskelig interaktion og udfører opgaver autonomt. For at møde udviklende forretningskrav, skal repetitive opgaver og operationer overdrages til autonom AI. Dette delegering eliminerer cirklen af re-prompting og repetitiv afklaring, der ofte driver doomprompting. Autonome operationer tillader AI-modeller at kontinuerligt optimere og reagere på ændrede variabler uden manuel indput, hvilket fører til hurtigere resultater med minimal menneskelig indgriben.
Mens trænede fagfolk stadig vil spille en instrumental rolle inden for dag-til-dag operationer via human-in-the-loop-tilgangen, vil deres tid blive bedre udnyttet i at scannere for resultatsverificering. Denne tilgang minimiserer risikoen for at introducere fejl eller over-justering.
Rollen af styring i forebyggelse af Doomprompting
I en ny McKinsey-undersøgelse, rapporterede 88% af respondenterna, at de udnyttede AI i mindst én forretningsfunktion. Dette var en stigning på 10% fra 2024 og en imponerende 33% stigning siden 2023. For Agentic AI var denne stigning endnu mere betydelig. Fra kun 33% i 2023 til næsten 80% i 2025.
Denne omfattende adoption driver virksomheder til at finde nye løsninger til doomprompting. Et sådant værktøj er robuste styringsrammer. Disse skal være omhyggeligt udarbejdet for at sikre, at AI-projekter forbliver aligneret med forretningsmål og ikke falder offer for den endeløse vals af optimering. Når hold udvikler disse rammer, skal de overveje:
- Retningslinje-etablering: Datastrømme til og fra AI-modeller bliver mere og mere komplekse. For at simplificere dette, skal AI-retningslinjer skabe en ramme for hold til at håndtere data, træffe beslutninger og håndtere AI-outputs ansvarligt.
- Brugerskole: Korrekt træning i prompt-brug kan hjælpe mod optimal produktivitet
- Brug af specialiserede modeller: Branchespecifikke og formålsspecifikke AI-modeller er sandsynligvis i stand til at levere kontekstuelle og meningsfulde outputs hurtigere
- AI-modellernes træning: Træning af AI-modellerne med branchespecifik, opgave- eller organisationspecifik data (hvor det er muligt) kan føre til mindre workslop og mere passende outputs hurtigere.
- Regleudvikling: Udarbejdelse og implementering af en tydelig sæt regler er afgørende for at vejlede AI-udvikling og -implementering. Når hold etablerer operationelle grænser, sikrer de, at de antagede systemer er aligneret med organisationsmål, etiske standarder og regulatoriske krav.
Mens antallet af AI-løsninger øger, har styringen ikke. Ifølge 2025 PEX Industry Report , har mindre end halvdelen en AI-styringspolitik på plads. Imens var kun 25% i gang med at implementere en, og næsten en tredjedel havde ingen AI-styringspolitik på plads. Disse rammer kan være den afgørende faktor i at hjælpe virksomheder med at fastlægge tydelige grænser for, hvad der udgør acceptabel præstation.
Undslippe Doomprompting-løkken
For at undgå at falde i cirklen af doomprompting, skal virksomheder omfavne AI-strategier, der prioriterer resultater over perfektion. Brug af prompt-træning, formålsspecifikke AI-modeller og modeller trænet på kontekstuel virksomhedsdata kan reducere behovet for omfattende re-prompting. Virksomheder, der udnytter agentic AI, autonome IT-operationer og stærke styringsrammer, kan omdele kritiske ressourcer til at opnå deres forretningsmål uden at blive fanget i endeløse optimeringscykler. Succes vil komme, når hold skifter deres mindset fra konstant afklaring til en af fokuseret eksekvering og målbare resultater.












