Connect with us

De cyclus doorbreken: Hoe organisaties Doomprompting kunnen omzeilen en succes kunnen behalen

Thought leaders

De cyclus doorbreken: Hoe organisaties Doomprompting kunnen omzeilen en succes kunnen behalen

mm

Sinds het theoretische concept in de jaren 50, heeft artificial intelligence (AI) de weg vrijgemaakt voor bedrijven om verbeterde kansen en productiviteit te ervaren door verschillende technieken, vooral machine learning-systemen. Deze tools/technologieën hebben forecasting en besluitvorming verbeterd, waardoor de basis werd gelegd voor toekomstige technische vooruitgang. In recente tijden heeft Generative AI beloofd om alles wat we weten over werken te veranderen en heeft het AI-ervaring gedemocratiseerd. Gebruikers maken nu gebruik van AI-modellen zoals ChatGPT, door middel van “prompting”, waarbij men heen en weer communiceert met een AI-model. Echter, deze voordelen gaan ook gepaard met een nieuwe uitdaging: Doomprompting. Dit is equivalent aan doom scrolling op online content, zonder een duidelijk doel, waardoor gebruikers in konijnenholen terechtkomen. Met AI echter, praat het konijnenhol terug. Deze handeling van continue AI-prompt-verfijning voor zowel generatieve als agentmodellen, gedreven door de ambitie om de perfecte output te verkrijgen (en soms door prompting zonder een specifiek doel in gedachten), leidt tot verhoogde kosten en afnemende rendementen. Het creëert een grote belemmering voor succes en ondermijnt het doel van het gebruik van AI-technologie zelf.

Naarmate bedrijven hun AI-gerelateerde budgetten verhogen, moeten beslissers de weg naar echte rendementen op hun investeringen begrijpen en wat de waarde is die het gegenereerd wordt. Een rapport uit 2025 van IEEE, ‘The Hidden Costs of AI: How Small Inefficiencies Stack Up,’, toont aan hoe kleine aanpassingen kunnen accumuleren tot significante economische lasten. Om te voorkomen dat men deel wordt van deze dure strijd, moeten organisaties hun training van medewerkers met LLM’s verfijnen om het volledige potentieel van hun AI-investeringen te bereiken.

Generatieve AI brengt de belofte van optimalisatie en efficiëntie. Echter, wanneer teams vastzitten in de cyclus van eindeloze verfijning (of radar-loze zwerving), ondermijnt inefficiëntie deze basis.

De “Workslop” opruimen

Een van de redenen waarom teams continue outputs verfijnen om een perfecte reactie te genereren, is workslop. Eerst beschreven in Harvard Business Review, omvat workslop ‘AI-gegenereerde werkinhoud die zich voordoet als goed werk, maar geen substantie heeft om een bepaalde taak zinvol te laten vorderen.’

Deze AI-geproduceerde ‘slop’ is het eerste domino in een lange rij die de doomprompting-cyclus creëert. Terwijl het modificeren van de ondermaatse inhoud door middel van iteraties of bewerkingen belangrijk is, moet men begrijpen wanneer men moet stoppen, voordat het in de helling van afnemende rendementen terechtkomt. Organisaties moeten hun tijdsinvestering in AI-training benaderen met een delicate balans. Aan de ene kant moeten teams zich bewust zijn van de vereiste kwaliteit; aan de andere kant moeten ze weten wanneer het te veel is. De training van medewerkers in het slimmer gebruik van AI-modellen door optimale prompting en duidelijke doelen zou ook van pas komen.

Agentic AI gebruiken om Doomprompting te vermijden

In recente jaren hebben bedrijven aanzienlijk meer interesse en investeringen in agentic AI, die wordt erkend om zijn vermogen om operationele effectiviteit te verbeteren. Agentic AI kan complexe taken, orkestreren met meerdere agenten (inclusief RAG en actieagenten) om de koers van actie te beslissen, en taken uitvoeren om de overall taak autonoom te voltooien.

Deze kwaliteiten kunnen helpen om doomprompting te mitigeren, of het helemaal te omzeilen. Dit kan de noodzaak wegnemen om GenAI-interfaces te instrueren door middel van meerdere prompts om de taak te voltooien. Een voorbeeld hiervan kan worden gevonden in AI-gepowered IT-operations, of AIOps, die IT moderniseren door AI in dagelijkse taken te integreren. Traditioneel besteden teams hun tijd aan het handmatig aanpassen van systemen. 21e-eeuwse afdelingen zijn die welke AI gebruiken om kritieke functies zoals troubleshooting, incidentrespons en resource-allocatie autonoom te behandelen.

Een ander passend voorbeeld is hoe agentic AI-systemen een complex incident autonoom kunnen behandelen. Deze agenten, samen met ITOps, zijn in staat om het issue contextueel te begrijpen, te orkestreren met redeneringsagenten om de koers van actie te beslissen, actieagenten te gebruiken om de laatste mijl fixes op IT-systemen uit te voeren en tenslotte leeragenten te gebruiken om de resolutie te begrijpen en deze effectiever toe te passen in toekomstige incidenten.

De intelligente automatisering van agentic AI helpt bij minder menselijke interactie en taken autonoom uitvoeren. Om evoluerende bedrijfsbehoeften te vervullen, moeten repetitieve taken en operaties worden overgedragen aan autonome AI. Deze overdracht elimineert de cyclus van her-prompting en repetitieve verfijning die vaak doomprompting voedt. Autonome operaties stellen AI-modellen in staat om continue te optimaliseren en te reageren op veranderende variabelen zonder menselijke invoer, waardoor snellere resultaten worden behaald met minimale menselijke interventie.

Terwijl getrainde professionals nog steeds een instrumentale rol zullen spelen in dagelijkse operaties via de human-in-the-loop-benadering, zal hun tijd beter worden benut bij het scannen van resultaatverificatie. Deze benadering minimaliseert het risico van het introduceren van fouten of over-aanpassing.

De rol van governance in het voorkomen van Doomprompting

In een recente McKinsey-survey, meldden 88% van de respondenten dat ze AI in ten minste één bedrijfsfunctie gebruikten. Dit was een stijging van 10% ten opzichte van 2024 en een verbazingwekkende 33% stijging sinds 2023. Voor Agentic AI was deze stijging nog ingrijpender. Van slechts 33% in 2023 tot bijna 80% in 2025.

Deze wijdverbreide adoptie drijft bedrijven ertoe om nieuwe oplossingen te vinden voor doomprompting. Een dergelijk instrument is robuuste governance-kaders. Deze moeten zorgvuldig worden ontwikkeld om ervoor te zorgen dat AI-projecten blijven aansluiten bij bedrijfsdoelstellingen en niet ten prooi vallen aan de eindeloze wals van optimalisatie. Wanneer teams deze kaders ontwikkelen, moeten ze het volgende overwegen:

  • Richtlijnen vaststellen: Datastromen naar en van AI-modellen worden steeds complexer. Om dit te vereenvoudigen, moeten AI-richtlijnen een kader bieden voor teams om data te behandelen, beslissingen te nemen en AI-outputs verantwoordelijk te beheren.
  • Gebruikers trainen: Een goede training in prompt-gebruik kan helpen bij optimale productiviteit
  • Gebruik van gespecialiseerde modellen: Branche- en doelgerichte AI-modellen zijn waarschijnlijk om contextuele en zinvolle outputs sneller te produceren
  • AI-modellen trainen: Het trainen van AI-modellen met branche-, taak- of organisatiespecifieke data (waar mogelijk) kan leiden tot minder workslop en meer geschikte outputs sneller.
  • Regels ontwikkelen: Het opstellen en implementeren van een duidelijke set regels is essentieel voor het leiden van AI-ontwikkeling en -implementatie. Wanneer teams operationele grenzen vaststellen, zorgen ze ervoor dat geadopteerde systemen aansluiten bij organisatiedoelstellingen, ethische normen en regelgevingsvereisten.

Terwijl de adoptiegraad van AI-oplossingen toeneemt, gebeurt dit niet met governance. Volgens het PEX Industry Report van 2025 , heeft minder dan de helft een AI-governancebeleid in plaats. Ondertussen waren slechts 25% bezig met de implementatie ervan, en had bijna een derde geen enkel AI-governancebeleid in plaats. Deze kaders kunnen het beslissende factor zijn in het helpen van bedrijven om duidelijke grenzen te stellen voor wat acceptabele prestaties zijn.

Ontsnappen aan de Doomprompting-lus

Om te voorkomen dat men in de cyclus van doomprompting terechtkomt, moeten bedrijven AI-strategieën omarmen die resultaten prioriteren boven perfectie. Het gebruik van prompt-training, doelgerichte AI-modellen en modellen getraind op contextuele ondernemingsdata kan de noodzaak voor uitgebreide her-prompting verminderen. Bedrijven die agentic AI, autonome IT-operations en sterke governance-kaders gebruiken, kunnen kritieke middelen toewijzen aan het bereiken van hun bedrijfsdoelstellingen zonder vast te zitten in eindeloze optimalisatiecycli. Succes zal komen wanneer teams hun mindset veranderen van continue verfijning naar een van gefocuste uitvoering en meetbare resultaten.

Arunava Bag CTO (EMEA) at Digitate is een ervaren IT-consultant en leider met 25+ jaar ervaring in de branche, inclusief diepe expertise in op AI en machine learning gebaseerde softwareproducten, prestatie-engineering, capaciteitsmodellering, IT-optimalisatie, high-performance computing, applicatie-ontwikkeling en technologiebeheer. Hij heeft succesvol opkomende producten geëvangeliaseerd, technologiepraktijken geleid en complexe technologieprogramma's geleverd in verschillende industrieën en geografische gebieden.