Leader di pensiero
Rompere il Ciclo: Come le Organizzazioni Possono Evitare il Doomprompting e Conseguire il Successo

Dalla sua concezione teorica negli anni ’50, l’intelligenza artificiale (AI) ha aperto la strada alle aziende per sperimentare opportunità e produttività migliorate attraverso varie tecniche, in particolare i sistemi di apprendimento automatico. Questi strumenti/tecnologie hanno migliorato la previsione e la decisione, gettando le basi per future avanzamenti tecnici. Negli ultimi tempi, l’AI generativa ha promesso di sovvertire tutto ciò che sappiamo sul lavoro e ha democratizzato l’esperienza AI. Gli utenti ora interagiscono con modelli di AI come ChatGPT, attraverso “prompting”, dove si interagisce avanti e indietro con un modello di AI. Tuttavia, questi benefici sono accompagnati da una nuova sfida: il Doomprompting. Ciò è equivalente allo scrolling senza fine sui contenuti online, senza un obiettivo definito, intrappolando gli utenti in buche cunicolari. Con l’AI, tuttavia, la buca cunicolare risponde. Questo atto di continua raffinazione dei prompt dell’AI, sia per modelli generativi che agentic, guidato dall’ambizione di acquisire l’output perfetto (e a volte attraverso il prompting senza un obiettivo specifico in mente), conduce a costi aumentati e rendimenti decrescenti. Ciò crea un grande ostacolo al successo e sconfigge lo scopo dell’utilizzo della tecnologia AI stessa.
Poiché le aziende aumentano i loro budget legati all’AI, i responsabili delle decisioni devono comprendere il percorso per ottenere ritorni reali sugli investimenti e quale valore stanno generando. Un rapporto del 2025 di IEEE, The Hidden Costs of AI: How Small Inefficiencies Stack Up, dimostra come piccoli aggiustamenti possano accumularsi in oneri economici significativi. Per evitare di diventare parte di questa lotta costosa, le organizzazioni devono raffinare l’addestramento dei dipendenti all’uso di LLM per raggiungere il pieno potenziale dei loro investimenti in AI.
L’AI generativa porta con sé la promessa di ottimizzazione e efficienza. Tuttavia, quando i team si ritrovano intrappolati nel ciclo di raffinazione infinita (o vagabondaggio senza radar), l’inefficienza mina questa base.
Pulire il “Workslop”
Una delle ragioni per cui i team continuano a raffinare gli output per generare una risposta perfetta è il workslop. Descritto per la prima volta nella Harvard Business Review, il workslop comprende ‘contenuti di lavoro generati dall’AI che si mascherano da buon lavoro ma mancano di sostanza per avanzare significativamente un determinato compito’.
Questo “slop” generato dall’AI è il primo domino in una lunga linea che crea il ciclo del doomprompting. Mentre modificare il contenuto scadente attraverso iterazioni o modifiche è importante, è necessario capire quando fermarsi, prima che si entri nella china dei rendimenti decrescenti. Le organizzazioni devono affrontare il loro investimento di tempo nell’addestramento all’AI con un equilibrio delicato. Da un lato, i team devono essere consapevoli della qualità richiesta; dall’altro lato, devono sapere quando è troppo. L’addestramento dei dipendenti all’uso più intelligente dei modelli di AI attraverso prompt ottimali e obiettivi chiari sarebbe anche utile.
Sfruttare l’AI Agentic per Evitare il Doomprompting
Negli ultimi anni, le aziende hanno aumentato notevolmente il loro interesse e investimento in AI agentic, riconosciuta per la sua capacità di migliorare l’efficacia operativa. L’AI agentic può prendere compiti complessi, orchestrare con多pli agenti (inclusi RAG e agenti di azione) per decidere il corso dell’azione e eseguire i compiti per completare il compito complessivo in modo autonomo.
Queste qualità possono aiutare l’AI a mitigare il doomprompting, o evitarlo del tutto. Ciò può eliminare la necessità di istruire le interfacce GenAI attraverso più prompt per completare il compito. Un esempio di ciò può essere trovato nelle operazioni IT basate sull’AI, o AIOps, che stanno modernizzando l’IT integrando l’AI nelle attività quotidiane. Tradizionalmente, i team spendono il loro tempo regolando manualmente i sistemi. I dipartimenti del XXI secolo sono quelli che sfruttano l’AI per gestire autonomamente funzioni critiche come il troubleshooting, la risposta agli incidenti e l’allocazione delle risorse.
Un altro esempio calzante è come i sistemi di AI agentic possano gestire un incidente complesso in modo autonomo. Questi agenti, insieme all’ITOps, sono in grado di comprendere il contesto dell’incidente, orchestrare con agenti di ragionamento per decidere il corso dell’azione, utilizzare agenti di azione per eseguire gli ultimi ritocchi sui sistemi IT e infine, impiegare agenti di apprendimento per comprendere la risoluzione e applicarla più efficacemente in futuri incidenti.
L’automazione intelligente dell’AI agentic aiuta a ridurre l’interazione umana e a eseguire compiti in modo autonomo. Per soddisfare le richieste aziendali in evoluzione, i compiti ripetitivi e le operazioni dovrebbero essere affidati all’AI autonomo. Ciò elimina il ciclo di riprompting e raffinazione ripetitiva che spesso alimenta il doomprompting. Le operazioni autonome consentono ai modelli di AI di ottimizzare e rispondere continuamente a variabili in cambiamento senza input manuale, portando a risultati più rapidi con un minimo intervento umano.
Mentre i professionisti formati continueranno a svolgere un ruolo strumentale all’interno delle operazioni quotidiane attraverso l’approccio human-in-the-loop, il loro tempo sarà meglio utilizzato nella verifica dei risultati. Questo approccio minimizza il rischio di introdurre errori o sovraregolazione.
Il Ruolo della Governance nella Prevenzione del Doomprompting
In un recente sondaggio McKinsey, l’88% dei rispondenti ha riferito di utilizzare l’AI in almeno una funzione aziendale. Ciò è stato un aumento del 10% rispetto al 2024 e un aumento sorprendente del 33% dal 2023. Per l’AI agentic, questo aumento è stato ancora più profondo. Dal 33% nel 2023 al quasi 80% nel 2025.
Questo ampio utilizzo sta spingendo le aziende a trovare nuove soluzioni al doomprompting. Uno di questi strumenti è costituito da robusti framework di governance. Questi dovrebbero essere progettati con cura per garantire che i progetti di AI rimangano allineati con gli obiettivi aziendali e non cadano vittime della danza infinita di ottimizzazione. Quando i team sviluppano questi framework, dovrebbero considerare:
- Stabilimento delle linee guida: I flussi di dati verso e da modelli di AI stanno diventando sempre più complessi. Per semplificare ciò, le linee guida dell’AI dovrebbero creare un framework per i team per gestire i dati, prendere decisioni e gestire i risultati dell’AI in modo responsabile.
- Addestramento degli utenti: Un addestramento appropriato all’uso dei prompt può aiutare verso una produttività ottimale
- Uso di modelli specializzati: I modelli di AI specifici per settore e scopo sono probabilmente in grado di fornire output significativi e contestuali più rapidamente
- Addestramento dei modelli di AI: L’addestramento dei modelli di AI con dati specifici per industria, compito, organizzazione (ove possibile) può portare a meno workslop e output più adatti più rapidamente.
- Sviluppo di regole: La stesura e l’attuazione di un insieme chiaro di regole è essenziale per guidare lo sviluppo e il dispiegamento dell’AI. Quando i team stabiliscono confini operativi, assicurano che i sistemi adottati si allineino con gli obiettivi aziendali, gli standard etici e i requisiti normativi.
Mentre il tasso di adozione delle soluzioni di AI è in aumento, la governance non lo è. Secondo il rapporto PEX Industry del 2025 , meno della metà ha una politica di governance dell’AI in atto. Nel frattempo, solo il 25% stava attuando una, e quasi un terzo non aveva alcuna politica di governance dell’AI in atto. Questi framework possono essere il fattore determinante nell’aiutare le aziende a stabilire confini chiari su ciò che costituisce una prestazione accettabile.
Uscire dal Ciclo del Doomprompting
Per evitare di cadere nel ciclo del doomprompting, le aziende devono abbracciare strategie di AI che diano priorità ai risultati rispetto alla perfezione. L’uso di prompt di addestramento, modelli di AI specifici per scopo e modelli formati su dati aziendali contestuali può ridurre la necessità di estensivi riprompting. Le aziende che sfruttano l’AI agentic, le operazioni IT autonome e i robusti framework di governance possono riallocare risorse critiche verso il raggiungimento dei loro obiettivi aziendali senza rimanere bloccate da cicli di ottimizzazione infiniti. Il successo arriverà quando i team sposteranno la loro mentalità dalla raffinazione costante a una di esecuzione focalizzata e risultati misurabili.












