Seguici sui social

Rompere il ciclo: come le organizzazioni possono evitare di cadere in tentazione e raggiungere il successo

Leader del pensiero

Rompere il ciclo: come le organizzazioni possono evitare di cadere in tentazione e raggiungere il successo

mm

Fin dalla sua concezione teorica negli anni '1950, l'intelligenza artificiale (IA) ha aperto la strada alle aziende per ottenere maggiori opportunità e produttività attraverso diverse tecniche, in particolare i sistemi di apprendimento automatico. Questi strumenti/tecnologie hanno migliorato le previsioni e il processo decisionale, gettando le basi per futuri progressi tecnici. Di recente, l'IA generativa ha promesso di stravolgere tutto ciò che sappiamo sul lavoro e ha democratizzato l'esperienza dell'IA. Gli utenti ora interagiscono con modelli di IA come ChatGPT, tramite "prompting", in cui si interagisce avanti e indietro con un modello di IA. Tuttavia, questi vantaggi comportano anche una nuova sfida: il Doomprompting. Questo equivale a scorrere i contenuti online senza un obiettivo definito, intrappolando gli utenti in tane di coniglio. Con l'IA, però, la tana del coniglio risponde. Questo continuo perfezionamento dei prompt di IA per i modelli sia generativi che agentici, guidato dall'ambizione di ottenere l'output perfetto (e talvolta tramite prompt senza un obiettivo specifico in mente), porta a un aumento dei costi e a una diminuzione dei rendimenti. Crea un importante ostacolo al successo e vanifica lo scopo dell'utilizzo della tecnologia di IA stessa.

Con l'aumento del budget dedicato all'intelligenza artificiale da parte delle aziende, i decisori devono comprendere il percorso per ottenere un ritorno reale sui propri investimenti e il valore che generano. Un rapporto dell'IEEE del 2025: I costi nascosti dell'intelligenza artificiale: come si sommano le piccole inefficienze', dimostra come piccoli aggiustamenti possano accumularsi e trasformarsi in oneri economici significativi. Per evitare di essere coinvolti in questa costosa lotta, le organizzazioni devono perfezionare la formazione dei dipendenti che utilizzano i Master in Ingegneria Gestionale (LLM) per sfruttare appieno il potenziale dei loro investimenti in intelligenza artificiale.

L'intelligenza artificiale generativa promette ottimizzazione ed efficienza. Tuttavia, quando i team rimangono intrappolati nel ciclo di perfezionamento infinito (o di vagabondaggio senza radar), l'inefficienza mina queste fondamenta.

Pulizia del “Workslop”

Uno dei motivi per cui i team perfezionano continuamente i risultati per generare una risposta perfetta è il cosiddetto "workslop". Descritto per la prima volta su Harvard Business Review, il termine "workslop" comprende "contenuti di lavoro generati dall'intelligenza artificiale che si spacciano per buoni risultati, ma non hanno la sostanza necessaria per far progredire in modo significativo un determinato compito".

Questa "sbronza" prodotta dall'intelligenza artificiale è il primo tassello di una lunga serie che innesca il circolo vizioso. Sebbene modificare contenuti scadenti attraverso iterazioni o modifiche sia importante, è necessario capire quando fermarsi, prima di entrare nella spirale dei rendimenti decrescenti. Le organizzazioni devono affrontare il loro investimento di tempo nella formazione sull'intelligenza artificiale con un delicato equilibrio. Da un lato, i team dovrebbero essere consapevoli della qualità richiesta; dall'altro, dovrebbero capire quando è eccessiva. Anche la formazione dei dipendenti sull'uso più intelligente dei modelli di intelligenza artificiale attraverso suggerimenti ottimali e obiettivi chiari sarebbe utile.

Sfruttare l'intelligenza artificiale agentica per evitare il disastro

Negli ultimi anni, le aziende hanno aumentato significativamente il loro interesse e i loro investimenti nell'intelligenza artificiale agentica, riconosciuta per la sua capacità di migliorare l'efficacia operativa. L'intelligenza artificiale agentica può svolgere compiti complessi, coordinarsi con più agenti (inclusi agenti RAG e agenti di azione) per decidere il corso delle azioni ed eseguire le attività per completare l'attività complessiva in modo autonomo.

Queste qualità possono aiutare l'IA a mitigare il fenomeno del doomprompting o addirittura a evitarlo del tutto. Questo può eliminare la necessità di istruire le interfacce GenAI attraverso molteplici prompt per completare l'attività. Un esempio di ciò si può trovare nelle operazioni IT basate sull'IA, o AIOps, che stanno modernizzando l'IT integrando l'IA nelle attività quotidiane. Tradizionalmente, i team dedicano il loro tempo alla regolazione manuale dei sistemi. I dipartimenti del XXI secolo sono quelli che sfruttano l'IA per gestire autonomamente funzioni critiche come la risoluzione dei problemi, la risposta agli incidenti e l'allocazione delle risorse.

Un altro esempio calzante è il modo in cui i sistemi di intelligenza artificiale agentica possono gestire autonomamente un incidente complesso. Questi agenti, insieme agli ITOps, sono in grado di comprendere il problema contestualmente, coordinandosi con agenti di ragionamento per decidere il corso d'azione, utilizzando agenti di azione per eseguire le correzioni dell'ultimo miglio sui sistemi IT e, infine, impiegando agenti di apprendimento per comprendere la risoluzione e applicarla in modo più efficace in incidenti futuri.

L'automazione intelligente dell'IA Agentica riduce l'interazione umana e svolge le attività in modo autonomo. Per soddisfare le esigenze aziendali in continua evoluzione, le attività e le operazioni ripetitive dovrebbero essere affidate all'IA autonoma. Questa delega elimina il ciclo di richieste e perfezionamenti ripetitivi che spesso alimentano il degrado. Le operazioni autonome consentono ai modelli di IA di ottimizzare e rispondere costantemente alle variabili mutevoli senza input manuali, ottenendo risultati più rapidi con un intervento umano minimo.

Sebbene i professionisti qualificati continueranno a svolgere un ruolo fondamentale nelle operazioni quotidiane grazie all'approccio "human-in-the-loop", il loro tempo sarà meglio impiegato nella verifica dei risultati. Questo approccio riduce al minimo il rischio di errori o di sovraregolazioni.

Il ruolo della governance nella prevenzione del disastro

In un recente Sondaggio McKinseyL'88% degli intervistati ha dichiarato di sfruttare l'IA in almeno una funzione aziendale. Si tratta di un aumento del 10% rispetto al 2024 e di un sorprendente 33% rispetto al 2023. Per l'IA Agentica, questo aumento è stato ancora più significativo: da solo il 33% nel 2023 a quasi l'80% nel 2025.

Questa adozione diffusa sta spingendo le aziende a trovare nuove soluzioni per contrastare il fenomeno del "doomprompting". Uno di questi strumenti è rappresentato da solidi framework di governance. Questi dovrebbero essere attentamente progettati per garantire che i progetti di intelligenza artificiale rimangano allineati con gli obiettivi aziendali e non cadano vittime dell'infinito valzer dell'ottimizzazione. Quando i team sviluppano questi framework, dovrebbero considerare:

  • Stabilimento delle linee guida: I flussi di dati da e verso i modelli di intelligenza artificiale stanno diventando sempre più complessi. Per semplificare la situazione, le linee guida per l'intelligenza artificiale dovrebbero creare un quadro che consenta ai team di gestire i dati, prendere decisioni e gestire gli output dell'intelligenza artificiale in modo responsabile.
  • Formazione degli utenti: Una formazione adeguata all'uso immediato può contribuire a una produttività ottimale
  • Utilizzo di modelli specializzati: È probabile che i modelli di intelligenza artificiale specifici per settore e scopo forniscano risultati contestuali e significativi più rapidamente
  • Addestramento dei modelli di intelligenza artificiale: Addestrare i modelli di intelligenza artificiale con dati specifici del settore/attività/organizzazione (ove possibile) può portare a meno scarti di lavoro e a risultati più adeguati in tempi più rapidi.
  • Sviluppo delle regole: La stesura e l'implementazione di un insieme chiaro di regole è essenziale per guidare lo sviluppo e l'implementazione dell'IA. Quando i team stabiliscono i confini operativi, garantiscono che i sistemi adottati siano in linea con gli obiettivi organizzativi, gli standard etici e i requisiti normativi.

Mentre il tasso di adozione delle soluzioni di intelligenza artificiale è in aumento, la governance non lo è. Secondo il PEX Industry Report 2025, meno della metà dispongono di una policy di governance dell'IA. Nel frattempo, solo il 25% era in procinto di implementarne una e quasi un terzo non ne aveva alcuna. Questi framework possono essere il fattore determinante nell'aiutare le aziende a stabilire limiti chiari su ciò che costituisce una performance accettabile.

Uscire dal circolo vizioso

Per evitare di cadere nel circolo vizioso del "doomprompting", le aziende devono adottare strategie di intelligenza artificiale che diano priorità ai risultati rispetto alla perfezione. L'utilizzo di training tempestivi, modelli di intelligenza artificiale specifici per ogni scopo e modelli addestrati su dati aziendali contestuali può ridurre la necessità di ripetuti interventi di "prompting". Le aziende che sfruttano l'intelligenza artificiale agentica, le operazioni IT autonome e solidi framework di governance possono riallocare le risorse critiche per raggiungere i propri obiettivi aziendali senza impantanarsi in infiniti cicli di ottimizzazione. Il successo arriverà quando i team abbandoneranno la loro mentalità dal costante perfezionamento a una focalizzata sull'esecuzione mirata e sui risultati misurabili.

Arunava Bag CTO (EMEA) presso digitate È un consulente IT esperto e leader con oltre 25 anni di esperienza nel settore, tra cui una profonda competenza in prodotti software basati su intelligenza artificiale e apprendimento automatico, ingegneria delle prestazioni, modellazione della capacità, ottimizzazione IT, calcolo ad alte prestazioni, sviluppo di applicazioni e gestione delle pratiche tecnologiche. Ha promosso con successo prodotti emergenti, guidato pratiche tecnologiche e realizzato programmi tecnologici complessi in diversi settori verticali e aree geografiche.