Leader del pensiero
I “doppi digitali personali” dell’intelligenza artificiale richiederanno un’evoluzione della verifica dell’identità

L'annuncio di Amazon del suo "Compra per me" è stata una mossa coraggiosa che ha evidenziato il reale potenziale dell'intelligenza artificiale agentica nell'e-commerce. Consentendo agli agenti di intelligenza artificiale di acquistare senza problemi prodotti direttamente da altri siti web quando tali articoli non sono disponibili su Amazon, l'azienda si posiziona come il principale fornitore di esperienze di acquisto altamente convenienti e appaganti.
L’intelligenza artificiale agentica, in cui gli agenti autonomi agiscono per conto di utenti reali, è sulla buona strada per rapida adozione aziendale, in particolare in un contesto B2B. Immagina un mondo in cui gli "agenti di intelligenza artificiale B2B" che operano in varie capacità (come servizio clienti, vendite, catena di fornitura, operazioni IT, finanza e risorse umane) possono di agire su compiti aziendali più banali senza l'intervento umano.
L'intelligenza artificiale agentica è una buona notizia anche nel mondo dei consumatori, con gli "agenti di intelligenza artificiale B2C" che offrono ai consumatori significative opportunità di risparmiare tempo e fatica nella loro vita quotidiana. Si consideri un "agente di acquisto" in grado di aiutare gli acquirenti online a trovare le migliori offerte, monitorare le riduzioni di prezzo, automatizzare gli acquisti, gestire i resi e prenotare viaggi. Le possibilità in diversi settori sembrano infinite:
- Finanza personale e gestione patrimoniale – Si pensi ad agenti di intelligenza artificiale in grado di eseguire autonomamente strategie finanziarie, riequilibrare i portafogli, trovare tassi di interesse ottimali per i risparmi e persino gestire le dichiarazioni dei redditi.
- Servizio clienti e supporto (per privati) – Invece di chiamare un numero di assistenza o chattare con un bot, un'IA Agentica personale può comunicare direttamente con l'IA Agentica di un'azienda per risolvere problemi, chiarire ordini o apportare modifiche. In questo modo, non è più necessario ripetere le informazioni o navigare in complessi sistemi IVR.
- Settore Sanitario – Gli agenti di intelligenza artificiale saranno in grado di gestire appuntamenti, ordinare prescrizioni, presentare richieste di risarcimento assicurativo e persino cercare proattivamente secondi pareri o analizzare ricerche mediche per conto dei pazienti.
L'adozione dell'intelligenza artificiale agentica offre ai siti web l'opportunità di distinguersi grazie a un'esperienza utente e a un comfort eccezionali. Tuttavia, d'altro canto, l'intelligenza artificiale agentica è altamente vulnerabile alle frodi. Le ricerche dimostrano che i bot comporre Tra il 40 e il 50% di tutto il traffico web, con circa il 65% di questi bot ritenuti dannosi. L'intelligenza artificiale agentica è essenzialmente un modo per i consumatori abituali di utilizzare i bot, e i truffatori – che spesso sfruttano i bot in grandi quantità per abilitare operazioni su larga scala – ora avranno molto più facile nascondersi in piena vista tra il traffico agentico legittimo.
A livello fondamentale, la capacità di distinguere tra questi bot dannosi e legittimi su larga scala sarà un fattore chiave per distinguere i leader nella corsa all'IA agentica. In un mondo agentico, le macchine avranno un'agenzia e percorreranno gli stessi "corridoi informatici" di noi umani.
Ma il panorama dell'e-commerce è pronto?
L'intelligenza artificiale agentica richiederà una riconsiderazione, o un'espansione, del framework di verifica dell'identità online così come è noto oggi, il che a sua volta richiederà ai fornitori di soluzioni di continuare a migliorare ciò che già fanno. Finora, questo framework si è concentrato su tre domande:
- Questa persona è reale?? La rapida proliferazione dei deepfake sta rendendo obbligatori i controlli di liveness per tutte le transazioni ad alto rischio, garantendo che siano avviate da una persona reale e in carne e ossa. Nel contesto dell'intelligenza artificiale agentica, la risposta potrebbe essere "no, non sono una persona", ma ciò non significa che la liveness sia irrilevante. Il rilevamento della liveness dovrebbe sempre essere parte dei controlli biometrici effettuati in momenti ad alto rischio del percorso dell'utente, per garantire che una persona sia coinvolta, ad esempio quando viene creato un account, viene trasferito denaro o viene richiesto il recupero dell'account ("Ho dimenticato la password").
- Questa persona è affidabile?? Si tratta della capacità di determinare se l'utente è un truffatore, un futuro cliente VIP o qualcosa di intermedio, il che spesso comporta la verifica di dati provenienti da database pubblici. Ad esempio, chi tenta di prenotare un alloggio su un marketplace di affitti online verrebbe segnalato come ad alto rischio se ha precedenti penali noti per occupazione abusiva o distruzione di proprietà.
- È ancora questa la persona dietro l'account?? Si riferisce all'autenticazione continua e perpetua, ovvero alla verifica a intervalli regolari che la persona la cui identità è stata verificata al momento dell'accesso sia ancora presente, impedendo l'appropriazione dell'account da parte di altri esseri umani.
L’intelligenza artificiale agentica aggiunge una quarta domanda: questo agente ha l'autorità di agire come proxy dell'utente reale?? Questa questione di autorità è critica, confermando la ambito e durata dell'autorizzazione dell'essere umano affinché l'agente di intelligenza artificiale agisca come suo proxy, in base al contesto. Non si tratta semplicemente di delegare un compito da parte di un essere umano; si tratta di garantire che un agente di intelligenza artificiale possieda autorizzazioni specifiche, revocabili e contestuali derivate dall'essere umano. Tutte le azioni dell'agente di intelligenza artificiale devono essere riconducibili a un essere umano reale e legittimo; questa è la chiave per i siti B2C che implementano l'intelligenza artificiale agentica in modo sicuro e responsabile.
Secondo una stima recente, l'intelligenza artificiale era in ritardo di circa 20 per cento delle frodi perpetrate nel 2024 in tutti i settori, e si prevede che questa cifra aumenterà ulteriormente con l'implementazione di nuove tecniche da parte degli hacker. Oltre agli agenti di intelligenza artificiale dannosi che impersonano agenti legittimi, un altro esempio è l'agent hijacking, ovvero quando un aggressore interferisce con il modo in cui un agente percepisce le informazioni o prende decisioni. Quindi, oltre a verificare la legittimità e l'autorità degli agenti di intelligenza artificiale, è importante controllare interezza degli agenti è inoltre fondamentale assicurarsi che non siano stati manomessi.
Gartner ha attenuato le sue previsioni ottimistiche sulla crescita complessiva dell'IA agentica con un'importante precisazione: oltre il 40% dei progetti di IA agentica sarà cancellato entro la fine del 2027. Questo è stato un duro campanello d'allarme, un segnale che molte organizzazioni stanno sottovalutando la complessità delle implementazioni di IA agentica, in particolare la necessità di garantire adeguati controlli del rischio. Sebbene esistano molti modi in cui gli agenti di IA agentica possono essere sfruttati per causare danni, la capacità di verificarne la legittimità e l'autorità è un passo fondamentale per ridurre al minimo il rischio. Fortunatamente, ciò che serve non è una reinvenzione, ma un'evoluzione: un potenziamento dei comprovati framework di verifica dell'identità online esistenti oggi.












