Connect with us

Leader di pensiero

I “Doppi Digitali Personali” di Agentic AI Richiederanno un’Evolutzione della Verifica dell’Identità

mm

L’annuncio di Amazon della sua funzione “Buy for Me” è stato un passo audace che segnala il potenziale reale dell’agentic AI nel commercio elettronico. Abilitando gli agenti AI a comprare prodotti direttamente da altri siti web quando questi articoli non sono disponibili su Amazon, l’azienda si sta posizionando come il principale fornitore di esperienze di shopping estremamente convenienti e soddisfacenti.

L’agentic AI – dove gli agenti autonomi agiscono per conto di utenti reali – è sulla strada per un’adozione rapida da parte delle imprese, in particolare in un contesto B2B. Immagina un mondo in cui “agenti AI B2B” operanti in varie capacità (come servizio clienti, vendite, catena di approvvigionamento, operazioni IT, finanza e risorse umane) possano agire su compiti aziendali più mundani senza intervento umano.

L’agentic AI è anche una notizia gradita nel regno dei consumatori, con “agenti AI B2C” che offrono opportunità significative per i consumatori di risparmiare tempo e fatica nella loro vita quotidiana. Considera un “agente acquirente” che possa aiutare gli acquirenti online a trovare le migliori offerte, monitorare le riduzioni di prezzo, automatizzare gli acquisti, gestire le restituzioni e prenotare viaggi. Le possibilità in vari settori sembrano infinite:

  • Gestione finanziaria personale e patrimonio – Pensa a agenti AI che possano eseguire autonomamente strategie finanziarie, riequilibrare portafogli, trovare tassi di interesse ottimali per i risparmi e anche gestire le dichiarazioni dei redditi.
  • Servizio clienti e supporto (per individui) – Invece di chiamare un numero di assistenza o chiacchierare con un bot, un Agentic AI personale può comunicare direttamente con l’Agentic AI di un’azienda per risolvere problemi, chiarire ordini o apportare modifiche. Ciò elimina la necessità per gli individui di ripetere informazioni o navigare in sistemi IVR complessi.
  • Sanità – Gli agenti AI saranno in grado di gestire appuntamenti, ordinare prescrizioni, presentare richieste di assicurazione e anche cercare pareri di seconda opinione o analizzare ricerche mediche per conto dei pazienti.

Adottare l’agentic AI offre ai siti web l’opportunità di distinguersi attraverso una convenienza e un’esperienza utente eccezionali. Tuttavia, sull’altro lato della medaglia, l’agentic AI è altamente vulnerabile alle frodi. La ricerca mostra che i bot compongono tra il 40 e il 50 percento di tutto il traffico web, con circa il 65 percento di questi bot ritenuti maligni. L’agentic AI è essenzialmente un modo per i consumatori regolari di utilizzare i bot, e i truffatori – che spesso utilizzano i bot in grandi volumi per abilitare operazioni su larga scala – ora avranno un tempo molto più facile per nascondersi in piena vista tra il traffico agentic legittimo.

A livello fondamentale, la capacità di distinguere tra questi bot maligni e legittimi su larga scala sarà un fattore chiave per distinguere i leader nella corsa all’agentic AI. In un mondo agentic, le macchine saranno dotate di agenzia e percorreranno gli stessi ” corridoi cibernetici” degli esseri umani.

Ma il Paesaggio del Commercio Elettronico è Pronto?

L’agentic AI richiederà un ripensamento, o un’estensione, del quadro di verifica dell’identità online come è noto oggi, che a sua volta richiederà ai fornitori di soluzioni di continuare a migliorare ciò che stanno già facendo. Fino ad oggi questo quadro è stato centrato su tre domande:

  • È questa persona reale? La rapida proliferazione di deepfake sta rendendo obbligatori i controlli di vivacità per tutte le transazioni ad alto rischio, assicurando che siano iniziate da una persona reale e viva. Nel contesto dell’agentic AI, la risposta potrebbe essere: “no, non sono una persona”, ma ciò non significa che la vivacità sia irrilevante. La rilevazione della vivacità dovrebbe sempre essere parte dei controlli biometrici che si verificano in punti ad alto rischio nel percorso dell’utente, per assicurare che un essere umano sia coinvolto – come quando un account viene creato, il denaro viene trasferito o la ripristino dell’account viene richiesto (“Mi sono dimenticato la password”).
  • È questa persona degna di fiducia? Questa è la capacità di determinare se l’utente è un truffatore, un futuro cliente VIP o qualcosa di intermedio, che spesso coinvolge il controllo nei database pubblici. Ad esempio, qualcuno che tenta di prenotare un alloggio su un mercato online di noleggio potrebbe essere segnalato come ad alto rischio se ha una storia criminale nota di occupazione abusiva o distruzione di proprietà.
  • È ancora la persona dietro l’account? Ciò si riferisce all’autenticazione continua, o assicurarsi a intervalli regolari che la persona la cui identità è stata verificata al momento del login sia ancora presente, prevenendo il takeover dell’account da parte di altri esseri umani.

L’agentic AI aggiunge una quarta domanda – questo agente ha l’autorità di agire come proxy dell’utente reale? Questa questione di autorità è critica, confermando lo ambito e la durata dell’autorizzazione dell’essere umano per l’agente AI per agire come suo proxy, in conformità con il contesto. Ciò non riguarda solo un essere umano che delega un compito; si tratta di assicurarsi che un agente AI possieda permessi specifici, revocabili, consapevoli del contesto derivati dall’essere umano. Tutte le azioni dell’agente AI devono essere tracciabili a un essere umano reale e legittimo; questo è la chiave per i siti B2C che implementano l’agentic AI in modo sicuro e responsabile.

Secondo una stima recente, l’AI è stata dietro circa il 20 percento delle frodi perpetrate nel 2024 in tutti i settori, e questa cifra è destinata a crescere man mano che gli hacker impiegano nuove tecniche. Oltre ai bot maligni che impersonano legittimi agenti, un altro esempio è il dirottamento dell’agente, o quando un attaccante interferisce con il modo in cui un agente percepisce le informazioni o prende decisioni. Quindi, oltre a verificare la legittimità e l’autorità degli agenti AI, controllare l’integrità degli agenti è anche critico per assicurarsi che non siano stati manomessi.

Gartner ha temperato le sue previsioni forti per la crescita dell’agentic AI con una importante precisazione: oltre il 40 percento dei progetti di agentic AI saranno cancellati entro la fine del 2027. Questo è stato un forte richiamo – un segno che molte organizzazioni sottovalutano la complessità delle implementazioni di agentic AI, in particolare la necessità di garantire controlli di rischio adeguati. Mentre ci sono molti modi in cui gli agenti AI agentic possono essere sfruttati per causare danni, la capacità di verificare la legittimità e l’autorità è un passo fondamentale per minimizzare il rischio. Fortunatamente, ciò che è richiesto non è una reinvenzione, ma un’evoluzione – un aumento dei quadri di verifica dell’identità online già esistenti.

Hubert Behaghel è Chief Product & Technology Officer di Veriff, assicurandosi che la strategia di prodotto e ingegneria dell'azienda supporti la sua crescita e innovazione. Ha quasi due decenni di esperienza con giganti del settore come Amazon, Marks and Spencer e Sky, dove ha guidato una significativa espansione nelle rispettive divisioni di ingegneria, introducendo nuove iniziative e perfezionando quelle esistenti. Prima di unirsi a Veriff, è stato il primo VP di Engineering di Typeform, sovrintendendo a un'espansione razionale del team di ingegneria dell'azienda, aumentando la sua presenza globale e introducendo una serie di nuove funzioni, riducendo nel contempo le spese.