Interviste
Mike Clifton, Co-CEO di Alorica – Serie di interviste

Mike Clifton è Co-CEO di Alorica, un leader globale nelle esperienze dei clienti digitalmente potenziate (CX). In questo ruolo, Mike sovrintende alla strategia di trasformazione digitale dell’azienda, compresi i suoi prodotti di intelligenza artificiale premiati, per offrire un’esperienza CX ottimale attraverso canali (voce, chat, web, ecc.) e settori per conto dei marchi FORTUNE 500. Con una forte esperienza e competenza in innovazione digitale, intelligenza artificiale e tecnologia aziendale, Mike ha un curriculum provato di crescita redditizia guidata dall’integrazione di soluzioni tecnologiche scalabili per soddisfare le esigenze del mercato in evoluzione.
Alorica è un leader globale nell’esperienza del cliente e nell’outsourcing dei processi aziendali, fornendo soluzioni tecnologiche, umanizzate per settori come banche, assistenza sanitaria, retail e telecomunicazioni. Con oltre 100.000 dipendenti in 17+ paesi, l’azienda gestisce miliardi di interazioni ogni anno in più di 75 lingue, offrendo servizi come centri di contatto, analisi, soluzioni di intelligenza artificiale, moderazione dei contenuti e operazioni back-office, tutti finalizzati a garantire risultati misurabili per i clienti.
L’industria si sta muovendo verso l’aumento rispetto all’automazione: come riflette la strategia di Alorica questo modello ibrido?
La strategia di Alorica riflette il modello ibrido di aumento rispetto all’automazione concentrandosi sull’aumento delle prestazioni degli agenti umani con strumenti di intelligenza artificiale, piuttosto che sostituirli. Questo approccio garantisce che gli esseri umani rimangano al centro delle interazioni con i clienti, supportati da tecnologie avanzate per migliorare l’efficienza e l’efficacia.
Ad esempio, Alorica ha lanciato diverse soluzioni avanzate come evoAI, Knowledge IQ, Digital Trust & Safety Model e CX2GO®. Questi strumenti sono progettati per amplificare le prestazioni degli agenti umani fornendo interazioni in tempo reale, consapevoli del contesto, che migliorano la gestione delle conoscenze e garantiscono la sicurezza e la fiducia digitale.
Integrando strumenti di intelligenza artificiale che offrono interazioni emotivamente intelligenti e consapevoli del contesto in più lingue con tempi di risposta inferiori a un secondo, Alorica consente agli agenti di fornire supporto personalizzato ed efficiente ai clienti. Questa risposta in tempo reale si traduce in risultati migliori per i clienti.
Nel complesso, la strategia di Alorica sottolinea l’importanza degli agenti umani mentre sfrutta l’intelligenza artificiale per aumentare le loro capacità, riflettendo lo spostamento dell’industria verso l’aumento rispetto all’automazione.
Potresti condividere esempi specifici in cui l’intelligenza artificiale ha amplificato le prestazioni degli agenti umani piuttosto che sostituirli?
Ci sono molti esempi di amplificazione che abbiamo sfruttato nel fornire i nostri servizi. Uno è la capacità degli agenti di interagire con un motore di conoscenza che ascolta il discorso in tempo reale e lo traduce in un motore di risposta automatica che richiede assistenza; questo è uno strumento potente e preventivo che abbiamo utilizzato in molte soluzioni. Un altro esempio è l’uso di motori di intelligenza artificiale conversazionale per migliorare la nostra capacità di formare gli agenti sui scenari dei clienti più difficili. Eseguendo simulazioni di interazioni in tempo reale guidate dall’intelligenza artificiale, riduciamo lo stress e i modelli continuano a imparare, aggiornando gli agenti sul sentimento e sull’empatia man mano che acquistano più esperienza.
Come stai monitorando l’impatto delle prestazioni di questi strumenti di intelligenza artificiale, ad esempio, nella risoluzione al primo contatto, nel tempo di gestione o nell’efficienza degli agenti?
La monitorazione degli strumenti di intelligenza artificiale nell’uso aumentato ricade direttamente sulle metriche assegnate all’agente come se non esistessero strumenti. La differenza sta nella capacità di gestire più chiamate con un rendimento di soddisfazione più alto e nella fiducia di prevedere migliori strategie di forza lavoro quando si dispone di dati solidi dai modelli.
Hai lanciato diverse soluzioni avanzate quest’anno – evoAI, Knowledge IQ, Digital Trust & Safety Model e CX2GO®. Quale di queste vedi come avente l’effetto “superpotere” più immediato per gli agenti e perché?
Il nostro utilizzo interno di evoAI dà agli agenti la capacità di sfruttare chiamate simulate per formarsi con un livello più alto di consapevolezza situazionale, fornendo l’impatto più grande. A questo segue Knowledge IQ, che aumenta la capacità di un agente di trovare la risposta giusta. Questi due sono stati dei cambiamenti di gioco per i nostri dipendenti, cambiando completamente come i nostri agenti possono affrontare i bisogni dei clienti in modo rapido e preciso.
Da una prospettiva di apprendimento automatico, come addestri i tuoi modelli per mantenere l’accuratezza e l’adattabilità man mano che le esigenze dei clienti, la lingua e le condizioni di mercato evolvono?
Per mantenere l’accuratezza e l’adattabilità di fronte alle esigenze dei clienti, della lingua e delle condizioni di mercato in evoluzione, i nostri modelli di apprendimento automatico subiscono un addestramento continuo e un raffinamento.
Ecco alcune strategie chiave che impieghiamo:
- Apprendimento continuo: I nostri modelli sono progettati per imparare da nuovi dati in modo continuo. Ciò comporta l’aggiornamento regolare dei set di dati di addestramento con interazioni recenti, feedback e tendenze del mercato. Incorporando le informazioni più recenti, i nostri modelli possono adattarsi alle preferenze dei clienti in evoluzione e alle condizioni di mercato emergenti.
- Fonti di dati diverse: Utilizziamo una vasta gamma di fonti di dati per addestrare i nostri modelli, comprese interazioni dei clienti, social media, rapporti di mercato e altro. Questa diversità garantisce che i nostri modelli siano esposti a vari scenari e sfumature linguistiche, migliorando la loro capacità di comprendere e rispondere con precisione.
- Cicli di feedback: Implementiamo robusti cicli di feedback in cui le interazioni dei clienti e gli input degli agenti vengono utilizzati per perfezionare i modelli. Questo feedback in tempo reale aiuta a identificare e correggere le inesattezze in modo che i modelli rimangano rilevanti ed efficaci.
- Capacità multilingue: I nostri modelli sono addestrati su set di dati multilingue per gestire interazioni in più lingue. Ciò è cruciale per fornire risposte accurate, localizzate e consapevoli del contesto a una base di clienti globali.
- Verifiche e valutazioni regolari: Condurre regolari verifiche e valutazioni dei nostri modelli per valutare le loro prestazioni. Ciò include testare i modelli contro set di dati di riferimento e scenari del mondo reale per garantire che soddisfino gli standard di accuratezza e adattabilità.
- Uomo-nella-ciclo: Manteniamo un approccio uomo-nella-ciclo in cui gli agenti umani collaborano con l’intelligenza artificiale per gestire query complesse. Questo modello ibrido garantisce che la tecnologia impari dall’esperienza umana e migliori le sue prestazioni nel tempo.
- Sfruttamento di modelli linguistici più piccoli: L’addestramento di modelli più piccoli orientati verticalmente (attraverso un approccio ibrido o ensemble) accanto a LLM commerciali disponibili consente efficienze nel calcolo, nella ricerca e nel tempo di risposta, riducendo i cicli di test per la parzialità e la correttezza.
Queste strategie consentono ai nostri modelli di apprendimento automatico di rimanere accurati, adattabili e in grado di fornire esperienze di alta qualità ai clienti in ambienti dinamici.
evoAI offre interazioni consapevoli del contesto e intelligenti emotivamente in oltre 120 lingue con tempi di risposta inferiori a un secondo. Come si traduce questa risposta in tempo reale nel supporto agli agenti e nei risultati per i clienti?
evoAI fornisce un miglior supporto agli agenti e migliori risultati per i clienti in diversi modi:
- Prestazioni: le interazioni consapevoli del contesto aiutano a trovare e ordinare grandi quantità di informazioni in modo rapido per le query degli agenti.
- Personalizzazione: offre adattabilità multilingue, dando la libertà di selezionare le lingue di input e output in tempo reale per qualsiasi prompt. Ad esempio, un cliente che chiede in inglese una risposta in francese in modo che un genitore più anziano ascoltatore possa capire.
- Efficienza: riduce i tempi di risposta e spesso elimina la necessità di una risposta umana.
- Intelligenza emotiva: consente agli agenti di regolare le opzioni per i chiamanti in base alla consapevolezza situazionale (tono, umore e scelta delle parole), consentendo una de-escalation più rapida.
Con l’intelligenza artificiale agente che guadagna trazione, come gestisci rischi come allucinazioni, pregiudizi o perdita di controllo, assicurandoti che gli agenti rimangano i responsabili delle decisioni?
In Alorica, crediamo che l’architettura corretta dietro la tecnologia faccia tutta la differenza. Pertanto, la gestione dei rischi dell’intelligenza artificiale agente richiede un framework di governance multilivello che abbiamo incorporato in ogni livello delle nostre operazioni di intelligenza artificiale.
Ecco come affrontiamo ogni rischio critico:
- Mitigazione delle allucinazioni: impieghiamo un sistema di verifica a tre livelli per minimizzare le allucinazioni. In primo luogo, i nostri modelli utilizzano la generazione aumentata di recupero (RAG) che basa le risposte su basi di conoscenza verificate e fonti di dati in tempo reale, riducendo la probabilità di informazioni fabbricate dell’85%. In secondo luogo, implementiamo un punteggio di confidenza su tutte le suggerimenti generate dall’intelligenza artificiale, dove le risposte al di sotto di una soglia di confidenza dell’80% attivano una revisione umana automatica. In terzo luogo, i nostri modelli sono vincolati a operare all’interno di spazi di parametri definiti specifici per le regole aziendali di ogni cliente e domini fattuali – l’intelligenza artificiale non può generare informazioni su prodotti, politiche o procedure che non siano esplicitamente documentate nei dati di addestramento.
- Rilevamento e prevenzione dei pregiudizi: la nostra strategia di gestione dei pregiudizi opera lungo l’intero ciclo di vita dell’intelligenza artificiale. Durante l’addestramento del modello, utilizziamo tecniche di debiasing avversarie e algoritmi di apprendimento consapevoli della parità. Manteniamo metriche di parità demografica tra categorie protette e conduciamo audit mensili utilizzando strumenti come indicatori di equità e valutazioni dell’impatto disparato. I nostri modelli subiscono test con dati sintetici progettati per rivelare pregiudizi tra diversi gruppi demografici, lingue e contesti culturali. Quando viene rilevato un pregiudizio, impieghiamo un addestramento mirato su set di dati bilanciati e regoliamo i pesi del modello per garantire risultati equi. Importante, manteniamo rapporti di trasparenza che tracciano le metriche di pregiudizio nel tempo, permettendo ai clienti di vedere esattamente come i nostri modelli si eseguono su diverse popolazioni.
- Mantenimento del controllo umano: gli agenti umani rimangono i responsabili decisionali ultimi attraverso la nostra architettura “Intelligenza artificiale come consigliere”. Il sistema di intelligenza artificiale fornisce raccomandazioni con funzionalità di spiegabilità – gli agenti possono vedere perché l’intelligenza artificiale ha suggerito una particolare azione, quali fattori ha considerato e quali alternative esistono. Abbiamo implementato fermate rigide dove l’intelligenza artificiale non può eseguire azioni autonomamente: transazioni finanziarie, modifiche contrattuali, impegni legali o consigli sanitari richiedono sempre l’autorizzazione umana. I nostri protocolli di escalation routano automaticamente scenari complessi o ad alto rischio a senior agenti o supervisor quando l’intelligenza artificiale rileva situazioni al di fuori dei suoi confini di competenza.
- Monitoraggio continuo e interruttori di spegnimento: ogni interazione di intelligenza artificiale viene registrata e monitorata attraverso il nostro Osservatorio delle prestazioni del modello, che traccia deviazioni da comportamenti previsti in tempo reale. Manteniamo capacità di rollback istantaneo e “interruttori di spegnimento” a più livelli – componenti di modelli individuali, modelli interi o funzionalità di intelligenza artificiale del sistema possono essere disabilitati entro secondi se si rileva un comportamento anomalo. I nostri algoritmi di rilevamento della deriva confrontano continuamente le uscite del modello con le decisioni degli esperti umani, segnalando le divergenze per una revisione immediata.
- Convalida uomo-nella-ciclo: abbiamo progettato cicli di feedback in cui gli agenti valutano le suggerimenti dell’intelligenza artificiale dopo ogni interazione, creando un sistema di apprendimento continuo che si adatta all’esperienza umana. I nostri agenti migliori partecipano a sessioni di calibrazione settimanali in cui esaminano casi limite e aiutano a raffinare i confini decisionali dell’intelligenza artificiale. Ciò crea un modello di intelligenza collaborativa in cui il giudizio umano continua a plasmare e vincolare il comportamento dell’intelligenza artificiale.
- Tracciabilità e percorsi di audit: ogni decisione influenzata dall’intelligenza artificiale mantiene un percorso di audit completo che mostra la raccomandazione dell’intelligenza artificiale, il livello di confidenza, le fonti di dati utilizzate e la decisione finale dell’agente umano. Ciò garantisce la responsabilità e ci consente di migliorare continuamente i nostri modelli in base ai risultati. Gli audit regolari di terze parti convalidano le nostre pratiche di gestione dei rischi rispetto agli standard dell’industria e ai requisiti normativi.
Implementando queste salvaguardie complete, ci assicuriamo che i nostri sistemi di intelligenza artificiale agente aumentino le capacità umane mantenendo l’agenzia umana, gli standard etici e il controllo operativo.
Come affronti la riconfigurazione dei modelli e l’apprendimento continuo per assicurarti che i tuoi sistemi di intelligenza artificiale rimangano allineati con i requisiti di conformità e le sfumature del sentimento dei clienti?
L’approccio di Alorica all’addestramento dei modelli e all’apprendimento continuo all’interno di Alorica IQ si basa su un robusto framework MLOps che bilancia i requisiti di conformità con l’ottimizzazione dell’esperienza del cliente.
Abbiamo implementato un’architettura di riconfigurazione multilivello che opera su diverse cadenze. I nostri modelli critici per la conformità subiscono rilevamento della deriva quotidiano e audit delle prestazioni settimanali, con trigger automatici per un addestramento immediato quando si verificano modifiche normative. Per i modelli del sentimento dei clienti, sfruttiamo cicli di feedback in tempo reale che catturano correzioni degli agenti e punteggi di soddisfazione dei clienti, alimentando questi nel nostro pipeline di addestramento ogni 72 ore.
Il nostro livello di intelligenza sulla conformità agisce come un sistema di guardrail, validando automaticamente le uscite del modello rispetto a framework normativi specifici per ogni geografia – dalla GDPR in Europa alla legge sulla protezione della lingua in Francia che richiede interfacce in francese come prima lingua. Questo livello viene costantemente aggiornato attraverso il nostro partenariato con fornitori di tecnologia legale e feed normativi, assicurandoci che i nostri sistemi di intelligenza artificiale rimangano conformi senza intervento manuale.
Per le sfumature del sentimento, abbiamo sviluppato ciò che chiamiamo “inserimenti di contesto culturale” all’interno di Alorica IQ, l’incubatore di innovazione dell’azienda. Questi sono modelli regionali fine-tuned che comprendono non solo la lingua ma anche i pattern di comunicazione culturale. Ad esempio, i nostri modelli riconoscono che i livelli di directness variano significativamente tra interazioni dei clienti tedeschi e giapponesi, e regolano di conseguenza la loro valutazione del sentimento.
Manteniamo registri di modelli versionati con capacità di rollback completa, permettendoci di tornare immediatamente a versioni precedenti se il nuovo addestramento introduce comportamenti inaspettati. Il nostro framework di test A/B esegue continuamente, confrontando nuove versioni del modello con baseline di produzione su migliaia di interazioni prima del deploy completo.
Soprattutto, abbiamo stabilito un Protocollo di Integrazione del Feedback Umano in cui i nostri agenti migliori regolarmente esaminano casi limite e forniscono feedback correttivo, creando un ciclo virtuoso in cui l’esperienza umana continua a migliorare le nostre capacità di intelligenza artificiale. Questo approccio ha ridotto le violazioni della conformità del 94% mentre migliorava l’accuratezza della rilevazione del sentimento al 92% su tutte le lingue supportate.
Con un’espansione internazionale rapida – in particolare in mercati come l’India, l’Egitto e l’EMEA – come adatti il tuo approccio AI-umano alle esigenze linguistiche e culturali diverse?
Crediamo che la localizzazione non sia solo questione di parlare la lingua – è questione di riflettere la cultura.
Le nostre piattaforme di intelligenza artificiale come evoAI e ReVoLT sono tarate per catturare il tono, le sfumature e il contesto in centinaia di lingue e dialetti, in modo che le interazioni sembrino familiari e autentiche. Ma non ci fermiamo alla tecnologia. Assumiamo talenti all’interno di ogni regione, formiamo team intorno alle aspettative culturali e adattiamo il nostro design del servizio per riflettere le norme locali. Questo modello ibrido garantisce che ogni interazione sembri essere stata costruita per quel mercato.
In India, dove supportiamo 75 lingue ufficiali più numerosi dialetti, abbiamo distribuito la nostra Architettura a rete linguistica che non solo traduce ma mantiene il contesto attraverso scenari di code-switching – dove i clienti naturalmente mescolano l’inglese, l’hindi e le lingue regionali nella stessa conversazione. I nostri modelli sono addestrati su pattern di conversazione reali da città di secondo e terzo livello, non solo aree metropolitane, assicurandoci di catturare l’intero spettro degli stili di comunicazione.
Per le nostre operazioni in Egitto che servono la più ampia regione MENA, abbiamo sviluppato modelli specifici dei dialetti arabi che distinguono tra arabo egiziano, arabo del Golfo e arabo levantino, con un handling specializzato per i registri formali (Fusha) versus colloquiali (Ammiya). Il nostro sistema di intelligenza artificiale comprende quando un cliente passa dall’arabo formale a quello informale come un segnale emotivo, attivando la formazione degli agenti in tempo reale.
Nel mercato EMEA, abbiamo implementato ciò che chiamiamo “Progettazione dell’intelligenza artificiale prima della normativa”. Ogni distribuzione per paese include moduli di conformità preconfigurati – dalle rigorose richieste di localizzazione dei dati in Germania alle leggi sulla protezione della lingua in Francia che richiedono interfacce in francese come prima lingua. I nostri modelli sono addestrati non solo sulla lingua ma sull’etichetta commerciale locale; ad esempio, la nostra distribuzione tedesca enfatizza la precisione e la documentazione dettagliata, mentre il nostro modello italiano consente una maggiore flessibilità conversazionale.
La base tecnica è il nostro Framework di apprendimento federato all’interno di Alorica IQ, in cui i modelli locali imparano da dati regionali senza che i dati lascino il paese, garantendo la sovranità dei dati mentre si beneficia ancora dei miglioramenti dei modelli globali. Manteniamo cluster GPU regionali per garantire una latenza inferiore a 100 ms per l’assistenza degli agenti in tempo reale.
Il nostro Team di Intelligenza Culturale, composto da esperti linguistici e scienziati del comportamento di ogni regione, continua a convalidare le uscite del nostro sistema di intelligenza artificiale. Hanno aiutato a identificare oltre 3.000 scenari specifici della cultura che richiedono un handling speciale – dalle osservanze religiose che influenzano la disponibilità del servizio alle preferenze di pagamento locali che influenzano i flussi di conversazione.
Questo approccio ha prodotto risultati impressionanti: le nostre operazioni in India mostrano punteggi di soddisfazione del cliente del 40% più alti quando si utilizzano modelli di intelligenza artificiale adattati culturalmente rispetto ai modelli generici, e le nostre distribuzioni EMEA hanno raggiunto tassi di risoluzione al primo contatto del 98% per le query specifiche della lingua.
Come si traduce la capacità di evoAI di riconoscere e adattarsi ai dialetti e ai segnali emotivi regionali nell’accelerare l’adozione in nuovi mercati?
L’adozione si accelera quando le persone sentono che la tecnologia “le capisce”. evoAI va oltre la traduzione parola per parola comprendendo lo slang, l’accento e persino il tono emotivo in tempo reale.
La capacità di evoAI di riconoscere e adattarsi ai dialetti e ai segnali emotivi regionali è diventata il nostro principale differenziatore competitivo nella penetrazione dei nuovi mercati, affrontando direttamente il divario di fiducia che spesso inibisce l’adozione dell’intelligenza artificiale nei mercati emergenti.
Dal punto di vista tecnico, evoAI impiega il nostro modello di fusione acustico-linguistico, che elabora simultaneamente pattern fonetici, caratteristiche prosodiche e contenuto semantico. Questo approccio tri-modale ci consente di rilevare stati emotivi sottili espressi in modo diverso tra le culture. Ad esempio, nei mercati giapponesi, potremmo rilevare “honne” versus “tatemae” (veri sentimenti versus facciata pubblica) attraverso micro-variazioni nel tono e nel ritmo della parlata, mentre nei mercati del Medio Oriente, riconosceremmo dinamiche di onore e vergogna attraverso costruzioni di frasi e pattern di enfasi specifici.
Il riconoscimento dei dialetti va oltre la semplice rilevazione dell’accento. evoAI mantiene mappe dinamiche dei dialetti che comprendono indicatori socioeconomici incorporati nei pattern di parlata. In India, ad esempio, il sistema riconosce non solo se qualcuno parla tamil o telugu, ma può identificare anche il background educativo e se la persona è di area urbana o rurale, permettendo agli agenti di calibrare lo stile di comunicazione di conseguenza. Questa comprensione granulare ha aumentato i punteggi di fiducia dei clienti del 67% nei programmi pilota.
La layer di intelligenza emotiva utilizza la nostra tecnologia di Grafico Emotivo Contestuale, che mappa le traiettorie emotive lungo le conversazioni piuttosto che solo il sentimento in un determinato momento. Ciò consente a evoAI di prevedere l’escalation emotiva 30 secondi prima che si verifichi con un’accuratezza dell’89%, dando agli agenti il tempo cruciale per intervenire con tecniche di de-escalation specifiche per quella cultura.
Per l’adozione di nuovi mercati, il nostro laboratorio di azione ha una strategia di “Localizzazione Progressiva” attraverso Alorica IQ. Iniziamo con un modello base addestrato sul contenuto dei media del mercato di destinazione, social media e discorso pubblico. Entro i primi 30 giorni di distribuzione, evoAI si adatta ai pattern dei clienti locali attraverso il nostro Pipeline di Apprendimento Attivo, che priorizza l’apprendimento dalle conversazioni con la varianza emotiva più alta. Entro il 90° giorno, i nostri modelli dovrebbero raggiungere il 95% di accuratezza nel riconoscimento dei dialetti e l’88% nella rilevazione degli stati emotivi.
L’impatto aziendale si traduce in risultati sostanziali. I nostri studi mostrano che una distribuzione in Egitto, con la capacità di evoAI di riconoscere e rispondere ai dialetti del Cairo e di Alessandria, combinata con gli appropriati pattern di cortesia culturale, ridurrebbe il tipico periodo di penetrazione del mercato di 6 mesi a sole 8 settimane. I costi di acquisizione dei clienti potrebbero diminuire del 45% man mano che le raccomandazioni di parola d’ordine aumentano a causa delle interazioni naturali e consapevoli della cultura.
La capacità di adattamento emotivo di evoAI aprirà intere nuove categorie di servizio. Ad esempio, abbiamo ipotizzato che un servizio di supporto per la salute mentale alimentato da evoAI potrebbe aiutare a riconoscere precoci indicatori di depressione e ansia sulla base di pattern di espressione naturali, consentendo un intervento tempestivo e un’escalation al nostro team di salute e benessere – assicurando che il benessere degli agenti sia sempre prioritario.
Questo vantaggio tecnologico si traduce direttamente nell’adozione del mercato: le regioni che utilizzano le capacità complete di evoAI per i dialetti e le emozioni mostrano tassi di adozione 3,2 volte più veloci rispetto ai deploy di intelligenza artificiale standard, con i punteggi di soddisfazione degli agenti che migliorano del 78% man mano che si sentono più confidenti nel gestire interazioni culturalmente complesse.
Guardando oltre il 2025, cosa vedi come il prossimo confine per l’intelligenza artificiale umano-centrica nella CX?
Il prossimo confine è la convergenza dell’intelligenza artificiale conversazionale, dell’intelligenza artificiale agente e delle reti neurali per orchestrare un livello più alto di risultati precedentemente non contemplati. Ciò ridisegnerà il modo in cui facciamo affari. L’orchestrazione non è più uomo-macchina; è macchina-macchine o macchina-migliaia di macchine simultaneamente.
Immagina di pianificare un viaggio d’affari: visitare un sito web per selezionare un’azienda aerea, poi prenotare un hotel, organizzare il trasporto, pianificare la cena e pianificare il ritorno. Questo è un semplice esempio di come un prompt e lasciare che bot integrati – alimentati da una rete neurale – elaborino tutte le opzioni disponibili e creino una risposta a scelta multipla per te. In questo modello, l’orchestrazione è neurale, l’intelligenza artificiale agente alimenta i bot e la conversazione è la risposta.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Alorica.












