Connect with us

I modelli di intelligenza artificiale faticano a prevedere il comportamento irregolare delle persone durante la pandemia di Covid-19

Intelligenza artificiale

I modelli di intelligenza artificiale faticano a prevedere il comportamento irregolare delle persone durante la pandemia di Covid-19

mm

Le aziende di retail e servizi in tutto il mondo utilizzano algoritmi di intelligenza artificiale per prevedere i comportamenti dei clienti, gestire le scorte di inventario, stimare l’impatto del marketing e rilevare possibili casi di frode. I modelli di apprendimento automatico utilizzati per effettuare queste previsioni sono addestrati su modelli derivati dall’attività normale e quotidiana delle persone. Purtroppo, la nostra attività quotidiana è cambiata durante la pandemia di coronavirus, e come ha riportato MIT Technology Review, i modelli di apprendimento automatico attuali stanno venendo messi fuori uso a causa di ciò. La gravità del problema differisce da azienda a azienda, ma molti modelli sono stati negativamente impattati dal repentino cambiamento nel comportamento delle persone nel corso delle ultime settimane.

Quando è scoppiata la pandemia di coronavirus, gli abitudini di acquisto delle persone sono cambiate drasticamente. Prima dell’inizio della pandemia, gli oggetti più comunemente acquistati erano cose come custodie per telefoni, caricabatterie, cuffie, articoli da cucina. Dopo l’inizio della pandemia, i primi 10 termini di ricerca su Amazon sono diventati cose come Clorox wipes, Lysol spray, carta igienica, disinfettante per le mani, maschere facciali e carta igienica. Nel corso dell’ultima settimana di febbraio, le prime ricerche su Amazon sono diventate tutte relative a prodotti che le persone richiedevano per proteggersi dal Covid-19. La correlazione tra le ricerche/purchi di prodotti relativi al Covid-19 e la diffusione della malattia è così affidabile che può essere utilizzata per tracciare la diffusione della pandemia in diverse regioni geografiche. Eppure, i modelli di apprendimento automatico si rompono quando i dati di input del modello sono troppo diversi dai dati utilizzati per addestrare il modello.

La volatilità della situazione ha reso difficile l’automazione delle catene di approvvigionamento e degli inventari. Rael Cline, l’amministratore delegato della società di consulenza Nozzle con sede a Londra, ha spiegato che le aziende stanno cercando di ottimizzare la domanda di carta igienica della settimana scorsa, mentre “questa settimana tutti vogliono comprare puzzle o attrezzature per il fitness”.

Altre aziende hanno i loro problemi. Un’azienda fornisce raccomandazioni di investimento in base al sentimento di vari articoli di notizie, ma poiché il sentimento degli articoli di notizie attualmente è spesso più pessimistico del solito, i consigli di investimento potrebbero essere fortemente distorti verso il negativo. Nel frattempo, un’azienda di streaming video ha utilizzato algoritmi di raccomandazione per suggerire contenuti agli spettatori, ma poiché molte persone si sono improvvisamente iscritte al servizio, le loro raccomandazioni hanno iniziato a non essere più pertinenti. Un’altra azienda responsabile di fornire condimenti e salse ai rivenditori in India ha scoperto che gli ordini all’ingrosso hanno rotto i loro modelli predittivi.

Le diverse aziende stanno gestendo i problemi causati dai modelli di comportamento della pandemia in modi diversi. Alcune aziende stanno semplicemente revisionando le loro stime verso il basso. Le persone continuano a iscriversi a Netflix e ad acquistare prodotti su Amazon, ma hanno ridotto le spese di lusso, rinviando l’acquisto di articoli di grandi dimensioni. In un certo senso, i comportamenti di spesa delle persone possono essere concepiti come una contrazione del loro comportamento abituale.

Altre aziende hanno dovuto lavorare più a stretto contatto con i loro modelli e hanno fatto in modo che gli ingegneri apportassero modifiche importanti al modello e ai suoi dati di addestramento. Ad esempio, Phrasee è un’azienda di intelligenza artificiale che utilizza modelli di elaborazione e generazione del linguaggio naturale per creare copie e pubblicità per una varietà di clienti. Phrasee fa sempre controllare agli ingegneri cosa genera il modello e l’azienda ha iniziato a filtrare manualmente determinate frasi nella sua copia. Phrasee ha deciso di vietare la generazione di frasi che potrebbero incoraggiare attività pericolose durante un periodo di distanziamento sociale, frasi come “abbigliamento da festa”. Hanno anche deciso di limitare i termini che potrebbero portare all’ansia, come “preparati”, “allacciati” o “fai scorta”.

La crisi di Covid-19 ha dimostrato che eventi insoliti possono mettere fuori uso anche modelli altamente addestrati che sono normalmente affidabili, poiché le cose possono peggiorare più del peggiore degli scenari che sono normalmente inclusi nei dati di addestramento. Rajeev Sharma, amministratore delegato della società di consulenza AI Pactera Edge, ha spiegato a MIT Technology Review che i modelli di apprendimento automatico potrebbero essere resi più affidabili addestrando su eventi insoliti come la pandemia di Covid-19 e la Grande Depressione, in aggiunta alle normali fluttuazioni verso l’alto e verso il basso.

Blogger e programmatore con specializzazioni in Machine Learning e Deep Learning argomenti. Daniel spera di aiutare gli altri a utilizzare il potere dell'AI per il bene sociale.