mozzicone Come le aziende possono creare un'IA responsabile e trasparente - Leader di pensiero - Unite.AI
Seguici sui social

Leader del pensiero

In che modo le aziende possono creare un'IA responsabile e trasparente: leader di pensiero

mm

Pubblicato il

 on

By Eric Paternòster, CEO di Infosys Servizi Pubblici

Sundar Pichai, CEO della società madre di Google Alphabet, ha descritto gli sviluppi nell'IA come "più profondi del fuoco o dell'elettricità" e COVID-19 ha portato nuova urgenza nel liberare la promessa di questa tecnologia. Le applicazioni dell'intelligenza artificiale sono ora saldamente sotto i riflettori, migliorando i trattamenti COVID, rintracciando potenziali vettori COVID e implementando chatbot in tempo reale per gli utenti dei siti Web di vendita al dettaglio con problemi di approvvigionamento. Queste applicazioni hanno dimostrato che l'intelligenza artificiale migliora la resilienza di un'azienda e avvantaggia la società in generale.

Quindi, insieme a "nativo del cloud", la parola d'ordine dell'ultimo trimestre potrebbe essere solo "prima trasformazione dell'IA", un termine che i professionisti del settore ritengono rimarrà valido anche dopo che COVID se ne sarà andato. Per molte aziende, la promessa di costi inferiori (ad es. algoritmi della catena di approvvigionamento che abbinano domanda e offerta) e mirabili incrementi di produttività (ad es. quando le banche utilizzano la verifica dei documenti e dell'identità in tempo reale) è semplicemente troppo buona per essere ignorata.

Perché AI-First Transformation?

Nella trasformazione AI-first, un'azienda utilizza l'IA come una stella polare, lavorando per usarla non solo in modo intelligente, ma anche in modo da influenzare le decisioni prese da persone, processi e sistemi su larga scala. Sintonizza le organizzazioni sulle dinamiche in evoluzione tra dipendenti, partner e clienti. Ciò consente loro di orientarsi rapidamente e soddisfare le mutevoli esigenze, creando al tempo stesso un vantaggio competitivo a lungo termine.

Ma non tutte le aziende hanno lo stesso livello di maturità dell'IA. Ce ne sono alcuni che possono essere definiti "gruppo AI convenzionale" o H1. Queste aziende, che hanno meno esperienza e investimenti, generalmente utilizzano algoritmi classici come il naïve Bayes, che esiste da 250 anni, o la foresta casuale (sviluppata da Tin Kam Ho nel 1995) per aumentare l'intelligenza frammentata all'interno dei sistemi esistenti. Tali usi dell'IA sono rigorosamente basati su regole e piuttosto rigidi, privi della capacità di generalizzare dalle regole che scoprono. Poi c'è il "gruppo di apprendimento profondo" o H2. Queste aziende adottano un'intelligenza artificiale più complessa, comprese le traduzioni automatiche neurali e i sistemi basati sulla trascrizione, per estrarre informazioni conversazionali. Tali sistemi hanno più potere ma non spiegano facilmente perché fanno le cose che fanno. Inoltre mancano di trasparenza. Per questi due gruppi, l'intelligenza artificiale utilizzata spesso non è affidabile o attendibile e può prendere decisioni distorte che attirano l'attenzione negativa degli enti governativi, delle autorità di regolamentazione e del pubblico in generale.

Queste aziende devono fare delle mosse ora per portare le loro implementazioni di intelligenza artificiale un ulteriore passo avanti, verso un terzo campo (H3) in cui l'intelligenza artificiale è autoapprendente e generativa. A questo punto, i sistemi di intelligenza artificiale sono semi-supervisionati o addirittura non supervisionati. Sono trasparenti e raggiungono il "buon senso" attraverso l'apprendimento multitasking. Questi sistemi offrono un'intelligence più ricca e forniscono approfondimenti fruibili in tempo reale. Questo viene fatto attraverso un'intelligenza artificiale ben gestita e governata che sia interpretabile e spiegabile in tutte le fasi.

Come lavorare per un'IA più responsabile e trasparente

L'intelligenza artificiale viene sempre più utilizzata per gestire scuole, spazi di lavoro e altri enti pubblici. In questi contesti, è più importante che mai che l'IA sia equa e trasparente. Tuttavia, mentre la società affronta questa esplosione dell'adozione dell'IA, gli organismi di regolamentazione stanno fornendo indicazioni limitate sullo sviluppo e l'implementazione appropriati delle tecnologie di intelligenza artificiale. Pertanto, spetta alle aziende assumere l'iniziativa. L'industria tecnologica più ampia deve mettere al lavoro i muscoli finanziari e il capitale umano, trasformando le implementazioni iniziali dell'IA frammentata in ecosistemi basati sull'intelligence efficienti, creativi, responsabili e trasparenti. Per entrare in questo spazio, le aziende dovrebbero fare le seguenti quattro cose:

  • Tieni gli umani al corrente: I modelli di intelligenza artificiale sono spesso progettati per funzionare indipendentemente dagli esseri umani. Tuttavia, l'elemento umano è cruciale in molti casi. Gli esseri umani devono rivedere le decisioni ed evitare pregiudizi ed errori che spesso sviano i progetti di intelligenza artificiale. Due casi d'uso includono il rilevamento delle frodi e i casi in cui sono coinvolte le forze dell'ordine. Raccomandiamo alle aziende di assumere professionisti dell'IA lentamente ma in modo coerente nel tempo per ottenere un vantaggio nel loro primo viaggio verso l'IA.
  • Elimina set di dati distorti: un set di dati imparziale è un prerequisito fondamentale per realizzare modelli di intelligenza artificiale affidabili, equi e non discriminatori. Per avere un'idea della sua importanza, l'intelligenza artificiale viene utilizzata per la selezione dei curriculum e il punteggio del credito da parte delle banche, e si è persino fatta strada in alcuni sistemi giudiziari. In questo panorama, pregiudizi incontrollati hanno avuto implicazioni molto reali.
  • Assicurarsi che le decisioni siano spiegabili: Questa caratteristica è stata trattata da molti dei grandi organi di informazione, ed è giusto che sia così. XAI aiuta a spiegare perché un sistema di intelligenza artificiale ha preso una determinata decisione. Scopre quali caratteristiche del modello di deep learning sono state utilizzate più di altre per fare previsioni o ipotesi. Comprendere l'importanza delle caratteristiche ed essere in grado di giustificare il modo in cui vengono raggiunte le decisioni è fondamentale per utilizzare casi come i veicoli autonomi e la visione artificiale utilizzata nelle biopsie mediche.
  • Riproduce in modo affidabile i risultati: una necessità comune nei progetti di ricerca, i modelli di intelligenza artificiale dovrebbero essere coerenti quando si forniscono previsioni nel tempo. Tali modelli non dovrebbero essere graduali quando vengono presentati con nuovi dati.

Queste quattro cose creeranno ecosistemi trasparenti e guidati dall'intelligence, muovendosi verso ciò che chiamiamo "impresa dal vivo". Qui, decisioni imparziali e spiegabili vengono prese quasi in tempo reale, con l'intera impresa che agisce come un organismo senziente governato dagli umani. Leggi il Libro bianco di Infosys Knowledge Institute scoprire di più.

Eric Paternoster è amministratore delegato di Servizi Pubblici Infosys, una Infosys filiale focalizzata sul settore pubblico negli Stati Uniti e in Canada. In questo ruolo, supervisiona la strategia e l'esecuzione dell'azienda per una crescita redditizia e fornisce consulenza alle organizzazioni del settore pubblico su strategia, tecnologia e operazioni. Fa anche parte dei consigli di amministrazione di Infosys Public Services e della sussidiaria McCamish di Infosys BPM.

Eric ha oltre 30 anni di esperienza nel settore pubblico, nella sanità, nella consulenza e nella tecnologia aziendale con diverse aziende. Prima del suo ruolo attuale, è stato Senior Vice President e Head of Insurance, Healthcare and Life Sciences, dove ha fatto crescere il business da $ 90 milioni a oltre $ 700 milioni con oltre 60 clienti in America, Europa e Asia. Eric è entrato in Infosys nel 2002 come Head of Business Consulting per gli Stati Uniti orientali e il Canada.