Connect with us

Leader di pensiero

Con gli avanzamenti dell’Intelligenza Artificiale Generativa, è giunto il momento di affrontare l’Intelligenza Artificiale Responsabile

mm

Nel 2022, le aziende avevano in media 3,8 modelli di Intelligenza Artificiale in produzione. Oggi, sette aziende su dieci stanno sperimentando l’Intelligenza Artificiale generativa, il che significa che il numero di modelli di Intelligenza Artificiale in produzione aumenterà notevolmente nei prossimi anni. Di conseguenza, le discussioni nel settore sull’Intelligenza Artificiale responsabile hanno assunto una maggiore urgenza.

La buona notizia è che più della metà delle organizzazioni sostengono già l’etica dell’Intelligenza Artificiale. Tuttavia, solo circa il 20% ha implementato programmi completi con framework, governance e sistemi di controllo per sovrintendere allo sviluppo dei modelli di Intelligenza Artificiale e identificare e mitigare proattivamente i rischi. Data la rapida velocità di sviluppo dell’Intelligenza Artificiale, i leader dovrebbero procedere ora per implementare framework e processi maturi. Le norme in tutto il mondo stanno arrivando e già una azienda su due ha avuto un fallimento nell’Intelligenza Artificiale responsabile.

Sfide nell’implementazione dell’Intelligenza Artificiale Responsabile

L’Intelligenza Artificiale responsabile copre fino a 20 diverse funzioni aziendali, aumentando la complessità dei processi e della presa di decisioni. I team dell’Intelligenza Artificiale responsabile devono lavorare con i principali stakeholder, tra cui la dirigenza; i proprietari dell’azienda; i team di dati, Intelligenza Artificiale e IT; e i partner per:

  • Costruire soluzioni di Intelligenza Artificiale che siano eque e prive di pregiudizi: I team e i partner possono utilizzare diverse tecniche, come l’analisi dei dati esplorativa, per identificare e mitigare i potenziali pregiudizi prima di sviluppare le soluzioni – in modo che i modelli siano costruiti con l’equità in mente fin dall’inizio. I team e i partner possono anche esaminare i dati utilizzati nella pre-elaborazione, nella progettazione degli algoritmi e nella post-elaborazione per assicurarsi che siano rappresentativi e bilanciati. Inoltre, possono utilizzare tecniche di equità di gruppo e individuale per assicurarsi che gli algoritmi trattino i diversi gruppi e gli individui in modo equo. E gli approcci di equità controfattuale modellano i risultati se certi fattori vengono modificati, aiutando a identificare e affrontare i pregiudizi.
  • Promuovere la trasparenza e la spiegabilità dell’Intelligenza Artificiale: La trasparenza dell’Intelligenza Artificiale significa che è facile capire come funzionano i modelli di Intelligenza Artificiale e prendono decisioni. La spiegabilità significa che queste decisioni possono essere comunicate facilmente agli altri in termini non tecnici. Utilizzare una terminologia comune, tenere discussioni regolari con gli stakeholder e creare una cultura di consapevolezza e apprendimento continuo dell’Intelligenza Artificiale può aiutare a raggiungere questi obiettivi.
  • Garantire la privacy e la sicurezza dei dati: I modelli di Intelligenza Artificiale utilizzano enormi quantità di dati. Le aziende stanno sfruttando i dati di prima e terza parte per alimentare i modelli. Stanno anche utilizzando tecniche di apprendimento che preservano la privacy, come la creazione di dati sintetici per superare i problemi di scarsità. I leader e i team vorranno esaminare e far evolvere le salvaguardie per la privacy e la sicurezza dei dati per assicurarsi che i dati confidenziali e sensibili siano ancora protetti mentre vengono utilizzati in modi nuovi. Ad esempio, i dati sintetici dovrebbero emulare le caratteristiche chiave dei clienti, ma non essere riconducibili agli individui.
  • Implementare la governance: La governance varierà in base alla maturità aziendale dell’Intelligenza Artificiale. Tuttavia, le aziende dovrebbero stabilire i principi e le politiche dell’Intelligenza Artificiale fin dall’inizio. Man mano che l’utilizzo dei modelli di Intelligenza Artificiale aumenta, possono nominare funzionari dell’Intelligenza Artificiale; implementare framework; creare meccanismi di responsabilità e reporting; e sviluppare programmi di feedback e miglioramento continuo.

Elementi essenziali per un programma di Intelligenza Artificiale Responsabile

Quindi, cosa differenzia le aziende che sono leader nell’Intelligenza Artificiale responsabile dalle altre? Essi:

  • Creare una visione e obiettivi per l’Intelligenza Artificiale: I leader comunicano la loro visione e gli obiettivi per l’Intelligenza Artificiale e come essa beneficia l’azienda, i clienti e la società.
  • Stabilire aspettative: I leader senior stabiliscono le aspettative giuste con i team per costruire soluzioni di Intelligenza Artificiale responsabile fin dall’inizio, piuttosto che cercare di adattare le soluzioni dopo che sono state completate.
  • Implementare un framework e processi: I partner forniscono framework di Intelligenza Artificiale responsabile con processi trasparenti e sistemi di controllo. Ad esempio, i controlli di privacy, equità e pregiudizi dovrebbero essere integrati nella preparazione iniziale dei dati, nello sviluppo del modello e nel monitoraggio continuo.
  • Acessare competenze di dominio, settore e Intelligenza Artificiale: I team vogliono accelerare l’innovazione delle soluzioni di Intelligenza Artificiale per aumentare la competitività aziendale. Possono rivolgersi ai partner per competenze di dominio e settore rilevanti, come la strategia e l’esecuzione dei dati e dell’Intelligenza Artificiale, abbinati all’analisi dei clienti, alla tecnologia di marketing, alla catena di approvvigionamento e ad altre capacità. I partner possono anche fornire competenze di Intelligenza Artificiale a pieno spettro, tra cui ingegneria, sviluppo, operazioni e capacità di ingegneria della piattaforma, sfruttando framework e processi di Intelligenza Artificiale responsabile per progettare, sviluppare, operativizzare e produrre soluzioni.
  • Acessare acceleratori: I partner offrono l’accesso a un ecosistema di Intelligenza Artificiale, che riduce il tempo di sviluppo per i progetti pilota di Intelligenza Artificiale tradizionale e generativa del 50%. Le aziende guadagnano soluzioni verticali che aumentano la loro competitività sul mercato.
  • Garantire l’adozione e la responsabilità del team: I team aziendali e dei partner sono formati sulle nuove politiche e processi. Inoltre, le aziende verificano i team per l’ottemperanza alle politiche chiave.
  • Utilizzare le metriche giuste per quantificare i risultati: I leader e i team utilizzano benchmark e altre metriche per dimostrare come l’Intelligenza Artificiale responsabile contribuisce al valore aziendale per mantenere alto l’impegno degli stakeholder.
  • Monitorare i sistemi di Intelligenza Artificiale: I partner forniscono servizi di monitoraggio dei modelli, risolvendo i problemi in modo proattivo e assicurando che forniscono risultati affidabili.

Pianificare l’Intelligenza Artificiale Responsabile ora

Se la tua azienda sta accelerando l’innovazione dell’Intelligenza Artificiale, probabilmente hai bisogno di un programma di Intelligenza Artificiale responsabile. Muoviti proattivamente per ridurre i rischi, far maturare i programmi e i processi e dimostrare la responsabilità agli stakeholder.

Un partner può fornire le competenze, i framework, gli strumenti e i partenariati necessari per sbloccare il valore aziendale con l’Intelligenza Artificiale responsabile. Distribuisci modelli che siano equi e privi di pregiudizi, applica controlli e aumenta la conformità con i requisiti aziendali mentre ti prepari per le norme future.

Il dottor Ravindra Patil è il Senior Director di Data Science presso Tredence, guidando un team con 15 anni di esperienza industriale in Data e AI. La sua esperienza si concentra nella leadership di team di successo e nello sviluppo di soluzioni di Data e AI efficaci. Ravindra ha iniziato la sua carriera alla Siemens, contribuendo in seguito in modo significativo alla Philips Research e ai suoi gruppi di business. Prima di unirsi a Tredence, ha guidato un gruppo di Data e AI per il cluster di salute personale da 4 miliardi di dollari di Philips.
Nel corso del suo percorso, Ravindra ha creato numerosi algoritmi di intelligenza artificiale, piattaforme di dati e ha facilitato la loro integrazione in vari settori aziendali. Possiede una laurea in ingegneria, un master in riconoscimento di pattern presso l'IIT Madras, in India, e un dottorato in apprendimento automatico presso l'Università di Maastricht, nei Paesi Bassi. Con oltre 30 depositi di brevetti, numerose pubblicazioni di ricerca e il riconoscimento come uno dei 100 leader di intelligenza artificiale più importanti dell'India da parte della rivista AIM, i suoi risultati sono degni di nota.