Seguici sui social

L'uso etico dell'intelligenza artificiale non è solo la cosa giusta da fare, ma è anche un buon affare

Leader del pensiero

L'uso etico dell'intelligenza artificiale non è solo la cosa giusta da fare, ma è anche un buon affare

mm

Con l'adozione dell'IA in forte crescita e l'adozione di strumenti e applicazioni basati sull'IA da parte di organizzazioni di tutti i settori, non dovrebbe sorprendere che i criminali informatici stiano già trovando il modo di prendere di mira e sfruttare tali strumenti a proprio vantaggio. Tuttavia, sebbene sia importante proteggere l'IA da potenziali attacchi informatici, il problema del rischio legato all'IA si estende ben oltre la sicurezza. In tutto il mondo, i governi stanno iniziando a regolamentare le modalità di sviluppo e utilizzo dell'IA e le aziende possono subire danni significativi alla reputazione se vengono scoperte a utilizzarla in modo inappropriato. Le aziende di oggi stanno scoprendo che utilizzare l'IA in modo etico e responsabile non è solo la cosa giusta da fare: è fondamentale per costruire fiducia, mantenere la conformità e persino migliorare la qualità dei propri prodotti.

La realtà normativa che circonda l'intelligenza artificiale

Il panorama normativo in rapida evoluzione dovrebbe rappresentare una seria preoccupazione per i fornitori che offrono soluzioni basate sull'intelligenza artificiale. Ad esempio, Legge dell'UE sull'IA, approvata nel 2024, adotta un approccio basato sul rischio alla regolamentazione dell'IA e considera "inaccettabili" i sistemi che adottano pratiche come il social scoring, comportamenti manipolativi e altre attività potenzialmente non etiche. Tali sistemi sono espressamente vietati, mentre altri sistemi di IA "ad alto rischio" sono soggetti a obblighi più rigorosi in materia di valutazione del rischio, qualità dei dati e trasparenza. Le sanzioni per la non conformità sono severe: le aziende che utilizzano l'IA in modi inaccettabili possono essere multate fino a 35 milioni di euro o al 7% del loro fatturato annuo.

L'EU AI Act è solo un esempio legislativo, ma illustra chiaramente l'alto costo del mancato rispetto di determinate soglie etiche. Stati come California, New York, Colorado e altri hanno tutti promulgato leggi simili. le proprie linee guida sull'intelligenza artificiale, la maggior parte delle quali si concentra su fattori come la trasparenza, la riservatezza dei dati e la prevenzione dei pregiudizi. E sebbene le Nazioni Unite non dispongano dei meccanismi di applicazione di cui godono i governi, vale la pena notare che tutti i 193 membri delle Nazioni Unite affermato all'unanimità che "i diritti umani e le libertà fondamentali devono essere rispettati, protetti e promossi durante tutto il ciclo di vita dei sistemi di intelligenza artificiale" in una risoluzione del 2024. In tutto il mondo, i diritti umani e le considerazioni etiche sono sempre più al primo posto quando si parla di intelligenza artificiale.

L'impatto reputazionale di una scarsa etica dell'intelligenza artificiale

Sebbene le preoccupazioni relative alla conformità siano molto concrete, la questione non finisce qui. Il fatto è che dare priorità a un comportamento etico può migliorare radicalmente la qualità delle soluzioni di intelligenza artificiale. Se un sistema di intelligenza artificiale presenta pregiudizi intrinseci, ciò è negativo per motivi etici, ma significa anche che il prodotto non funziona come dovrebbe. Ad esempio, alcune tecnologie di riconoscimento facciale sono state criticate per non riuscire a identificare volti di pelle scura, così come di pelle chiara. Se una soluzione di riconoscimento facciale non riesce a identificare una porzione significativa di soggetti, ciò rappresenta un serio problema etico, ma significa anche che la tecnologia stessa non fornisce i benefici attesi e che i clienti non saranno soddisfatti. Affrontare i pregiudizi attenua le preoccupazioni etiche e migliora la qualità del prodotto stesso.

Le preoccupazioni relative a pregiudizi, discriminazione e correttezza possono mettere i fornitori nei guai con gli enti regolatori, ma erodono anche la fiducia dei clienti. È una buona idea stabilire delle "linee rosse" quando si tratta di come viene utilizzata l'IA e con quali fornitori collaborare. I fornitori di IA associati a disinformazione, sorveglianza di massa, social scoring, governi oppressivi o anche solo a una generale mancanza di responsabilità possono mettere a disagio i clienti, e i fornitori che offrono soluzioni basate sull'IA dovrebbero tenerlo presente quando decidono con chi collaborare. La trasparenza è quasi sempre una scelta migliore: chi si rifiuta di rivelare come viene utilizzata l'IA o chi sono i propri partner sembra nascondere qualcosa, il che di solito non favorisce un sentimento positivo sul mercato.

Identificare e mitigare i segnali d'allarme etici

I clienti stanno imparando sempre di più a cercare segnali di comportamenti non etici dell'IA. I fornitori che promettono troppo ma non spiegano bene le loro capacità di IA probabilmente non sono del tutto sinceri su ciò che le loro soluzioni possono effettivamente fare. Anche pratiche di gestione dei dati scadenti, come un eccessivo scraping dei dati o l'impossibilità di rinunciare all'addestramento dei modelli di IA, possono essere un campanello d'allarme. Oggi, i fornitori che utilizzano l'IA nei loro prodotti e servizi dovrebbero disporre di un quadro di governance chiaro e pubblicamente disponibile, con meccanismi di responsabilità. Quelli che impongono l'arbitrato forzato, o peggio, non offrono alcun ricorso, probabilmente non saranno buoni partner. Lo stesso vale per i fornitori che non sono disposti o non sono in grado di fornire le metriche con cui valutano e affrontano i bias nei loro modelli di IA. I clienti di oggi non si fidano delle soluzioni "black box": vogliono sapere quando e come l'IA viene implementata nelle soluzioni su cui fanno affidamento.

Per i fornitori che utilizzano l'IA nei loro prodotti, è importante comunicare ai clienti che le considerazioni etiche sono prioritarie. Chi addestra i propri modelli di IA necessita di solidi processi di prevenzione dei pregiudizi e chi si affida a fornitori di IA esterni deve dare priorità a partner con una reputazione di comportamento corretto. È anche importante offrire ai clienti una scelta: molti sono ancora a disagio nell'affidare i propri dati a soluzioni di IA e offrire un "opt-out" per le funzionalità di IA consente loro di sperimentare al proprio ritmo. È inoltre fondamentale essere trasparenti sulla provenienza dei dati di addestramento. Anche in questo caso, si tratta di un aspetto etico, ma anche di un buon affare: se un cliente scopre che la soluzione su cui fa affidamento è stata addestrata su dati protetti da copyright, si espone ad azioni legali o normative. Rendendo tutto pubblico, i fornitori possono creare fiducia nei propri clienti e aiutarli a evitare esiti negativi.

Dare priorità all'etica è la decisione aziendale intelligente

La fiducia è sempre stata un elemento fondamentale di ogni rapporto commerciale. L'intelligenza artificiale non ha cambiato questo aspetto, ma ha introdotto nuove considerazioni che i fornitori devono affrontare. Le preoccupazioni etiche non sono sempre al primo posto per i leader aziendali, ma quando si parla di intelligenza artificiale, un comportamento scorretto può avere gravi conseguenze, tra cui danni alla reputazione e potenziali violazioni normative e di conformità. Peggio ancora, la scarsa attenzione a considerazioni etiche come la mitigazione dei pregiudizi può compromettere attivamente la qualità dei prodotti e dei servizi di un fornitore. Con l'accelerazione dell'adozione dell'intelligenza artificiale, i fornitori stanno riconoscendo sempre più che dare priorità a un comportamento etico non è solo la cosa giusta da fare, ma è anche un buon affare.

Nick Kathmann è CISO presso LogicGateCon oltre 20 anni di esperienza nel settore IT, Nick ha dedicato 18 anni ad aiutare aziende di ogni dimensione a rafforzare la propria strategia di sicurezza informatica. Ha creato e guidato diversi team che hanno fornito soluzioni di sicurezza informatica per ambienti complessi e critici per il business, dalle PMI alle aziende Fortune 100, con soluzioni on-premise in data center tradizionali o nel cloud. Vanta inoltre esperienza in diversi settori, tra cui sanità e servizi finanziari.