Connect with us

Leader di pensiero

Aprire la scatola nera sull’esplicabilità dell’AI

mm

L’Intelligenza Artificiale (AI) è diventata intrecciata in quasi tutti gli aspetti della nostra vita quotidiana, dalle raccomandazioni personalizzate alle decisioni critiche. È dato per scontato che l’AI continuerà ad avanzare, e con ciò, le minacce associate all’AI diventeranno anche più sofisticate. Mentre le aziende attivano difese abilitate all’AI in risposta alla crescente complessità, il prossimo passo verso la promozione di una cultura aziendale di sicurezza è il miglioramento dell’esplicabilità dell’AI.

Mentre questi sistemi offrono capacità impressionanti, spesso funzionano come “scatole nere“—produrre risultati senza una chiara comprensione di come il modello sia arrivato alla conclusione che ha raggiunto. Il problema dei sistemi AI che fanno affermazioni false o prendono azioni false può causare problemi significativi e potenziali interruzioni aziendali. Quando le aziende commettono errori a causa dell’AI, i loro clienti e consumatori chiedono una spiegazione e subito dopo, una soluzione.

Ma cosa è da biasimare? Spesso, i dati cattivi vengono utilizzati per l’addestramento. Ad esempio, la maggior parte delle tecnologie GenAI pubbliche sono addestrate su dati disponibili su Internet, che sono spesso non verificati e inaccurati. Mentre l’AI può generare risposte rapide, l’accuratezza di quelle risposte dipende dalla qualità dei dati su cui è stata addestrata.

Gli errori dell’AI possono verificarsi in vari casi, tra cui la generazione di script con comandi errati e false decisioni di sicurezza, o l’esclusione di un dipendente dal lavoro sui sistemi aziendali a causa di false accuse fatte dal sistema AI. Tutti questi hanno il potenziale di causare interruzioni aziendali significative. Questo è solo uno dei molti motivi per cui garantire la trasparenza è fondamentale per costruire la fiducia nei sistemi AI.

Costruire la fiducia

Esistiamo in una cultura in cui instilliamo fiducia in tutti i tipi di fonti e informazioni. Ma, allo stesso tempo, chiediamo prove e convalida sempre più, avendo bisogno di convalidare costantemente notizie, informazioni e affermazioni. Quando si tratta di AI, stiamo riponendo fiducia in un sistema che ha il potenziale di essere inaccurato. Ancor più importante, è impossibile sapere se le azioni dei sistemi AI siano accurate senza alcuna trasparenza sulle basi in cui vengono prese le decisioni. E se il tuo sistema AI di sicurezza blocca le macchine, ma ha fatto un errore nell’interpretare i segnali? Senza alcuna comprensione delle informazioni che hanno portato il sistema a prendere quella decisione, non c’è modo di sapere se ha preso la decisione giusta.

Mentre l’interruzione aziendale è frustrante, una delle preoccupazioni più significative sull’uso dell’AI è la privacy dei dati. I sistemi AI, come ChatGPT, sono modelli di apprendimento automatico che attingono risposte dai dati che ricevono. Pertanto, se gli utenti o gli sviluppatori forniscono accidentalmente informazioni sensibili, il modello di apprendimento automatico potrebbe utilizzare quei dati per generare risposte ad altri utenti che rivelano informazioni confidenziali. Questi errori hanno il potenziale di interrompere gravemente l’efficienza, la redditività e, soprattutto, la fiducia del cliente di un’azienda. I sistemi AI sono progettati per aumentare l’efficienza e semplificare i processi, ma nel caso in cui la convalida costante sia necessaria perché i risultati non possono essere considerati attendibili, le organizzazioni non solo perdono tempo, ma aprono anche la porta a potenziali vulnerabilità.

Formazione dei team per un uso responsabile dell’AI

Al fine di proteggere le organizzazioni dai potenziali rischi dell’uso dell’AI, i professionisti IT hanno la responsabilità importante di formare adeguatamente i loro colleghi per garantire che l’AI venga utilizzata in modo responsabile. Facendo ciò, aiutano a mantenere le loro organizzazioni al sicuro da attacchi informatici che minacciano la loro vitalità e redditività.

Tuttavia, prima di formare i team, i leader IT devono allinearsi internamente per determinare quali sistemi AI saranno adatti alla loro organizzazione. Affrettarsi nell’adozione dell’AI porterà solo a problemi in seguito, quindi inizia con piccoli passi, concentrandoti sulle esigenze dell’organizzazione. Assicurati che gli standard e i sistemi selezionati siano allineati con l’attuale tecnologia e gli obiettivi aziendali, e che i sistemi AI soddisfino gli stessi standard di sicurezza di qualsiasi altro fornitore selezionato.

Una volta selezionato un sistema, i professionisti IT possono iniziare a far acquisire ai loro team esperienza con questi sistemi per garantire il successo. Inizia utilizzando l’AI per compiti piccoli e vedere dove funziona bene e dove no, e impara quali sono i potenziali pericoli o convalide che devono essere applicate. Quindi, introduce l’uso dell’AI per aumentare il lavoro, abilitando una risoluzione rapida e autonoma, comprese le semplici domande “come fare”. Da lì, può essere insegnato come mettere in atto convalide. Ciò è prezioso, poiché inizieremo a vedere sempre più lavori diventare incentrati sulla definizione di condizioni di confine e convalide, e già visto in lavori come l’uso dell’AI per assistere nella scrittura di software.

In aggiunta a questi passi concreti per la formazione dei team, l’avvio e l’incoraggiamento di discussioni sono anche fondamentali. Incoraggia un dialogo aperto, basato sui dati, su come l’AI stia servendo le esigenze degli utenti – sta risolvendo i problemi in modo accurato e più veloce, stiamo aumentando la produttività per l’azienda e l’utente finale, il nostro punteggio NPS del cliente sta aumentando a causa di questi strumenti guidati dall’AI? Sii chiaro sul ritorno sugli investimenti (ROI) e tienilo sempre presente. Una comunicazione chiara permetterà di aumentare la consapevolezza dell’uso responsabile e, man mano che i membri del team acquisiscono una migliore comprensione di come funzionano i sistemi AI, sono più probabilità che li utilizzino in modo responsabile.

Come raggiungere la trasparenza nell’AI

Sebbene la formazione dei team e l’aumento della consapevolezza siano importanti, per raggiungere la trasparenza nell’AI è vitale che ci sia più contesto intorno ai dati utilizzati per addestrare i modelli, garantendo che solo dati di qualità vengano utilizzati. Sperabilmente, ci sarà eventualmente un modo per vedere come il sistema ragiona in modo che possiamo fidarci completamente di esso. Ma fino ad allora, abbiamo bisogno di sistemi che possano funzionare con convalide e limiti e dimostrare che aderiscono a essi.

Mentre la piena trasparenza richiederà inevitabilmente del tempo per essere raggiunta, la rapida crescita dell’AI e del suo utilizzo la rende necessario lavorare rapidamente. Mentre i modelli AI continuano a aumentare di complessità, hanno il potere di fare una grande differenza per l’umanità, ma le conseguenze dei loro errori crescono anche. Di conseguenza, capire come questi sistemi arrivino alle loro decisioni è estremamente prezioso e necessario per rimanere efficaci e degni di fiducia. Concentrandoci sui sistemi AI trasparenti, possiamo garantire che la tecnologia sia utile quanto è destinata a essere, rimanendo imparziale, etica, efficiente e precisa.

Manny Rivelo è il CEO di ConnectWise, dove è impegnato nella missione dell'azienda di potenziare i fornitori di servizi gestiti (MSP) con software, servizi e community senza pari per raggiungere la loro visione di successo più ambiziosa. Come ex CEO di Forcepoint, Rivelo ha guidato la trasformazione dell'azienda in un importante player nello spazio della sicurezza informatica, guidando la crescita e l'innovazione di fronte alle minacce informatiche in evoluzione. Nel corso della sua carriera, Manny Rivelo ha guadagnato la reputazione di leader orientato ai risultati che si concentra sulla creazione di modelli di business sostenibili e sul drivers di valore a lungo termine in un panorama tecnologico in rapida evoluzione.