Leader del pensiero
AI-First significa sicurezza prima di tutto

Comprate a un bambino una bicicletta nuova di zecca e sarà la bicicletta a catturare tutta l'attenzione, non il casco scintillante che la accompagna. Ma i genitori apprezzano il casco.
Temo che molti di noi oggi siano più simili a bambini quando si parla di intelligenza artificiale. Ci concentriamo su quanto sia fantastica e su quanto velocemente possiamo usarla. Non tanto su cosa possiamo fare per stare al sicuro, quanto su come la usiamo. È un peccato perché non si possono avere i vantaggi dell'uno senza l'altro.
In parole povere, applicare l'intelligenza artificiale senza un'attenta pianificazione della sicurezza non è solo rischioso. È un percorso diretto verso un baratro.
Cosa significa sicurezza dell'intelligenza artificiale?
La sicurezza dell'intelligenza artificiale comporta una serie di passaggi. Ma forse l'elemento più importante è quando per prenderli. Per essere efficace, la sicurezza dell'IA deve essere di progettazione.
Ciò significa che dobbiamo valutare come prevenire i danni prima di metterla alla prova. Cerchiamo innanzitutto di capire come garantire che l'IA funzioni e generi risultati in linea con i nostri valori e le nostre aspettative sociali, non dopo aver ottenuto risultati orribili.
Progettare l'intelligenza artificiale per la sicurezza significa anche pensare a come renderla robusta, ovvero in grado di funzionare in modo prevedibile anche in situazioni avverse. Significa rendere l'intelligenza artificiale trasparente, in modo che le decisioni che prende siano comprensibili, verificabili e imparziali.
Ma include anche uno sguardo al mondo in cui l'IA opererà . Di quali garanzie istituzionali e legali abbiamo bisogno, soprattutto per rispettare le normative governative applicabili? E non posso sopravvalutare la componente umana: quale sarà l'impatto dell'uso dell'IA sulle persone che interagiscono con essa?
La sicurezza fin dalla progettazione significa integrare la sicurezza dell'intelligenza artificiale in tutti i nostri processi, flussi di lavoro e operazioni prima ancora di digitare il nostro primo prompt.
I rischi superano le preoccupazioni
Non tutti sono d'accordo. Quando sentono "la sicurezza prima di tutto", alcuni sentono "procedere con cautela e lentezza, tanto da rimanere indietro". Naturalmente, la sicurezza prima di tutto non significa questo. Non deve soffocare l'innovazione o rallentare il time-to-market. E non significa un flusso infinito di progetti pilota che non crescono mai. Tutt'altro.
Significa comprendere i rischi di non è un Progettare la sicurezza nell'intelligenza artificiale. Consideriamone solo alcuni.
- Centro per i servizi finanziari di Deloitte prevede che GenAI potrebbe essere responsabile di perdite per frode pari a 40 miliardi di dollari solo negli Stati Uniti entro il 2027, rispetto ai 12.3 miliardi di dollari del 2023, con un CAGR del 32%.
- Decisioni parziali. Documento dei casi assistenza medica di parte a causa dell'intelligenza artificiale addestrata su dati distorti.
- Cattive decisioni che ispirano altre cattive decisioni. Peggio di una cattiva decisione iniziale provocata da un'intelligenza artificiale difettosa, gli studi indicano che queste decisioni sbagliate possano diventare parte del nostro modo di pensare e di prendere decisioni future.
- Conseguenze reali. L'intelligenza artificiale che fornisce consigli medici errati è stata responsabile di esiti fatali per i pazienti. Citare le allucinazioni di un'intelligenza artificiale come precedente legale ha causato problemi legali. E gli errori software derivanti da informazioni errate fornite da un assistente AI hanno contaminato i prodotti aziendali e la loro reputazione, causando una diffusa insoddisfazione tra gli utenti.
E le cose stanno per diventare ancora più interessanti.
L'avvento e rapida adozione dell'intelligenza artificiale agentica, un'intelligenza artificiale in grado di funzionare in modo autonomo per agire in base alle decisioni prese, accrescerà l'importanza di progettare un'intelligenza artificiale sicura.
Un agente AI che può agire per tuo conto potrebbe essere estremamente utile. Invece di consigliarti i voli migliori per un viaggio, potrebbe trovarli e prenotarli per te. Se desideri restituire un prodotto, l'agente AI di un'azienda potrebbe non solo illustrarti la politica di reso e come presentare un reso, ma anche gestire l'intera transazione per te.
Ottimo, a patto che l'agente non si illuda di un volo o non gestisca male i tuoi dati finanziari. O che non sbagli la politica di reso dell'azienda e rifiuti resi validi.
Non è troppo difficile immaginare come gli attuali rischi per la sicurezza dell'IA potrebbero facilmente avere un impatto a cascata con una schiera di agenti di IA che prendono decisioni e agiscono, soprattutto perché probabilmente non agiranno da soli. Gran parte del valore reale dell'IA agentica deriverà da team di agenti, in cui i singoli agenti gestiscono parti di attività e collaborano – agente con agente – per portare a termine il lavoro.
Come si può quindi adottare la sicurezza dell'intelligenza artificiale fin dalla progettazione, senza ostacolare l'innovazione e ucciderne il potenziale valore?
Sicurezza in azione grazie alla progettazione
I controlli di sicurezza ad hoc non sono la soluzione. L'integrazione delle pratiche di sicurezza in ogni fase dell'implementazione dell'IA, invece, sì.
Inizia con i dati. Assicurati che i dati siano etichettati, annotati dove necessario, privi di distorsioni e di alta qualità . Questo vale soprattutto per i dati di training.
Addestra i tuoi modelli con il feedback umano, poiché il giudizio umano è essenziale per modellare il comportamento del modello. Il Reinforcement Learning with Human Feedback (RLHF) e altre tecniche simili consentono agli annotatori di valutare e guidare le risposte, aiutando gli LLM a generare output sicuri e in linea con i valori umani.
Quindi, prima di rilasciare un modello, sottoponilo a stress test. I red team che cercano di provocare comportamenti non sicuri utilizzando prompt avversari, casi limite e tentativi di jailbreak possono esporre vulnerabilità . Risolverle prima che raggiungano il pubblico mantiene la sicurezza prima che si verifichi un problema.
Sebbene questi test garantiscano la robustezza dei modelli di intelligenza artificiale, è opportuno continuare a monitorarli tenendo d'occhio le minacce emergenti e gli aggiustamenti che potrebbero essere necessari ai modelli.
Allo stesso modo, monitorate regolarmente le fonti dei contenuti e le interazioni digitali per individuare eventuali segnali di frode. È fondamentale adottare un approccio ibrido tra intelligenza artificiale e intelligenza umana, lasciando che l'automazione basata sull'intelligenza artificiale si occupi dell'enorme volume di dati da monitorare e che esseri umani qualificati gestiscano le revisioni per garantire l'applicazione delle normative e l'accuratezza.
L'applicazione dell'IA agentica richiede ancora più attenzione. Un requisito fondamentale: addestrare l'agente a conoscere i propri limiti. Quando si trova ad affrontare incertezze, dilemmi etici, situazioni nuove o decisioni particolarmente rischiose, è importante assicurarsi che sappia come chiedere aiuto.
Inoltre, progettate la tracciabilità dei vostri agenti. Questo è particolarmente importante affinché le interazioni avvengano solo con utenti verificati, per evitare che soggetti fraudolenti possano influenzare le azioni di un agente.
Se sembrano funzionare in modo efficace, potrebbe essere allettante lasciare che gli agenti facciano il loro lavoro. La nostra esperienza ci insegna a monitorare costantemente i loro dipendenti e le attività che svolgono per individuare errori o comportamenti imprevisti. Utilizzate sia controlli automatici che revisioni umane.
In effetti, un elemento essenziale per la sicurezza dell'IA è il coinvolgimento umano regolare. Gli esseri umani dovrebbero essere coinvolti intenzionalmente quando giudizio critico, empatia, sfumature e ambiguità sono implicati in una decisione o azione.
Ancora una volta, per essere chiari, queste sono tutte pratiche che si integrano in anticipo nell'implementazione dell'IA, dal designNon sono il risultato di qualcosa che va storto e della fretta di capire come minimizzare i danni.
Funziona?
Abbiamo applicato la filosofia "AI Safety First" e il framework "by design" ai nostri clienti durante l'avvento dell'IA di nuova generazione e ora stiamo accelerando il passaggio all'IA agentica. Stiamo scoprendo che, contrariamente alle preoccupazioni di rallentamento, in realtà contribuisce ad accelerare i processi.
L'intelligenza artificiale agentica ha il potenziale per ridurre i costi dell'assistenza clienti del 25-50%, ad esempio, aumentando al contempo la soddisfazione del cliente. Ma tutto dipende dalla fiducia.
Gli esseri umani che utilizzano l'intelligenza artificiale devono fidarsi di essa, e i clienti che interagiscono con agenti umani dotati di intelligenza artificiale o con agenti di intelligenza artificiale veri e propri non possono sperimentare una singola interazione che ne minerebbe la fiducia. Una sola brutta esperienza può minare la fiducia in un brand.
Non ci fidiamo di ciò che non è sicuro. Quindi, quando integriamo la sicurezza in ogni livello dell'IA che stiamo per implementare, possiamo farlo con fiducia. E quando saremo pronti a espanderla su larga scala, saremo in grado di farlo rapidamente, con fiducia.
Anche se mettere in pratica il principio "AI Safety First" può sembrare complicato, non sei solo. Ci sono molti esperti che possono aiutarti e partner che possono condividere ciò che hanno imparato e stanno imparando, così puoi sfruttare il valore dell'IA in modo sicuro, senza rallentamenti.
Finora l'intelligenza artificiale è stata un'esperienza entusiasmante, e man mano che il viaggio accelera, la trovo esaltante. Ma sono anche contento di indossare il casco.












