Leader di pensiero
Intelligenza Artificiale e l’Arco della Fiducia

All’inizio dello scorso anno, quando il nostro team stava facendo previsioni su cosa ci aspettava, il consenso era che i veli sarebbero stati tolti dall’intelligenza artificiale (AI). Avremmo finalmente visto cosa poteva fare e, speriamo, ottenuto chiarezza sul suo impatto sugli affari e sulla società e su come procedere. Non era una previsione nuova, ma il suo nucleo era accurato, anche se ancora lottiamo con le implicazioni dell’AI e come (o se) dovrebbe essere controllata in qualche modo.
Saremmo finiti per vedere Apple, Microsoft e Google costruire l’AI nei dispositivi e portare il suo potere a un pubblico più ampio e più grande. Poi di nuovo, un chatbot in uno strumento di ricerca alimentato da AI ha minacciato gli utenti e ha affermato di aver spiato i dipendenti, mentre un altro ha suggerito di utilizzare la colla Elmer’s in una pizza fatta in casa per evitare che il formaggio scivoli via. Tuttavia, l’adozione aziendale dell’AI è cresciuta drasticamente e così anche il mercato. Secondo i dati di Crunchbase, quasi un terzo di tutti i finanziamenti aziendali globali dell’anno scorso sono andati a società in campi correlati all’AI.
Ma anche se OpenAI ha consegnato un ragionamento avanzato veramente notevole, il noto ricercatore di AI, Yoshua Bengio, ha sollecitato l’adozione di misure di sicurezza per i ” modelli di frontiera” con il potenziale di causare danni catastrofici. E anche se la tecnologia avrebbe vinto due Premi Nobel per le applicazioni nella scienza, uno dei suoi vincitori ha espresso preoccupazione per il fatto di avere sistemi “più intelligenti di noi che alla fine prendono il controllo”.
In uno spazio in rapida evoluzione, è difficile per gli esperti tecnologi tenere il passo, per non parlare di quelli nel mainstream.
E quei problemi dell’AI – e le preoccupazioni sulla privacy e sull’uso non controllato – hanno solo aumentato la diffidenza del pubblico.
Soltanto fidati di me
Ci troviamo a metà strada su un arco di fiducia, uno che richiede l’avanzamento dell’accettazione pubblica dell’AI, mentre si assicura che le comunità aziendali e tecnologiche agiscano in modo responsabile. La prima parte è dove il gioco è in corso proprio adesso, a livello aziendale, guadagnando slancio con ogni deploy sicuro e solido. Stiamo costruendo sui nostri punti di prova, che alla fine porteranno a un aumento della fiducia del pubblico. La seconda parte, tuttavia, è molto più difficile.
Chi definisce e applica l’uso responsabile dell’AI? Un’industria può creare linee guida quando sono loro che hanno bisogno di regolamentazione? Se i tecnologi stanno avendo difficoltà a seguire l’AI, i responsabili politici saranno informati e terranno fuori le loro agende politiche dalla discussione? E quando un miliardario dell’AI improvvisamente vuole parlare di controllo, ha avuto un’epifania o sta solo cercando di frenare per recuperare?
“Soltanto fidati di me” non funzionerà con l’AI, indipendentemente da chi tu sia.
Fidati ma verifica
Le persone guardano l’AI generativa come ChatGPT e si chiedono se sarà il loro prossimo Google? Ebbene, il risultato principale di una ricerca Google è ora creato dal suo modello AI, Gemini. Il problema è che non puoi affidarti a esso per le attività aziendali su larga scala quando una semplice domanda come “La carne cruda è sicura da consumare?” restituisce la risposta “Sì, congelata”. Devi ispezionare i dati.
L’arco della fiducia del pubblico rispecchierà ciò che ha fatto con la ricerca convenzionale, guadagnato nel tempo e con la prova di affidabilità. Ironia della sorte, nella nostra ricerca di semplificare e migliorare la ricerca, abbiamo fatto un passo indietro. Ora, dopo aver ottenuto quella risposta generata dall’AI in cima, devi scorrere oltre una lunga lista di link di sponsorizzazione, cliccare sui prossimi cinque e ancora qualificare le informazioni.
È un sacco di lavoro quando cerchi una risposta rapida – e non puoi avere un’intera azienda che fa la stessa cosa. Tuttavia, arricchisci quei dati che hai stato minando con decine di migliaia dei tuoi biglietti di servizio e porti dentro conoscenza reale sul tuo ambiente. Algoritmicamente, puoi quindi configurare le allucinazioni verso il basso, ma rimane una situazione “fidati ma verifica”.
Tieni la politica fuori da questo
Quando si tratta di regolamentare l’AI, alcuni sostengono che il cavallo è già uscito dalla stalla e probabilmente non verrà catturato. Ad esempio, c’è una mancanza di strumenti veramente efficaci per verificare se uno studente ha scritto un elaborato o ha utilizzato GenAI. La tecnologia è semplicemente troppo avanzata.
Regolamentare questo sarebbe molto complesso e, per essere onesti, staremmo andando su ghiaccio sottile. Sappiamo che le società tecnologiche sono decenni avanti rispetto ai regolatori esterni proposti. Ma siamo bravi a creare un percorso, non a essere trattenuti. Tuttavia, alla fine della giornata, potrebbe ricadere sugli innovatori cercare di applicare la governance. Chi altro potrebbe farlo – in modo responsabile?
Ci sono molti politici che amerebbero provarci. Il rischio, oltre alla mancanza di comprensione, è che abbiano un’agenda personale e politica da avanzare. La loro attenzione, potenzialmente, sarebbe meno sul coltivare l’AI e più sul fare ciò che è nel loro miglior interesse politico. Potrebbero lavorare su quelle paure pubbliche, utilizzando una mano pesante per ostacolare il suo progresso.
Il CHIPS and Science Act è stato un buon esempio di azione governativa salutare, producendo un aumento drammatico di 15 volte nella costruzione di strutture di produzione per dispositivi di calcolo ed elettronici. Ma questo è stato reso possibile attraverso il bipartitismo – sempre più un relitto di un’era passata.
Siamo degni?
C’è un sacco di denaro che fluisce nell’AI e nel corso dei prossimi due decenni molto sarà fatto dalle società tecnologiche. Quanto, quanto velocemente e quanto in sicurezza rimane da vedere. In qualsiasi giorno dato, una deep fake potrebbe essere diffusa, mostrando qualcuno sotto i riflettori che gioca con le uova di un uccello in pericolo di estinzione. Il pubblico reagirebbe con orrore e, anche se potrebbe essere rivelato che è stato generato dall’AI, quell’uovo non torna dentro il guscio – il danno è fatto.
Abbiamo bisogno che tali cose siano regolamentate da tecnologi informati. Quale forma prenderà – un consiglio, un organismo di standard, un quadro internazionale – rimane da vedere. Ciò che è noto è che l’AI è su un arco di fiducia e, come industria, dobbiamo dimostrare di essere degni di essa.












