Connect with us

Chi ci proteggerà dalle informazioni false generate dall’AI?

Leader di pensiero

Chi ci proteggerà dalle informazioni false generate dall’AI?

mm

L’AI generativa è passata da zero a cento in meno di un anno. Sebbene sia ancora ai primi passi, ha già dimostrato il suo potenziale per trasformare il business. Su questo possiamo tutti essere d’accordo. Dove divergiamo è su come contenere i pericoli che comporta.

Per essere chiari, sono a favore dell’innovazione e non sono un allarmista. Tuttavia, l’aumento recente di disinformazione – in gran parte finalizzato a polarizzare le questioni controverse del momento – ha reso chiaro che, se lasciata incontrollata, l’AI generativa potrebbe avere un impatto devastante sulle società.

Abbiamo già visto questo film con i social media, ma ci sono voluti anni e dure lezioni per renderci conto dei loro difetti. Abbiamo (presumibilmente) imparato qualcosa. La domanda oggi è chi aiuterà a fermare la marea di distorsione della realtà dall’AI generativa, e come?

Prevedibilmente, i governi stanno iniziando ad agire. L’Europa è alla guida, come hanno sempre più dimostrato nella regolamentazione della tecnologia. Gli Stati Uniti sono subito dietro, con il Presidente Biden che ha emesso un ordine esecutivo lo scorso ottobre.

Ma ci vorrà un villaggio globale che agisce insieme per “tenere onesta l’AI generativa”. E prima che i governi possano aiutare, devono capire i limiti degli approcci disponibili.

Il problema dell’identità è peggiorato

In questo nuovo mondo, la verità diventa l’ago in un pagliaio di opinioni che si spacciano per fatti. Sapere chi è il contenuto che proviene è più importante che mai.

E non è così semplice come decretare che ogni account dei social media debba essere verificato. C’è una forte opposizione a questo, e in alcuni casi l’anonimato è necessario per proteggere legittimamente i titolari degli account. Inoltre, molti consumatori del peggiore contenuto non si curano se è credibile, né da dove provenga.

Nonostante queste riserve, il potenziale ruolo dell’identità nel far fronte all’AI generativa è sottovalutato. Scettici, ascoltatemi.

Immaginiamo che la regolamentazione o la coscienza sociale portino le piattaforme a offrire a ogni titolare di account queste scelte:

  1. Verificare la propria identità o no, e
  2. Rivelare pubblicamente la propria identità verificata, o semplicemente essere etichettato come “ID Verificato”

Allora il pubblico dei social media può decidere meglio chi è credibile. Altrettanto importante, se non più, l’identità supporta la responsabilità. Le piattaforme possono decidere azioni da intraprendere contro i “disinformati” seriali e gli abusatori ripetuti di contenuti generati dall’AI, anche se si presentano con nomi di account diversi.

Con l’AI generativa che aumenta la posta in gioco, credo che l’identità – sapere esattamente chi ha pubblicato cosa – sia fondamentale. Alcuni si opporranno, e l’identità non è una risposta esaustiva. In realtà, nessuna soluzione soddisferà tutti gli stakeholder. Ma se la regolamentazione costringe le piattaforme a offrire la verifica dell’identità a tutti gli account, sono convinto che l’impatto sarà enorme.

L’enigma della moderazione

La moderazione dei contenuti – automatizzata e umana – è l’ultima linea di difesa contro i contenuti indesiderabili. La moderazione umana è un lavoro difficile, con il rischio di danni psicologici a causa dell’esposizione al peggio che l’umanità può offrire. È anche costosa e spesso accusata di censura distorta che le piattaforme cercano di ridurre.

La moderazione automatizzata supera la capacità umana di far fronte ai torrenti di nuovi contenuti, ma non riesce a comprendere il contesto (i meme sono un esempio comune) e le sfumature culturali. Entrambe le forme di moderazione sono cruciali e necessarie, ma sono solo parte della risposta.

La prescrizione convenzionale e spesso sentita per controllare l’AI generativa è: “La collaborazione tra leader tecnologici, governo e società civile è necessaria”. Certo, ma cosa specificamente?

I governi, per loro parte, possono spingere le piattaforme social e dei media a offrire la verifica dell’identità e visualizzarla in modo prominente su tutti i post. I regolatori possono anche aprire la strada a metriche di credibilità che aiutino effettivamente a valutare se una fonte è credibile. La collaborazione è necessaria per sviluppare standard universali che diano indicazioni specifiche e direzioni in modo che il settore privato non debba indovinare.

Infine, dovrebbe essere illegale creare output di AI malintenzionato? La legislazione che proibisce contenuti destinati ad attività illegali potrebbe ridurre il volume di contenuti tossici e alleggerire il carico sui moderatori. Non vedo la regolamentazione e le leggi come capaci di sconfiggere la disinformazione, ma sono essenziali nel confrontare la minaccia.

Il lato positivo della strada: l’innovazione

La promessa dell’innovazione mi rende ottimista qui. Non possiamo aspettarci che i politici o i proprietari delle piattaforme ci proteggano completamente dalle illusioni generate dall’AI. Lasciano un grande vuoto, ed è esattamente ciò che ispirerà l’invenzione di nuove tecnologie per autenticare i contenuti e rilevare le frodi.

Dato che ora conosciamo il lato negativo dei social media, ci siamo resi conto rapidamente che l’AI generativa potrebbe rivelarsi una grande rete negativa per l’umanità, con la sua capacità di polarizzare e ingannare.

Optimisticamente, vedo benefici in approcci multi-pronged in cui i metodi di controllo lavorano insieme, prima alla fonte, limitando la creazione di contenuti progettati per un uso illegale. Poi, prima della pubblicazione, verificando l’identità di coloro che rifiutano l’anonimato. Successivamente, etichettatura chiara per mostrare le valutazioni di credibilità e l’identità del poster o la sua mancanza. Infine, la moderazione automatizzata e umana può filtrare alcuni dei peggiori. Mi aspetto che nuove tecnologie di autenticazione saranno disponibili presto.

Sommando tutto, avremo una soluzione molto migliore, sebbene mai perfetta. Nel frattempo, dovremmo costruire le nostre competenze per capire cosa è reale, chi dice la verità e chi sta cercando di ingannarci.

Jeff Sakasegawa è Persona’s Trust & Safety Architect. Con oltre un decennio di esperienza nello spazio Trust & Safety in aziende come Google, Facebook, Square e Sift, Jeff è un esperto in Risk Management e Compliance. È appassionato di garantire esperienze online sicure per tutti gli utenti.