Connect with us

Leader di pensiero

Chi ci proteggerà dalle disinformazioni generate dall’AI?

mm

L’AI generativa è passata da zero a cento in meno di un anno. Sebbene sia ancora agli inizi, ha dimostrato il suo potenziale per trasformare il business. Su questo possiamo tutti essere d’accordo. Dove divergiamo è su come contenere i pericoli che pone.

Per essere chiari, sono a favore dell’innovazione e sono lontano dall’essere un allarmista. Tuttavia, l’aumento recente di disinformazione – in gran parte finalizzato a polarizzare le questioni controverse del momento – ha reso chiaro che, se lasciata incontrollata, l’AI generativa potrebbe provocare il caos nelle società.

Abbiamo già visto questo film con i social media, ma ci sono voluti anni e dure lezioni per renderci conto dei suoi difetti. Abbiamo (presumibilmente) imparato qualcosa. La domanda oggi è chi aiuterà a fermare la marea di distorsione della realtà dall’AI generativa, e come?

Prevedibilmente, i governi stanno iniziando ad agire. L’Europa è alla testa della carica, come hanno dimostrato sempre più spesso nella regolamentazione della tecnologia. Gli Stati Uniti sono subito dietro, con il Presidente Biden che ha emesso un ordine esecutivo lo scorso ottobre.

Ma ci vorrà un villaggio globale che agisce insieme per “tenere onesta l’AI generativa”. E prima che il governo possa aiutare, deve capire i limiti degli approcci disponibili.

Il problema dell’identità è diventato molto peggiore

In questo nuovo mondo, la verità diventa l’ago in un pagliaio di opinioni che si spacciano per fatti. Sapere chi è il contenuto che proviene è più importante che mai.

E non è così facile come decretare che ogni account social deve essere verificato con un’identità. C’è una forte opposizione a questo, e in alcuni casi l’anonimato è necessario per proteggere legittimamente i titolari dell’account. Inoltre, molti consumatori del peggiore contenuto non si curano se è credibile, né da dove proviene.

Nonostante queste riserve, il potenziale ruolo dell’identità nel far fronte all’AI generativa è sottovalutato. Scettici, ascoltatemi.

Immaginiamo che la regolamentazione o la coscienza sociale portino le piattaforme a offrire a ogni titolare di account queste scelte:

  1. Verificare la propria identità o no, e
  2. Rivelare pubblicamente la propria identità verificata, o semplicemente essere etichettato come “ID Verificato”

Allora il pubblico dei social media può decidere meglio chi è credibile. Altrettanto importante, se non più importante, l’identità supporta la responsabilità. Le piattaforme possono decidere quali azioni intraprendere contro i “disinformati” seriali e gli abusatori ricorrenti di contenuti generati dall’AI, anche se si presentano con nomi di account diversi.

Con l’AI generativa che aumenta la posta in gioco, credo che l’identità – sapere esattamente chi ha pubblicato cosa – sia fondamentale. Alcuni si opporranno, e l’identità non è una risposta esaustiva. In realtà, nessuna soluzione soddisferà tutti gli stakeholder. Ma se la regolamentazione costringe le piattaforme a offrire la verifica dell’identità a tutti gli account, sono convinto che l’impatto sarà enorme e positivo.

L’enigma della moderazione

La moderazione del contenuto – automatizzata e umana – è l’ultima linea di difesa contro il contenuto indesiderabile. La moderazione umana è un lavoro difficile, con il rischio di danni psicologici a causa dell’esposizione al peggio che l’umanità può offrire. È anche costosa e spesso accusata di censura distorta che le piattaforme cercano di ridurre.

La moderazione automatizzata supera la capacità umana di far fronte ai torrenti di nuovo contenuto, ma non riesce a comprendere il contesto (i meme sono un esempio comune) e le sfumature culturali. Entrambe le forme di moderazione sono cruciali e necessarie, ma sono solo una parte della risposta.

La prescrizione convenzionale e spesso sentita per controllare l’AI generativa è: “È necessaria la collaborazione tra leader tecnologici, governo e società civile”. Certo, ma cosa specificamente?

I governi, per loro parte, possono spingere le piattaforme social e dei media a offrire la verifica dell’identità e a visualizzarla in modo prominente su tutti i post. I regolatori possono anche aprire la strada a metriche di credibilità che aiutino effettivamente a valutare se una fonte è credibile. La collaborazione è necessaria per sviluppare standard universali che diano indicazioni specifiche e direzioni in modo che il settore privato non debba indovinare.

Infine, dovrebbe essere illegale creare output di AI malintenzionati? La legislazione che proibisce il contenuto destinato ad attività illegali potrebbe ridurre il volume di contenuto tossico e alleviare il carico sui moderatori. Non vedo la regolamentazione e le leggi come capaci di sconfiggere la disinformazione, ma sono essenziali nel confrontare la minaccia.

Il lato positivo della strada: l’innovazione

La promessa dell’innovazione mi rende ottimista qui. Non possiamo aspettarci che i politici o i proprietari delle piattaforme proteggano completamente dall’inganno generato dall’AI. Lasciano un grande vuoto, ed è esattamente ciò che ispirerà l’invenzione di nuove tecnologie per autenticare il contenuto e rilevare le frodi.

Dato che ora conosciamo il lato negativo dei social media, siamo stati rapidi a realizzare che l’AI generativa potrebbe rivelarsi una grande rete negativa per l’umanità, con la sua capacità di polarizzare e ingannare.

Optimisticamente, vedo benefici in approcci multi-pronged in cui i metodi di controllo lavorano insieme, prima alla fonte, limitando la creazione di contenuti progettati per un uso illegale. Poi, prima della pubblicazione, verificando l’identità di coloro che rifiutano l’anonimato. Successivamente, etichettatura chiara per mostrare i rating di credibilità e l’identità del postatore o la sua mancanza. Infine, la moderazione automatizzata e umana può filtrare alcuni dei peggiori. Mi aspetto che nuove tecnologie di autenticazione saranno presto disponibili.

Sommando tutto, avremo una soluzione molto migliore, anche se mai perfetta. Nel frattempo, dovremmo costruire il nostro set di abilità per capire cosa è reale, chi dice la verità e chi sta cercando di ingannarci.

Jeff Sakasegawa è Persona’s Trust & Safety Architect. Con oltre un decennio di esperienza nello spazio Trust & Safety in aziende come Google, Facebook, Square e Sift, Jeff è un esperto in Risk Management e Compliance. È appassionato di garantire esperienze online sicure per tutti gli utenti.