mozzicone Le preoccupazioni sui potenziali rischi di ChatGPT stanno guadagnando slancio, ma una pausa sull'IA è una buona mossa? - Unite.AI
Seguici sui social

Leader del pensiero

Le preoccupazioni sui potenziali rischi di ChatGPT stanno guadagnando slancio, ma una pausa sull'IA è una buona mossa?

mm

Pubblicato il

 on

Mentre Elon Musk e altri leader tecnologici globali hanno chiesto a pausa in AI Dopo il rilascio di ChatGPT, alcuni critici ritengono che un'interruzione dello sviluppo non sia la risposta. L'evangelista dell'intelligenza artificiale Andrew Pery, della società di automazione intelligente ABBYY, crede che prendersi una pausa sia come rimettere il dentifricio nel tubetto. Qui ci spiega perché...

Le applicazioni di intelligenza artificiale sono pervasive e hanno un impatto praticamente su ogni aspetto della nostra vita. Anche se lodevole, frenare ora potrebbe non essere plausibile.

Ci sono certamente preoccupazioni palpabili che richiedono una maggiore supervisione normativa per regnare sui suoi potenziali impatti dannosi.

Proprio di recente, l'Autorità italiana per la protezione dei dati personali ha temporaneamente bloccato l'uso di ChatGPT a livello nazionale a causa di problemi di privacy relativi alle modalità di raccolta e trattamento dei dati personali utilizzati per addestrare il modello, nonché un'apparente mancanza di garanzie, esponendo i bambini a risposte "assolutamente inadeguato alla loro età e consapevolezza”.

L'Organizzazione europea dei consumatori (BEUC) sta esortando l'UE a indagare sui potenziali impatti dannosi dei modelli linguistici su larga scala date "le crescenti preoccupazioni su come ChatGPT e chatbot simili potrebbero ingannare e manipolare le persone. Questi sistemi di intelligenza artificiale necessitano di un maggiore controllo pubblico e le autorità pubbliche devono riaffermare il controllo su di essi".

Negli Stati Uniti, la Centro per l'intelligenza artificiale e la politica digitale ha presentato un reclamo alla Federal Trade Commission che ChatGPT viola la sezione 5 del Federal Trade Commission Act (FTC Act) (15 USC 45). La base del reclamo è che ChatGPT non riesce a soddisfare il guida stabilito dalla FTC per la trasparenza e la spiegabilità dei sistemi di IA. È stato fatto riferimento ai riconoscimenti di ChatGPT di diversi noti rischi compresa la compromissione dei diritti alla privacy, la generazione di contenuti dannosi e la diffusione di disinformazione.

L'utilità di modelli linguistici su larga scala come ChatGPT, nonostante la ricerca, ne sottolinea il potenziale lato oscuro. È dimostrato che produce risposte errate, poiché il modello ChatGPT sottostante si basa su algoritmi di deep learning che sfruttano grandi set di dati di addestramento da Internet. A differenza di altri chatbot, ChatGPT utilizza modelli linguistici basati su tecniche di deep learning che generano testo simile a conversazioni umane, e la piattaforma "arriva a una risposta facendo una serie di supposizioni, che è parte del motivo per cui può argomentare risposte sbagliate come se erano completamente vere.”

Inoltre, è stato dimostrato che ChatGPT accentua e amplifica i pregiudizi risultando in "risposte che discriminano il genere, la razza e i gruppi minoritari, qualcosa che l'azienda sta cercando di mitigare". ChatGPT può anche essere una miniera d'oro per gli attori malvagi per sfruttare utenti ignari, compromettendo i loro Privacy ed esponendoli a attacchi truffa.

Queste preoccupazioni hanno spinto il Parlamento europeo a pubblicare a commento il che rafforza la necessità di rafforzare ulteriormente le attuali disposizioni del progetto Legge sull'intelligenza artificiale dell'UE, (AIA) che è ancora in attesa di ratifica. Il commento sottolinea che l'attuale bozza del regolamento proposto si concentra su quelle che vengono definite applicazioni di IA ristrette, costituite da categorie specifiche di sistemi di IA ad alto rischio come assunzioni, affidabilità creditizia, occupazione, applicazione della legge e ammissibilità ai servizi sociali. Tuttavia, il progetto di regolamento AIA dell'UE non copre l'IA di uso generale, come i modelli linguistici di grandi dimensioni che forniscono capacità cognitive più avanzate e che possono "eseguire un'ampia gamma di compiti intelligenti". Vi sono richieste per estendere l'ambito di applicazione del progetto di regolamento per includere una categoria separata e ad alto rischio di sistemi di IA generici, richiedendo agli sviluppatori di effettuare rigorosi test di conformità ex ante prima di immettere tali sistemi sul mercato e di monitorarne continuamente le prestazioni per potenziali uscite dannose impreviste.

Un pezzo particolarmente utile di riparazioni richiama la consapevolezza di questa lacuna sul fatto che il regolamento AIA dell'UE è "principalmente incentrato sui modelli di IA convenzionali e non sulla nuova generazione di cui stiamo assistendo alla nascita oggi".

Raccomanda quattro strategie che le autorità di regolamentazione dovrebbero prendere in considerazione.

  1. Richiedere agli sviluppatori di tali sistemi di riferire regolarmente sull'efficacia dei loro processi di gestione del rischio per mitigare gli output dannosi.
  2. Le aziende che utilizzano modelli linguistici su larga scala dovrebbero essere obbligate a rivelare ai propri clienti che il contenuto è stato generato dall'intelligenza artificiale.
  3. Gli sviluppatori dovrebbero sottoscrivere un processo formale di rilasci graduali, come parte di un quadro di gestione del rischio, progettato per salvaguardare da esiti dannosi potenzialmente imprevisti.
  4. Affida agli sviluppatori l'onere di "mitigare il rischio alla radice" dovendo "verificare in modo proattivo il set di dati di addestramento per le false dichiarazioni".

Un fattore che perpetua i rischi associati alle tecnologie dirompenti è la spinta degli innovatori a ottenere il vantaggio della prima mossa adottando un modello di business "prima spedisci e poi aggiusta". Mentre OpenAI è in qualche modo trasparente sui potenziali rischi di ChatGPT, l'hanno rilasciato per un ampio uso commerciale con l'onere di "attenzione dell'acquirente" per gli utenti di valutare e assumersi i rischi da soli. Questo potrebbe essere un approccio insostenibile dato l'impatto pervasivo dei sistemi di intelligenza artificiale conversazionale. La regolamentazione proattiva unita a solide misure di applicazione devono essere fondamentali quando si gestisce una tecnologia così dirompente.

L'intelligenza artificiale permea già quasi ogni parte della nostra vita, il che significa che una pausa nello sviluppo dell'IA potrebbe implicare una moltitudine di ostacoli e conseguenze imprevisti. Invece di pompare improvvisamente le interruzioni, l'industria e gli attori legislativi dovrebbero collaborare in buona fede per emanare una regolamentazione attuabile che sia radicata in valori incentrati sull'uomo come la trasparenza, la responsabilità e l'equità. Facendo riferimento alla legislazione esistente come l'AIA, i leader del settore privato e pubblico possono progettare politiche approfondite e standardizzate a livello globale che impediranno usi nefasti e mitigheranno gli esiti negativi, mantenendo così l'intelligenza artificiale entro i limiti del miglioramento delle esperienze umane.

Andrew Pery è un AI Ethics Evangelist presso una società di automazione intelligente ABBYY. Pery ha più di 25 anni di esperienza alla guida di programmi di gestione dei prodotti per le principali aziende tecnologiche globali. La sua esperienza è nell'automazione dei processi documentali intelligenti e nell'intelligenza dei processi con una particolare esperienza nelle tecnologie AI, nel software applicativo, nella privacy dei dati e nell'etica dell'IA. Ha conseguito un Master of Law con lode presso la Pritzker School of Law della Northwestern University ed è Certified Data Privacy Professional.