Connect with us

Leader di pensiero

Intelligenza Artificiale e la Lotta Contro la Technofobia

mm

Quando si parla di Intelligenza Artificiale Generativa e di Modelli Linguistici di Grande Scala, come ChatGPT, l’entusiasmo per l’IA è misto a technofobia. Ciò è naturale per il pubblico generale: gli piacciono le nuove cose emozionanti, ma hanno paura dell’ignoto. La novità è che diversi scienziati prominenti sono diventati essi stessi scettici verso la tecnologia, se non technofobici. Il caso degli scienziati e degli industriali che chiedono una moratoria di sei mesi sulla ricerca sull’IA, o lo scetticismo del principale scienziato dell’IA, il prof. A. Hinton, sono esempi di ciò. L’unico equivalente storico che posso ricordare è la critica alle bombe atomiche e nucleari da parte di una parte della comunità scientifica durante la guerra fredda. Fortunatamente, l’umanità è riuscita ad affrontare queste preoccupazioni in modo abbastanza soddisfacente.

Naturalmente, ognuno ha il diritto di mettere in discussione lo stato attuale degli affari dell’IA:

  • Nessuno sa perché i Modelli Linguistici di Grande Scala funzionano così bene e se hanno un limite.
  • Molti pericoli che i cattivi creano ‘bombe IA’ si nascondono, in particolare se gli stati rimangono passivi spettatori, in termini di regolamentazioni.

Queste sono preoccupazioni legittime che alimentano la paura dell’ignoto, anche per scienziati prominenti. Dopo tutto, sono essi stessi esseri umani.

Tuttavia, può la ricerca sull’IA fermarsi anche temporaneamente? A mio parere, no, poiché l’IA è la risposta dell’umanità a una società globale e a un mondo fisico di complessità sempre crescente. Poiché i processi di aumento della complessità fisica e sociale sono molto profondi e sembrano irreversibili, l’IA e la morphosis dei cittadini sono la nostra unica speranza per avere una transizione senza problemi dalla società dell’informazione a una società della conoscenza. Altrimenti, potremmo affrontare un’implosione sociale catastrofica.

La soluzione è approfondire la nostra comprensione dei progressi dell’IA, accelerare il suo sviluppo, regolare il suo uso per massimizzare il suo impatto positivo, mentre si minimizzano gli effetti negativi già evidenti e altri nascosti. La ricerca sull’IA può e dovrebbe diventare diversa: più aperta, democratica, scientifica ed etica. Ecco una lista proposta di punti a questo scopo:

  • La prima parola su questioni importanti di ricerca sull’IA che hanno un impatto sociale di vasta portata dovrebbe essere delegata ai Parlamenti e ai Governi eletti, piuttosto che alle corporation o a scienziati individuali.
  • Si dovrebbe fare ogni sforzo per facilitare l’esplorazione degli aspetti positivi dell’IA nel progresso sociale e finanziario e per minimizzare i suoi aspetti negativi.
  • L’impatto positivo dei sistemi IA può superare notevolmente i suoi aspetti negativi, se si prendono misure regolamentari adeguate. La technofobia non è giustificata, né è una soluzione.
  • A mio parere, la minaccia più grande attuale proviene dal fatto che tali sistemi IA possono ingannare a distanza molti comuni cittadini che hanno poca (o media) istruzione e/o poca capacità di indagine. Ciò può essere estremamente pericoloso per la democrazia e qualsiasi forma di progresso socio-economico.
  • Nel prossimo futuro, dovremmo contrastare la grande minaccia proveniente dall’uso di LLM e/o CAN in attività illecite (l’imbroglio negli esami universitari è un uso abbastanza benigno nello spazio delle possibilità criminali correlate).
  • Il loro impatto sul lavoro e sui mercati sarà molto positivo, nel medio-lungo termine.
  • Alla luce di ciò, i sistemi IA dovrebbero: a) essere richiesti dalla legge internazionale di essere registrati in un ‘registro dei sistemi IA’, e b) notificare ai loro utenti che conversano o utilizzano i risultati di un sistema IA.
  • Poiché i sistemi IA hanno un impatto sociale enorme, e al fine di massimizzare il beneficio e il progresso socio-economico, le tecnologie chiave dei sistemi IA avanzati dovrebbero diventare aperte.
  • I dati relativi all’IA dovrebbero essere (almeno parzialmente) democratizzati, di nuovo per massimizzare il beneficio e il progresso socio-economico.
  • Si dovrebbero prevedere schemi di compensazione finanziaria adeguati per i campioni della tecnologia IA per compensare eventuali perdite di profitto, a causa della suddetta apertura e per garantire forti investimenti futuri nella ricerca e sviluppo dell’IA (ad esempio, attraverso la brevettazione della tecnologia, schemi di licenza obbligatori).
  • L’equilibrio della ricerca sull’IA tra Accademia e Industria dovrebbe essere ripensato per massimizzare la produzione di ricerca, mantenendo la competitività e concedendo ricompense per i rischi di ricerca e sviluppo intrapresi.
  • Le pratiche educative dovrebbero essere riviste a tutti i livelli di istruzione per massimizzare il beneficio delle tecnologie IA, creando una nuova generazione di cittadini e scienziati (IA) creativi e adattabili.
  • Si dovrebbero creare e rafforzare meccanismi di regolamentazione/supervisione/finanziamento dell’IA per garantire quanto sopra.

Diversi di questi punti sono trattati in dettaglio nel mio recente libro di 4 volumi su ‘Scienza e Società dell’IA’, in particolare nei volumi A (riscritto nel maggio 2023 per coprire LLM e Intelligenza Artificiale Generale) e C.

Riferimenti del Libro:

Artificial Intelligence Science and Society Part A: Introduction to AI Science and Information Technology

Artificial Intelligence Science and Society Part C: AI Science and Society

Prof. Ioannis Pitas (IEEE fellow, IEEE Distinguished Lecturer, EURASIP fellow) è Professore presso il Dipartimento di Informatica di AUTH e Direttore del laboratorio di Intelligenza Artificiale e Analisi delle Informazioni (AIIA) . Ha ricoperto il ruolo di Professore Visitatore in diverse Università. Ha pubblicato oltre 920 articoli, ha contribuito a 45 libri nelle sue aree di interesse e ha curato o (co-)scritto altri 11 libri su Visione Computazionale e Apprendimento Automatico. È presidente dell' Accademia Internazionale di Dottorato in Intelligenza Artificiale (AIDA).