Etica
Etica & Tecnologia: Il Pilota Automatico Ha Bisogno di un Pilota alla Barra?

Riepilogo: I progressi nella tecnologia dell’intelligenza artificiale conversazionale richiedono un equilibrio attento degli interessi che favoriscono l’innovazione mitigando gli impatti potenzialmente dannosi.
L’Allure dell’Intelligenza Artificiale Conversazionale
Il lancio di ChatGPT-3 ha catturato un interesse senza precedenti con oltre 100 milioni di utenti attivi al mese.
I consumatori e le organizzazioni riconoscono come i progressi nell’intelligenza artificiale conversazionale possano potenzialmente trasformare quasi ogni aspetto delle nostre vite personali e delle interazioni professionali. L’applicazione avanzata di ChatGPT-3 del deep learning genera conversazioni convincenti simili a quelle umane con risultati impressionanti. Nei test recenti, ChatGPT-3 ha superato l’esame di licenza medica degli Stati Uniti e un esame MBA di una delle più prestigiose scuole di business.
I vantaggi aziendali dell’intelligenza artificiale conversazionale sono immensi, tanto che Microsoft ha investito 10 miliardi di dollari in Open AI per accelerare le applicazioni commerciali di ChatGPT-3. Microsoft intende “superare” i suoi prodotti con le capacità conversazionali di ChatGPT-3.
Eccesso di Ottimismo
Ma facciamo un respiro profondo prima di lasciare che tale tecnologia trasformativa ci sfugga di mano. La sua potenziale utilità nonostante, ChatGPT-3 è ancora in fase nascente, con ammissioni di molte imperfezioni. Il nostro ottimismo potrebbe rivelarsi prematuro. In assenza di un’analisi significativa, un’adozione incontrollata dell’intelligenza artificiale conversazionale senza garanzie regolatorie e senza la supervisione umana può condurci in un mondo distopico, prefigurato dal romanziere inglese Aldous Huxley. Troppa dipendenza dalla tecnologia senza comprensione dei suoi impatti socio-economici può avere gravi conseguenze, anche se non intenzionali, come l’occupazione, l’istruzione, l’inclusività e l’equità.
Dopo tutto, mentre Chat-GPT-3 rappresenta un passo avanti, le sue capacità “cognitive” si basano su set di dati preesistenti, con pregiudizi incorporati che possono essere amplificati, risultando in una miriade di potenziali danni. ChatGPT-3 ha un “lato oscuro” che dovrebbe essere motivo di preoccupazione e spingere il pulsante di pausa prima di una ulteriore proliferazione di tale tecnologia consequenziale.
Rischio o Opportunità?
È necessario bilanciare i rischi associati all’applicazione dell’intelligenza artificiale conversazionale e le sue potenziali opportunità. Se utilizzato in modo ponderato, con una regolamentazione significativa dell’AI che considera un approccio basato sul rischio con una supervisione robusta, allora i potenziali benefici dell’intelligenza artificiale conversazionale potrebbero essere realizzati. Dovrebbe essere utilizzato come un partner umano con applicazioni di intelligenza artificiale conversazionale che arricchiscono l’esperienza sul posto di lavoro. Come tutte le innovazioni che l’hanno preceduta, l’AI ha il potenziale per creare la necessità di nuove competenze e per rendere certi lavori più gratificanti.
Qual è il Ruolo del Legislatore?
La democratizzazione delle tecnologie AI implica che le autorità pubbliche devono svolgere un ruolo proattivo nella regolamentazione del loro utilizzo. Le paure associate alle innovazioni disruptive sono reali. Nonostante la sua potenza, l’intelligenza artificiale rimane dipendente dagli esseri umani, sia per utilizzarla che per regolarla. Ci deve essere davvero un pilota alla barra, solo non sappiamo esattamente quale rotta stia seguendo. C’è un aumento della spinta per una regolamentazione AI completa, più notevole, il progetto di legge dell’Unione Europea sull’intelligenza artificiale. Con l’adozione potenzialmente ubiqua dell’intelligenza artificiale conversazionale, come ChatGPT-3, la spinta per una regolamentazione e una governance più rigorose sta crescendo con l’UE per assicurarsi che siano istituite misure che proibiscano applicazioni specifiche di intelligenza artificiale conversazionale ritenute lesive dei diritti umani fondamentali.












