Seguici sui social

Le tecnologie avanzate di intelligenza artificiale presentano sfide etiche: leader di pensiero

Leader del pensiero

Le tecnologie avanzate di intelligenza artificiale presentano sfide etiche: leader di pensiero

mm

Di Alfred Crews, Jr, vicepresidente e consigliere capo per il settore Intelligence e sicurezza di BAE Systems Inc.

All’inizio di quest’anno, prima della pandemia globale, ho partecipato alla conferenza sull’etica dell’intelligence della Cittadella a Charleston, dove abbiamo discusso il tema dell’etica nella raccolta di informazioni in relazione alla protezione della sicurezza nazionale. Nel settore della difesa stiamo assistendo alla proliferazione della conoscenza, dell’informatica e delle tecnologie avanzate, soprattutto nel campo dell’intelligenza artificiale (AI) e dell’apprendimento automatico (ML). Tuttavia, potrebbero esserci problemi significativi quando si utilizza l’intelligenza artificiale nel contesto della raccolta di informazioni o del combattimento in tempo reale.

L'intelligenza artificiale unita al calcolo quantistico presenta dei rischi

Ciò che dobbiamo mettere in discussione, analizzare e determinare un percorso da seguire è quando si utilizza l'intelligenza artificiale unita alle capacità di calcolo quantistico nel processo decisionale in tempo di guerra. Ad esempio, ricordi Terminator? Mentre la nostra tecnologia fa passi da gigante, la realtà di ciò che Skynet ha presentato è davanti a noi. Potremmo chiederci: "Skynet viene a prenderci?" Fai una passeggiata lungo il viale dei ricordi con me; le macchine AI hanno preso il sopravvento perché avevano la capacità di pensare e prendere decisioni da sole, senza che un essere umano lo dirigesse. Quando le macchine hanno dedotto che gli umani erano un insetto, hanno deciso di distruggere l'umanità. Non fraintendetemi, l'intelligenza artificiale ha un grande potenziale, ma credo che debba avere parametri di controllo a causa del fattore di rischio coinvolto.

Le ambiguità etiche e il dilemma filosofico di AI

Credo che questo sia esattamente il motivo per cui il Dipartimento della Difesa degli Stati Uniti (DoD) ha emesso il proprio Principi etici per l'IA, perché l'uso dell'IA solleva nuove ambiguità e rischi etici. Quando si combinano l'intelligenza artificiale con le capacità di calcolo quantistico, la capacità di prendere decisioni cambia e il rischio di perdere il controllo aumenta, più di quanto potremmo renderci conto oggi. Il calcolo quantistico fa vergognare il sistema operativo del nostro cervello umano perché i super computer possono eseguire esponenzialmente più calcoli, più veloci e con maggiore precisione di quanto il nostro cervello umano sarà mai in grado di fare.

Inoltre, l'uso dell'intelligenza artificiale insieme all'informatica presenta un dilemma filosofico. A che punto il mondo permetterà alle macchine di avere una propria volontà? e, se alle macchine è permesso di pensare da sole, significa che la macchina stessa è diventata autocosciente? Essere consapevoli di sé costituisce la vita? Come società, non abbiamo ancora deciso come definire questa situazione. Pertanto, così com'è oggi, le macchine che agiscono da sole senza che un essere umano le controlli, potrebbero portare a conseguenze. Una macchina potrebbe ignorare l'intervento di un essere umano per fermare il fuoco? Se la macchina funziona da sola, riusciremo a staccare la spina?

Per come la vedo io, usare l'IA da un punto di vista difensivo è facile da fare. Tuttavia, quanto sarebbe più facile passare all'offensiva? In attacco, le macchine prenderebbero decisioni sul tiro in combattimento sul posto. Una macchina che spara contro un nemico costituirebbe una violazione della Convenzione di Ginevra e delle leggi sui conflitti armati? Entrando in questo spazio a un ritmo rapido, il mondo deve concordare sul fatto che l'uso dell'IA e dell'informatica quantistica in combattimento deve giocare nelle leggi che abbiamo attualmente in vigore.

Il DoD ha una posizione quando si utilizza l'IA con sistemi autonomi e afferma che ci sarà sempre una persona coinvolta nel processo decisionale; una persona farebbe l'ultima chiamata premendo un grilletto per sparare con un'arma. Questa è la nostra regola, ma cosa succede se un avversario decide di prendere un'altra strada e fare in modo che una macchina dotata di intelligenza artificiale prenda tutte le decisioni finali? Quindi la macchina, che, come abbiamo discusso, è già più veloce, più intelligente e più precisa, avrebbe il vantaggio.

Diamo un'occhiata a un drone dotato di intelligenza artificiale e riconoscimento facciale: il drone spara di sua volontà a causa di un obiettivo predeterminato etichettato come terrorista. Chi è effettivamente responsabile del licenziamento? C'è responsabilità se c'è un errore di parte?

Bias incorporato in AI/ML

La ricerca indica che una macchina ha meno probabilità di commettere errori rispetto a un essere umano. Tuttavia, la ricerca dimostra anche che ci sono pregiudizi nell'apprendimento automatico basato sul "maestro" umano che insegna alla macchina. I cinque principi etici dell'IA del Dipartimento della Difesa fanno riferimento a pregiudizi esistenti quando afferma: "Il Dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi involontari nelle capacità dell'IA". Lo sappiamo già studi provati che nell'uso delle applicazioni di riconoscimento facciale ci sono pregiudizi verso le persone di colore con falsi positivi. Quando una persona crea il codice che insegna alla macchina come prendere decisioni, ci saranno pregiudizi. Ciò potrebbe non essere intenzionale perché la persona che ha creato l'IA non era consapevole del pregiudizio che esisteva dentro di sé.

Quindi, come si eliminano i pregiudizi? L'output AI è buono quanto l'input. Pertanto, ci devono essere controlli. Devi controllare il flusso di dati perché questo è ciò che potrebbe rendere i risultati dell'IA meno validi. Gli sviluppatori dovranno costantemente riscrivere il codice per eliminare il pregiudizio.

Il mondo per definire il miglior uso della tecnologia  

La tecnologia in sé e per sé non è né buona né cattiva. È il modo in cui una nazione lo utilizza che potrebbe prendere le migliori intenzioni e farlo andare storto. Man mano che la tecnologia avanza in modi che hanno un impatto sulla vita umana, il mondo deve lavorare insieme per definire un'azione appropriata. Se eliminiamo l'umano dall'equazione nelle applicazioni di intelligenza artificiale, facciamo anche quella pausa prima di premere il grilletto: quella bussola morale che ci guida; quella pausa quando ci fermiamo e chiediamo: "È giusto?" Una macchina a cui è stato insegnato a impegnarsi non avrà quella pausa. Quindi, la domanda è, in futuro, il mondo lo sopporterà? Fino a che punto si spingerà il mondo per consentire alle macchine di prendere decisioni di combattimento?

Alfred Crews, Jr. è vicepresidente e consigliere capo per il settore Intelligence & Security di BAE Systems Inc, leader nella fornitura di servizi di ingegneria, integrazione e supporto di sistemi su larga scala nei settori aereo, terrestre, marittimo, spaziale e informatico per il Dipartimento della Difesa degli Stati Uniti, l'intelligence, le agenzie civili federali e le truppe dispiegate in tutto il mondo. Crews supervisiona le funzioni legali, di controllo delle esportazioni e di etica del settore.