taló Les tecnologies avançades d'IA presenten reptes ètics - Líders de pensament - Unite.AI
Connecteu-vos amb nosaltres

Líders del pensament

Les tecnologies avançades d'IA presenten reptes ètics: líders de pensament

mm

publicat

 on

Per Alfred Crews, Jr, el vicepresident i conseller en cap del sector d'Intel·ligència i Seguretat de BAE Systems Inc.

A principis d'aquest any, abans de la pandèmia global, vaig assistir a la Conferència d'ètica de la intel·ligència de The Citadel a Charleston, on vam parlar del tema de l'ètica en la recollida d'intel·ligència en relació amb la protecció de la seguretat nacional. A la indústria de la defensa, estem veient la proliferació del coneixement, la informàtica i les tecnologies avançades, especialment en l'àmbit de la intel·ligència artificial (IA) i l'aprenentatge automàtic (ML). Tanmateix, hi podria haver problemes significatius quan es desplega la IA en el context de la recollida d'intel·ligència o el combat en temps real.

La IA juntament amb la informàtica quàntica presenta riscos

El que hem de qüestionar, analitzar i determinar un camí a seguir és quan utilitzem IA juntament amb capacitats de computació quàntica en el procés de presa de decisions en temps de guerra. Per exemple, recordeu el Terminator? A mesura que la nostra tecnologia fa salts i límits, la realitat del que presenta Skynet està davant nostre. Podríem estar preguntant-nos: "Skynet vindrà a buscar-nos?" Fes un passeig pel camí de la memòria amb mi; les màquines d'IA es van fer càrrec perquè tenien la capacitat de pensar i prendre decisions per si soles, sense cap humà per dirigir-la. Quan les màquines van deduir que els humans eren un error, es van proposar destruir la humanitat. No m'equivoquis, la IA té un gran potencial, però crec que ha de tenir paràmetres de control pel factor de risc que implica.

Ambigüitats ètiques i dilema filosòfic de l'IA

Crec que precisament per això el Departament de Defensa dels Estats Units (DoD) va emetre el seu Principis ètics per a la IA, perquè l'ús de la IA planteja noves ambigüitats ètiques i riscos. Quan es combina la IA amb les capacitats de computació quàntica, la capacitat de prendre decisions canvis i el risc de perdre el control augmenta, més del que ens podríem adonar avui. La informàtica quàntica fa vergonya el sistema operatiu del nostre cervell humà perquè els súper ordinadors poden fer més càlculs exponencialment més ràpidament i amb més precisió del que el nostre cervell humà mai serà capaç de fer.

A més, l'ús de la IA juntament amb la informàtica presenta un dilema filosòfic. En quin moment el món permetrà que les màquines tinguin una voluntat pròpia; i, si a les màquines se'ls permet pensar per si soles, vol dir això que la pròpia màquina ha pres consciència d'ella mateixa? Ser autoconscient constitueix la vida? Com a societat, encara no hem determinat com definir aquesta situació. Així, tal com està avui dia, les màquines que actuen per si soles sense que un humà el controli, podrien tenir ramificacions. Podria una màquina anul·lar la intervenció d'un humà per aturar el foc? Si la màquina funciona sola, podrem estirar l'endoll?

Tal com ho veig, utilitzar la IA des d'un punt de vista defensiu és fàcil de fer. Tanmateix, quant més fàcil seria passar a l'ofensiva? A l'atac, les màquines prendrien decisions de trets de combat al lloc. Una màquina que abatés un enemic constituiria una violació de la Convenció de Ginebra i les lleis dels conflictes armats? En traslladar-se a aquest espai a un ritme ràpid, el món ha d'acordar que l'ús de la intel·ligència artificial i la computació quàntica en combat ha de jugar amb les lleis que tenim actualment vigents.

El DoD té una posició quan utilitza IA amb sistemes autònoms i afirma que sempre hi haurà una persona compromesa amb el procés de presa de decisions; una persona faria la crida final en prémer un gallet per disparar una arma. Aquesta és la nostra regla, però què passa si un adversari decideix prendre una altra ruta i fa que una màquina amb intel·ligència artificial prengui totes les decisions finals? Aleshores la màquina, que, com hem comentat, ja és més ràpida, intel·ligent i precisa, tindria l'avantatge.

Mirem un dron equipat amb intel·ligència artificial i reconeixement facial: el dron dispara per la seva pròpia voluntat a causa d'un objectiu predeterminat etiquetat com a terrorista. Qui és realment el responsable de l'acomiadament? Hi ha responsabilitat si hi ha un error esbiaixat?

Biaix incorporat a AI/ML

La investigació apunta al fet que és menys probable que una màquina cometi errors que un humà. Tanmateix, la investigació també demostra que hi ha un biaix en l'aprenentatge automàtic basat en el "mestre" humà que ensenya la màquina. Els cinc principis ètics de la IA del DoD van fer referència als biaixos existents quan diu: "El Departament prendrà mesures deliberades per minimitzar els biaixos no desitjats en les capacitats d'IA". Ja ho sabem a través estudis provats que en l'ús d'aplicacions de reconeixement facial hi ha un biaix cap a les persones de color amb falsos positius. Quan una persona crea el codi que ensenya a la màquina com prendre decisions, hi haurà biaixos. Això podria ser involuntari perquè la persona que va crear l'IA no era conscient del biaix que hi havia dins d'ella.

Aleshores, com s'elimina el biaix? La sortida d'AI només és tan bona com l'entrada. Per tant, hi ha d'haver controls. Heu de controlar les dades que flueixen perquè això és el que podria fer que els resultats d'IA siguin menys vàlids. Els desenvolupadors hauran de tornar a escriure el codi constantment per eliminar el biaix.

El món per definir el millor ús de la tecnologia  

La tecnologia en si mateixa no és bona ni dolenta. És com ho fa servir una nació que podria prendre les millors intencions i fer-ho malament. A mesura que la tecnologia avança d'una manera que afecta les vides humanes, el món ha de treballar junts per definir l'acció adequada. Si traiem l'ésser humà de l'equació a les aplicacions d'IA, també fem aquesta pausa abans de prémer el gallet: aquesta brúixola moral que ens guia; aquella pausa quan ens aturem i preguntem: "És correcte?" Una màquina ensenyada a participar no tindrà aquesta pausa. Per tant, la pregunta és, en el futur, el món ho suportarà? Fins on arribarà el món per permetre que les màquines prenguin decisions de combat?

Alfred Crews, Jr. és vicepresident i conseller en cap del sector d'Intel·ligència i Seguretat de BAE Systems Inc, líder en la prestació de serveis d'enginyeria, integració i sosteniment de sistemes a gran escala en dominis aeris, terrestres, marítims, espacials i cibernètics per al Departament de Defensa dels EUA, la comunitat d'intel·ligència, les agències civils federals i les tropes desplegades a tot el món. Crews supervisa les funcions legals, de control d'exportacions i ètiques del sector.