škrbina Napredne tehnologije umetne inteligence predstavljajo etične izzive – Voditelji misli – Unite.AI
Povežite se z nami

Voditelji misli

Napredne tehnologije umetne inteligence predstavljajo etične izzive – miselni voditelji

mm

objavljeno

 on

Alfred Crews, mlajši, podpredsednik in glavni svetovalec za obveščevalni in varnostni sektor BAE Systems Inc.

V začetku tega leta, pred svetovno pandemijo, sem se udeležil konference The Citadel's Intelligence Ethics Conference v Charlestonu, kjer smo razpravljali o temi etike pri zbiranju obveščevalnih podatkov, ki je povezana z zaščito nacionalne varnosti. V obrambni industriji smo priča širjenju znanja, računalništva in naprednih tehnologij, predvsem na področju umetne inteligence (AI) in strojnega učenja (ML). Vendar pa lahko pride do pomembnih težav pri uvajanju umetne inteligence v okviru zbiranja obveščevalnih podatkov ali spopadov v realnem času.

Umetna inteligenca skupaj s kvantnim računalništvom predstavlja tveganje

To, o čemer se moramo vprašati, analizirati in določiti pot naprej, je uporaba umetne inteligence skupaj s kvantnimi računalniškimi zmogljivostmi v procesu odločanja v vojnem času. Na primer, se spomnite Terminatorja? Medtem ko naša tehnologija skokovito napreduje, je resničnost tega, kar je predstavil Skynet, pred nami. Lahko bi se vprašali: "Ali Skynet prihaja po nas?" Sprehodite se z menoj po poti spominov; stroji AI so prevzeli oblast, ker so imeli sposobnost razmišljati in sprejemati odločitve sami, brez človeka, ki bi to usmerjal. Ko so stroji sklepali, da so ljudje hrošči, so se odločili uničiti človeštvo. Ne razumite me narobe, umetna inteligenca ima velik potencial, vendar menim, da mora imeti nadzorne parametre zaradi vključenega dejavnika tveganja.

Etične dvoumnosti in filozofska dilema AI

Verjamem, da je ravno zaradi tega Ministrstvo za obrambo ZDA (DoD) izdalo svoje Etična načela za umetno inteligenco, ker uporaba umetne inteligence povzroča nove etične dvoumnosti in tveganja. Pri kombinaciji umetne inteligence s kvantnimi računalniškimi zmožnostmi se zmožnost sprejemanja odločitev spremeni in tveganje izgube nadzora se poveča – bolj, kot se morda zavedamo danes. Kvantno računalništvo osramoti operacijski sistem naših človeških možganov, saj lahko super računalniki naredijo eksponentno več izračunov hitreje in z večjo natančnostjo, kot bodo naši človeški možgani kdajkoli sposobni.

Poleg tega uporaba umetne inteligence skupaj z računalništvom predstavlja filozofsko dilemo. Na kateri točki bo svet dovolil strojem, da imajo lastno voljo; in če je strojem dovoljeno, da razmišljajo sami, ali to pomeni, da se je stroj sam zavedel? Ali zavedanje samega sebe predstavlja življenje? Kot družba se še nismo opredelili, kako definirati to situacijo. Tako lahko, kot je danes, stroji, ki ukrepajo sami, brez človeka, ki bi jih nadzoroval, povzročijo posledice. Bi lahko stroj preglasil človeško posredovanje, da bi ustavil ogenj? Če stroj deluje sam, ali bomo lahko potegnili vtič?

Kot vidim, je uporaba umetne inteligence z obrambnega vidika enostavna. Vendar, koliko lažje bi bilo preiti v ofenzivo? Pri napadu bi se stroji na kraju samem odločali o bojnem streljanju. Ali bi stroj, ki strelja na sovražnika, pomenil kršitev Ženevske konvencije in zakonov o oboroženih spopadih? Svet se mora s hitrim premikanjem v ta prostor strinjati, da mora uporaba umetne inteligence in kvantnega računalništva v boju upoštevati zakone, ki jih trenutno imamo.

Ministrstvo za obrambo ima stališče glede uporabe umetne inteligence z avtonomnimi sistemi in navaja, da bo vedno prisotna oseba, ki bo sodelovala pri procesu odločanja; oseba bi naredila zadnjo odločitev, ko bi potegnila sprožilec, da bi streljala z orožjem. To je naše pravilo, toda kaj se zgodi, če se nasprotnik odloči ubrati drugo pot in vse končne odločitve sprejme stroj, ki je zmožen AI? Potem bi imel stroj, ki je, kot smo razpravljali, že hitrejši, pametnejši in natančnejši, prednost.

Poglejmo si dron, opremljen z AI in prepoznavanjem obraza: dron strelja po lastni volji zaradi vnaprej določene tarče, označene kot terorist. Kdo je pravzaprav odgovoren za odstrel? Ali obstaja odgovornost, če pride do pristranske napake?

Pristranskost v AI/ML

Raziskave kažejo na dejstvo, da je manj verjetno, da bo stroj delal napake kot človek. Vendar pa raziskave tudi dokazujejo, da obstaja pristranskost v strojnem učenju, ki temelji na človeškem »učitelju«, ki poučuje stroj. Pet etičnih načel umetne inteligence Ministrstva za obrambo se je sklicevalo na obstoječe pristranskosti, ko je navedeno: "Ministrstvo bo sprejelo premišljene ukrepe za zmanjšanje nenamerne pristranskosti v zmogljivostih umetne inteligence." Skozi že vemo dokazane študije da je pri uporabi aplikacij za prepoznavanje obraza pristranskost do barvnih ljudi z lažno pozitivnimi rezultati. Ko oseba ustvari kodo, ki uči stroj, kako sprejemati odločitve, bo prišlo do pristranskosti. To bi lahko bilo nenamerno, ker se oseba, ki je ustvarila AI, ni zavedala pristranskosti, ki je obstajala v njej.

Kako torej odpraviti pristranskost? Izhod AI je tako dober kot vhod. Zato mora obstajati nadzor. Podatke, ki tečejo, morate nadzorovati, ker lahko zaradi tega rezultati umetne inteligence postanejo manj veljavni. Razvijalci bodo morali nenehno znova pisati kodo, da bi odpravili pristranskost.

Svet za opredelitev najboljše uporabe tehnologije  

Tehnologija sama po sebi ni dobra ali slaba. To je način, kako ga narod uporablja, ki bi lahko imel najboljše namene in bi šlo narobe. Ker tehnologija napreduje na načine, ki vplivajo na človeška življenja, mora svet sodelovati pri opredelitvi ustreznih ukrepov. Če človeka izločimo iz enačbe v aplikacijah umetne inteligence, naredimo tudi ta premor, preden potegnemo sprožilec – ta moralni kompas, ki nas vodi; tisti premor, ko se ustavimo in vprašamo: "Je to prav?" Stroj, naučen za vklop, ne bo imel te pavze. Vprašanje je torej, ali bo svet to vzdržal v prihodnosti? Kako daleč bo šel svet, da bo strojem omogočil sprejemanje bojnih odločitev?

Alfred Crews, Jr. je podpredsednik in glavni svetovalec za obveščevalni in varnostni sektor BAE Systems Inc, vodilno podjetje pri zagotavljanju obsežnih sistemskih inženirskih, integracijskih in vzdrževalnih storitev v zračnih, kopenskih, morskih, vesoljskih in kibernetskih domenah za Ministrstvo za obrambo ZDA, obveščevalno skupnost, zvezne civilne agencije in enote, razporejene po vsem svetu. Crews nadzoruje sektorske pravne funkcije, nadzor izvoza in etiko.