csonk A fejlett AI-technológiák etikai kihívásokat jelentenek – Gondolatvezetők – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

A fejlett AI-technológiák etikai kihívásokat jelentenek – Gondolatvezetők

mm

Közzététel:

 on

Alfred Crews, Jr. alelnöke és a hírszerzési és biztonsági szektor főtanácsosa BAE Systems Inc.

Az év elején, a globális világjárvány előtt részt vettem a charlestoni The Citadel's Intelligence Ethics Conference-en, ahol a hírszerzési etika témáját vitattuk meg a nemzetbiztonság védelmével kapcsolatosan. A védelmi iparban a tudás, a számítástechnika és a fejlett technológiák terjedését tapasztaljuk, különösen a mesterséges intelligencia (AI) és a gépi tanulás (ML) területén. Azonban jelentős problémák adódhatnak, amikor az AI-t hírszerzési vagy valós idejű harc keretében telepítik.

A kvantumszámítástechnikával párosuló mesterséges intelligencia kockázatokat rejt magában

Amit meg kell kérdőjeleznünk, elemeznünk és meg kell határoznunk a továbblépési utat, az az, amikor a mesterséges intelligenciát kvantumszámítási képességekkel párosítva használjuk a háborús döntéshozatali folyamatban. Emlékszel például a Terminátorra? Ahogy technológiánk ugrásszerűen halad, a Skynet által bemutatott valóság már előttünk áll. Feltehetjük magunknak a kérdést: „A Skynet eljön hozzánk?” Sétálj velem egy memória sávban; a mesterséges intelligencia gépek vették át a hatalmat, mert képesek voltak önállóan gondolkodni és döntéseket hozni, anélkül, hogy ember irányította volna. Amikor a gépek arra a következtetésre jutottak, hogy az emberek bogarak, az emberiség elpusztítására indultak. Félreértés ne essék, a mesterséges intelligencia nagy lehetőségeket rejt magában, de úgy gondolom, hogy a kockázati tényező miatt vezérlő paraméterekkel kell rendelkeznie.

Az AI etikai kétértelműségei és filozófiai dilemmája

Úgy gondolom, hogy az Egyesült Államok Védelmi Minisztériuma (DoD) pontosan ezért adta ki a sajátját Az AI etikai alapelvei, mert az AI használata új etikai kétértelműségeket és kockázatokat vet fel. Ha a mesterséges intelligenciát kvantumszámítási képességekkel kombináljuk, a döntéshozatali képesség megváltozik, és nő az irányítás elvesztésének kockázata – jobban, mint azt ma gondolnánk. A kvantumszámítás szégyenbe hozza emberi agyunk operációs rendszerét, mert a szuperszámítógépek exponenciálisan több számítást képesek gyorsabban és pontosabban elvégezni, mint amennyire emberi agyunk valaha is képes lesz.

Ezenkívül a mesterséges intelligencia és a számítástechnika együttes alkalmazása filozófiai dilemmát jelent. Mikor engedi meg a világ a gépeknek, hogy saját akarattal rendelkezzenek; és ha a gépeknek megengedik, hogy önállóan gondolkodjanak, az azt jelenti, hogy maga a gép is tudatossá vált? Az öntudat alkotja az életet? Társadalomként még nem határoztuk meg, hogyan határozzuk meg ezt a helyzetet. Így a mai állás szerint azok a gépek, amelyek önállóan lépnek fel, anélkül, hogy ember irányítaná azt, következményekhez vezethet. Felülírhatja-e egy gép az emberi beavatkozást, hogy megállítsa a tüzet? Ha a gép magától működik, ki tudjuk húzni a konnektorból?

Ahogy látom, a mesterséges intelligencia védekezési szempontból történő használata könnyű. Azonban mennyivel lenne egyszerűbb áttérni az offenzívára? A támadás során a gépek a helyszínen hoznának harci lövöldözési döntéseket. A genfi ​​egyezményt és a fegyveres konfliktusokra vonatkozó törvényeket sérti egy gép, amely lelő egy ellenséget? Gyors ütemben haladva ebbe a térbe, a világnak meg kell egyeznie azzal, hogy az AI és a kvantumszámítógép harci felhasználásának bele kell férnie a jelenleg érvényben lévő törvényeinkbe.

A DoD álláspontja van a mesterséges intelligencia autonóm rendszerekkel való használatakor, és kijelenti, hogy mindig lesz egy személy, aki részt vesz a döntéshozatali folyamatban; egy személy az utolsó hívást a ravasz meghúzásával végezné el, hogy elsütjön egy fegyvert. Ez a mi szabályunk, de mi történik, ha egy ellenfél úgy dönt, hogy egy másik utat választ, és egy mesterséges intelligencia-képes géppel hozza meg a végső döntést? Akkor a gép előnye lenne, amely, mint megbeszéltük, már gyorsabb, okosabb és pontosabb.

Nézzünk meg egy MI-vel és arcfelismeréssel felszerelt drónt: A drón önszántából tüzel egy előre meghatározott, terroristának titulált célpont miatt. Ki a felelős valójában a kilövésért? Van-e elszámoltathatóság, ha elfogult hiba történt?

Elfogultság AI/ML-be süllyesztve

A kutatás rámutat arra a tényre, hogy egy gép kisebb valószínűséggel hibázik, mint egy ember. A kutatás azonban azt is bizonyítja, hogy a gépi tanulásban vannak elfogultságok, amelyek azon alapulnak, hogy az emberi „tanár” tanítja a gépet. A DoD öt etikai alapelve a mesterséges intelligencia létezésére hivatkozott, amikor kijelenti: „A minisztérium szándékos lépéseket tesz az AI-képességek nem szándékos torzításának minimalizálására.” Már tudjuk bizonyított tanulmányok hogy az arcfelismerő alkalmazások használatakor elfogultság mutatkozik a hamis pozitív eredményt mutató színes bőrű emberek felé. Amikor egy személy létrehozza a kódot, amely megtanítja a gépet a döntések meghozatalára, elfogultságok lesznek. Lehetséges, hogy ez nem szándékos, mert az MI-t létrehozó személy nem volt tudatában a benne lévő elfogultságnak.

Szóval, hogyan lehet megszüntetni az elfogultságot? Az AI kimenet csak olyan jó, mint a bemenet. Ezért kell az ellenőrzés. Ellenőriznie kell a beáramló adatokat, mert ez az AI-eredményeket kevésbé érvényesítheti. A fejlesztőknek folyamatosan újra kell írniuk a kódot, hogy kiküszöböljék a torzítást.

A világ határozza meg a technológia legjobb felhasználását  

A technológia önmagában nem jó vagy rossz. Ez az, ahogyan egy nemzet használja azt, ami a legjobb szándékot követve elromolhat. Ahogy a technológia olyan módon fejlődik, amely hatással van az emberi életekre, a világnak együtt kell működnie a megfelelő intézkedések meghatározásában. Ha kivesszük az embert az egyenletből a mesterséges intelligencia alkalmazásokban, akkor a ravaszt meghúzása előtt tartjuk meg azt a szünetet is – ez az erkölcsi iránytű, amely irányít bennünket; ez a szünet, amikor megállunk, és megkérdezzük: „Jó ez?” A bekapcsolásra tanított gépen nincs ilyen szünet. Tehát a kérdés az, hogy a jövőben kiáll-e a világ? Meddig megy el a világ ahhoz, hogy a gépek harci döntéseket hozzanak?

Alfred Crews, Jr. az Intelligence & Security szektor alelnöke és főtanácsadója BAE Systems Inc, vezető szerepet tölt be a nagyszabású rendszertervezési, -integrációs és -fenntartási szolgáltatások nyújtásában légi, szárazföldi, tengeri, űrbeli és kiberterületeken az Egyesült Államok Védelmi Minisztériuma, hírszerző közösség, szövetségi polgári ügynökségek és a világ minden táján telepített csapatok számára. A Crews felügyeli az ágazat jogi, exportellenőrzési és etikai funkcióit.