Sääntely
Tekninen neuvonantoryhmä puolustaa rajoituksia Pentagonin tekoälykäytölle

Pentagon on ilmoittanut aikovansa investoida voimakkaasti tekoälyyn ja toteaa, että tekoäly tekee Yhdysvaltain armeijasta voimakkaamman ja vahvemman mahdollisia kansallisia turvallisuusuhkia vastaan. Kuten Engadget raportoi, edellisellä torstaina Puolustusinnovaatiolautakunta esitti useita eettisiä ohjeita tekoälyn käytölle sotilaallisessa ympäristössä. Ehdotusten luettelossa on strategioita välttämään tahattomat vinoumat ja hallittavissa oleva tekoäly, jolla on hätäpysäytysmenetelmät, jotka estävät tekoälyä aiheuttamasta tarpeetonta vahinkoa.
Wired raportoi, että Puolustusinnovaatiolautakunta perustettiin Obama-hallinnon aikana ohjaamaan Pentagonia hankkimassa teknologia-alan kokemusta ja osaamista. Lautakuntaa johtaa tällä hetkellä entinen Google-johtaja Eric Schmidt. Lautakunta on saanut tehtäväkseen laatia ohjeet tekoälyn eettisestä toteuttamisesta sotilaallisissa projekteissa. Torstaina lautakunta julkaisi ohjeensa ja suositukset arvioitavaksi. Raportissa todetaan, että on aika käydä vakavia keskusteluja tekoälyn käytöstä sotilaallisessa ympäristössä, ennen kuin jokin vakava tapahtuma edellyttää sitä.
Artificial Intelligence Newsin mukaan entinen sotilasviranomainen on todennut, että Pentagon on jäänyt jälkeen tekoälyn käytössä. Pentagon pyrkii korjaamaan tämän eron ja on julistanut tekoälyn kehittämisen ja laajentamisen sotilaallisessa ympäristössä kansalliseksi prioriteetiksi. Tekoälyeetikit ovat huolissaan siitä, että Pentagonin kiireessä tulla tekoälyjohtajaksi tekoälyjärjestelmiä voidaan käyttää epäeettisesti. Vaikka eri riippuvat tekoälyeettiset lautakunnat ovat esittäneet omat ehdotukset, Puolustusinnovaatiolautakunta on esittänyt vähintään viisi periaatetta, joita sotilaallisen tekoälyn kehittämisessä ja toteuttamisessa on aina noudatettava.
Puolustusinnovaatiolautakunnan ehdottama ensimmäinen periaate on, että ihmiset ovat aina vastuussa tekoälyalustan käytöstä, käyttöönotosta ja tuloksista sotilaallisessa ympäristössä. Tämä muistuttaa vuoden 2012 politiikkaa, jossa määrättiin, että ihmiset ovat aina mukana päätöksentekoprosessissa, kun on kyse kuoleman aiheuttamisesta. Luettelossa on muita periaatteita, jotka antavat yleisiä ohjeita, kuten varmistamalla, että tekoälyjärjestelmät on aina rakennettu insinöörien toimesta, jotka ymmärtävät ja dokumentoivat ohjelmansa. Toisen periaatteen mukaan sotilaalliset tekoälyjärjestelmät on aina testattava luotettavuuden varmistamiseksi. Nämä ohjeet vaikuttavat yleisesti ottaen järkeviltä, mutta lautakunta haluaa korostaa niiden tärkeyttä.
Luettelossa olevat muut periaatteet liittyvät tekoälyalgoritmien vinouman hallintaan ja tekoälyjen kykyyn havaita, jos tahattomat vahingot voivat aiheutua, ja kykyyn irrottaa itsensä ja antaa ihmisen operaattorin ottaa vastuun. Ohjeissa määrätään, että jos tarpeetonta vahinkoa aiheutuu, tekoälyllä on oltava kyky irrottaa itsensä ja antaa ihmisen operaattorin ottaa vastuun. Ehdotettujen periaatteiden luonnos suosittelee myös, että tekoälyjen tulosteiden on oltava jäljitettävissä, jotta analyytikot voivat nähdä, mitä johti tekoälyjen tekemään tiettyyn päätökseen.
Lautakunnan esittämät suositukset korostavat kahta eri ajatusta. Periaatteet heijastavat sitä, että tekoäly on tulevaisuuden sotilaallisten operaatioiden kannalta olennainen, mutta tekoälyyn liittyy edelleen paljon ihmisten hallintaa ja päätöksentekoa.
Vaikka Pentagonilla ei ole pakollista noudattaa lautakunnan suosituksia, kuulostaapa siltä, että Pentagon ottaa suositukset vakavasti. Wiredin mukaan Joint Artificial Intelligence Centerin johtaja, kenraali Jack Shanahan, totesi, että lautakunnan suositukset auttavat Pentagonia “puolustamaan korkeimpia eettisiä standardeja, jotka on määritelty DoD:n tekoälystrategiassa, samalla kun se omaksuu Yhdysvaltain armeijan vahvan perinteen soveltamisesta tiukkoja testaamis- ja kenttäkokeilustandardeja teknologia-innovaatioille”.
Teknologia-alalla on edelleen epävarmuutta tekoälyn käytöstä sotilaallisen kaluston ja ohjelmistojen kehittämisessä. Microsoftin ja Google-työntekijät ovat molemmat protestoineet yhteistyöstä sotilaallisten organisaatioiden kanssa, ja Google on vastikään päättänyt ei uusia sopimusta, jossa se osallistui Project Maveniin. Useat toimitusjohtajat, tutkijat ja insinöörit ovat allekirjoittaneet lupauksen “osallistumisesta tai tukemisesta tappavan autonomisen asejärjestelmän kehittämiseen, valmistukseen, kauppaan tai käyttöön”. Jos Pentagon hyväksyy lautakunnan ehdottamat ohjeet, se voi tehdä teknologia-alan yhteistyöstä houkuttelevamman, vaikka vain aika näyttää.












