Connect with us

Sääntely

Tekninen neuvonantoryhmä vaatii rajoituksia Pentagonin tekoälykäytölle

mm

Pentagon on ilmoittanut aikovansa investoida voimakkaasti tekoälyyn ja toteaa, että tekoäly tekee Yhdysvaltain armeijasta voimakkaamman ja vahvemman mahdollisia kansallisia turvallisuusuhkia vastaan. Engadgetin mukaan viime torstaina Puolustusinnovaatiolautakunta esitti useita eettisiä ohjeita tekoälyn käytölle sotilaallisessa ympäristössä. Ehdotusten luettelo sisältää strategioita, joilla voidaan välttää tahattomat vinoumat ja hallittavissa oleva tekoäly, jolla on hätäpysäytysmenetelmät, jotka estävät tekoälyä aiheuttamasta tarpeetonta vahinkoa.

Wiredin mukaan Puolustusinnovaatiolautakunta perustettiin Obama-hallinnon aikana ohjaamaan Pentagonia hankkimassa teknologia-alan kokemusta ja osaamista. Lautakunnan puheenjohtajana toimii entinen Google-johtaja Eric Schmidt. Lautakunta on saanut tehtäväkseen laatia ohjeet tekoälyn eettisestä käytöstä sotilaallisissa projekteissa. Torstaina lautakunta julkaisi ohjeensa ja suositukset arvioitaviksi. Raportissa todetaan, että on aika käydä vakavia keskusteluja tekoälyn käytöstä sotilaallisessa ympäristössä ennen kuin jokin vakava tapahtuma edellyttää sitä.

Artificial Intelligence Newsin mukaan entinen sotilasviranomainen on todennut, että Pentagon jää jälkeen tekoälyn käytössä. Pentagon pyrkii korjaamaan tämän eron ja on julistanut tekoälyn kehittämisen ja laajentamisen sotilaallisessa ympäristössä kansalliseksi prioriteetiksi. Tekoälyeetikit ovat huolissaan siitä, että Pentagonin kiireessä tulla tekoälyjohtajaksi tekoälyjärjestelmiä voidaan käyttää epäeettisesti. Vaikka eri riippuvaiset tekoälyeettiset lautakunnat ovat esittäneet omat ehdotukset, Puolustusinnovaatiolautakunta on esittänyt vähintään viisi periaatetta, joita sotilaallisen tekoälyn kehittämisessä ja käytössä tulee noudattaa aina.

Puolustusinnovaatiolautakunnan ehdottama ensimmäinen periaate on, että ihmisillä tulee aina olla vastuu tekoälyalustojen käytöstä, käyttöönotosta ja tuloksista sotilaallisessa ympäristössä. Tämä muistuttaa vuoden 2012 politiikkaa, jossa määrättiin, että ihmisillä tulee olla lopullinen sana päätöksenteossa, kun on kyse kuolemasta. Luettelossa on muita periaatteita, jotka antavat yleisiä ohjeita, kuten varmistaminen siitä, että tekoälyjärjestelmät on rakennettu insinöörien toimesta, jotka ymmärtävät ja dokumentoivat ohjelmansa. Toisen periaatteen mukaan sotilaalliset tekoälyjärjestelmät on aina testattava luotettavuuden varmistamiseksi. Nämä ohjeet vaikuttavat yleisesti järkeviltä, mutta lautakunta haluaa korostaa niiden tärkeyttä.

Luettelossa olevat muut periaatteet liittyvät tekoälyalgoritmien vinouman hallintaan ja tekoälyjen kykyyn havaita, jos tahattomat vahingot voivat aiheutua, ja kykyyn pysäyttää itsensä ja antaa ihmisoperaattorin ottaa vastuun. Ohjeissa määrätään, että jos tarpeetonta vahinkoa aiheutuu, tekoälytulee voida pysäyttää ja antaa ihmisoperaattorin ottaa vastuun. Ehdotettujen periaatteiden luonnos suosittelee myös, että tekoälyjen tulosteiden on oltava jäljitettävissä, jotta analyytikot voivat nähdä, mitä johti tekoälyjen tekemään tiettyyn päätökseen.

Lautakunnan esittämät suositukset korostavat kahta eri ajatusta. Periaatteet heijastavat sitä, että tekoäly tulee olemaan olennainen osa tulevaisuuden sotilaallista toimintaa, mutta että suurin osa tekoälystä edellyttää edelleen ihmisten hallintaa ja päätöksentekoa.

Vaikka Pentagonilla ei ole pakko ottaa lautakunnan suosituksia vastaan, kuulostaakin siltä, että Pentagon ottaa suosituksia vakavasti. Wiredin mukaan Joint Artificial Intelligence Centerin johtaja, kenraali Jack Shanahan, totesi, että lautakunnan suositukset auttavat Pentagonia “ylläpitämään korkeimpia eettisiä standardeja, kuten DoD:n tekoälystrategiassa on määritelty, samalla kun se omaksuu Yhdysvaltain armeijan vahvan perinteen soveltamisesta teknologia-innovaatioiden kokeille ja kenttäkäyttöön”.

Teknologia-alalla valitetaan edelleen tekoälyn käyttöä sotilaallisen kaluston ja ohjelmistojen luomisessa. Microsoftin ja Googlen työntekijät ovat protestoineet yhteistyöstä sotilaallisten organisaatioiden kanssa, ja Google on vastikään päättänyt ei uusia sopimusta, jossa se osallistui Project Maveniin. Useat toimitusjohtajat, tutkijat, insinöörit ja tiedemiehet ovat allekirjoittaneet lupauksen “osallistumisesta tai tukemisesta tappavien autonomisten aseiden kehittämiseen, valmistukseen, kauppaan tai käyttöön”. Jos Pentagon ottaa lautakunnan ehdottamat ohjeet käyttöön, se saattaa tehdä teknologia-alan yhteistyön sotilaallisten projektien parissa helpommaksi, vaikka vain aika näyttää.

Blogger ja ohjelmoija, jolla on erityisalat Machine Learning ja Deep Learning -aiheissa. Daniel toivoo pystyvänsä auttamaan muita käyttämään tekoälyn voimaa sosiaaliseen hyvään.