Connect with us

Tutkimusryhmä pyrkii luomaan selitettävän tekoälyä ydinaseiden leviämisen estämiseksi ja ydin turvallisuuden vuoksi

Tekoäly

Tutkimusryhmä pyrkii luomaan selitettävän tekoälyä ydinaseiden leviämisen estämiseksi ja ydin turvallisuuden vuoksi

mm

Pacific Northwest National Laboratoryn (PNNL) tutkijat yrittävät tehdä tekoälystä selitettävän ydinaseiden leviämisen estämiseksi ja kansallisen turvallisuuden vuoksi. Tavoitteena on tehdä tekoälymallien antamat päätökset avoimiksi kaikissa ydin turvallisuuden kannalta merkittävissä päätöksissä.

Enemmän kuin koskaan aiemmin kiinnitetään huomiota selitettävien tekoälymallien tärkeyteen pyrkimyksessä ratkaista tekoälyoppien ”musta laatikko” -ongelma. Tekoälymallit luotetaan usein tekemään monimutkaisia päätöksiä, vaikka niiden toteuttamisesta vastaavat henkilöt eivät ymmärrä päätösten taustalla olevaa syytä. Mitä suurempi on katastrofin tai vaaran potentiaali, jonka yhteydessä päätöksiä tehdään, sitä tärkeämpää on, että päätösten taustalla oleva syy on avoimasti selitettävissä.

Ei välttämättä ole tarpeen ymmärtää luokittelun taustalla olevaa syytä, jos tekoälysovellus tekee jotain yhtä yksinkertaista kuin hedelmien luokittelua, mutta tapauksissa, jotka liittyvät ydinaseisiin tai ydinmateriaalin tuotantoon, on parempi avata musta laatikko, joka on käytössä näissä tilanteissa.

PNNL:n tutkijat työskentelevät tekoälyn selitettävyyden parantamiseksi käyttäen uusia tekniikoita. Tutkijat työskentelevät yhteistyössä Department of Energyn National Nuclear Security Administrationin (NNSA) Office of Defense Nuclear Nonproliferation Research and Developmentin (DNN R&D) kanssa. DNN R&D vastaa Yhdysvaltojen kyvystä valvoa ja havaita ydinmateriaalin tuotantoa, ydinaseiden kehittämistä ja ydinaseiden räjähtämistä maailmanlaajuisesti.

Ottaen huomioon, miten suuret riskit liittyvät ydinaseiden leviämisen estämiseen liittyviin kysymyksiin, on kriittistä tietää, miten tekoälyjärjestelmä saa johtopäätöksensä näistä kysymyksistä. Angie Sheffield on vanhempi ohjelmajohtaja DNN R&D:ssä. Sheffieldin mukaan uusien teknologioiden, kuten tekoälymallien, sisällyttäminen perinteisiin tieteellisiin menetelmiin ja kehyksiin voi usein olla haasteellista, mutta prosessi voidaan tehdä helpommaksi suunnittelemalla uusia tapoja vuorovaikuttaa näiden järjestelmien kanssa. Sheffield väittää, että tutkijoiden tulisi luoda työkaluja, jotka mahdollistavat kehittäjien ymmärtämisen, miten nämä monimutkaiset tekniikat toimivat.

Ydinräjähdysten ja ydinaseiden kehittämisen liittyvän datan suhteellinen niukkuus tekee selitettävän tekoälyn entistä tärkeämmäksi. Tekoälymallien kouluttaminen tässä tilanteessa johtaa malleihin, jotka saattavat olla vähemmän luotettavia verrattuna esimerkiksi kasvojen tunnistamiseen. Tämän seurauksena jokainen prosessin vaihe, jonka malli käyttää päätöksenteossa, on tarkasteltavissa.

PNNL:n tutkija Mark Greaves selitti, että ydinaseiden leviämiseen liittyvät riskit vaativat järjestelmää, joka voi kertoa ihmisille, miksi tietty vastaus on valittu.

Kuten Greaves selitti EurekaAlertissa:

”Jos tekoälyjärjestelmä antaa virheellisen todennäköisyyden siitä, onko kansalla ydinase, se on ongelma aivan toista luokkaa. Joten järjestelmämme on tuotettava selityksiä, jotta ihmiset voivat tarkastaa sen johtopäätöksiä ja käyttää omaa asiantuntemustaan korjaamaan tekoälykoulutuksen aukkoja, jotka johtuvat datan niukkuudesta.”

Kuten Sheffield selitti, PNNL:llä on kaksi vahvuutta, jotka auttavat ratkaisemaan tämän ongelman. Ensinnäkin PNNL:llä on merkittävä kokemus tekoälyalalla. Lisäksi tiimiellä on merkittävää alan tuntemusta ydinmateriaaleihin ja aseisiin liittyen. PNNL-tiimi ymmärtää asioita, kuten plutoniumin jalostusta ja ydinaseiden kehittämiseen liittyviä signaaleja. Tekoälykokemuksen, kansallisen turvallisuuden kokemuksen ja ydin alan tuntemuksen yhdistelmä tekee PNNL:stä ainutlaatuisen ydin kansallisen turvallisuuden ja tekoälyä koskevissa asioissa.

Blogger ja ohjelmoija, jolla on erityisalat Machine Learning ja Deep Learning -aiheissa. Daniel toivoo pystyvänsä auttamaan muita käyttämään tekoälyn voimaa sosiaaliseen hyvään.