AGI
Tutkijat sanovat, että ihmiset eivät pystyisi hallitsemaan yliälykkästä tekoälyä

Kuka tahansa, joka on tietoinen tekoälystä (AI), on luultavasti kuullut jonkin version siitä, että se lopulta vapautuu ihmisen hallinnasta. Tämä ei ole vain tieteiskuvien aihe, vaan todellinen mahdollisuus, josta moni asiantuntija alalla on huolissaan. Monet näistä asiantuntijoista, mukaan lukien tutkijat, ovat sitä mieltä, että meidän tulisi valmistautua tähän mahdollisuuteen ja välttää sitä kaikin mahdollisin tavoin.
Nyt kansainvälinen tutkijaryhmä on ottanut tämän idean ja tukenut sitä teoreettisilla laskelmin. Ryhmä, johon kuului tutkijoita Max Planck -instituutin Center for Humans and Machines -yksiköstä, käytti näitä laskelmia osoittamaan, ettei yliälykkään tekoälyn hallitseminen ole mahdollista.
Tutkimus julkaistiin äskettäin Journal of Artificial Intelligence Research -julkaisussa.
Yliälykäs tekoälyjärjestelmä
Peluuta yliälykkäästä tekoälyjärjestelmästä johtuu siitä, että sellainen järjestelmä olisi paljon ihmisyyttä edellä. Se pystyisi oppimaan itsenäisesti ja pääsisi käsiksi kaikkiin olemassa oleviin tietoihin ja pystyisi käsittelemään ne erittäin nopeasti.
Tällainen tapahtuma voisi johtaa siihen, että yliälykäs tekoäly ottaa hallinnan kaikista olemassa olevista koneista verkossa, ja vaikka se voisi ja tekisi asioita, kuten parantaa tauteja ja ratkaista muita suuria ongelmia, jotka ihmiskunnalle ovat haasteita, riski siitä, että asiat menevät hallinnasta, on myös suuri.
Manuel Cebrian on tutkimuksen yhteiskirjoittaja ja Digital Mobilization Group -ryhmän johtaja Center for Humans and Machines -yksikössä, Max Planck -instituutissa.
“Yliälykäs kone, joka hallitsee maailmaa, kuulostaa tieteiskuvitelmalta. Mutta on jo koneita, jotka suorittavat tiettyjä tärkeitä tehtäviä itsenäisesti ilman, että ohjelmoijat täysin ymmärtävät, miten ne oppivat sen. Kysymys on siis, voiko tämä jossain vaiheessa tulla hallitsemattomaksi ja vaaralliseksi ihmiskunnalle”, Cebrian sanoo.
Järjestelmän hallitseminen
On kaksi pääasiallista koulukuntaa siinä, miten sellaisen järjestelmän hallitseminen on mahdollista. Ensinnäkin ihmiset voivat rajoittaa yliälykkään tekoälyn kykyjä rajoittamalla sen pääsyä tiettyihin tietolähteisiin, kuten koko internetiin. Järjestelmä voisi toimia myös ilman, että se tulee kosketuksiin ulkomaailman kanssa. On kuitenkin ongelma, että se rajoittaisi järjestelmän potentiaalia dramaattisesti.
Järjestelmää voidaan hallita sallimalla sille vain tavoitteiden mukaista toimintaa, joka hyödyttäisi ihmiskuntaa, ja tämä voidaan tehdä ohjelmoiden eettisiä periaatteita siihen.
Tutkimuksessa ryhmä kehitti teoreettisen sisältöalgoritmin, joka estää yliälykkään tekoälyn vahingoittamasta ihmisiä millään tavoin. Tämä voidaan saavuttaa luomalla ensin simulaatio tekoälyn käyttäytymisestä ja havaitsemalla kaikki käyttäytyminen, joka voisi olla haitallista. Vaikka tämä teoria on lupaava, nykyinen analyysi osoittaa, ettei sellaista algoritmia voida kehittää.
Iyad Rahwan on Center for Humans and Machines -yksikön johtaja.
“Jos jaetaan ongelma perusääniin teoreettisesta tietokoneiden tieteestä, käy ilmi, että algoritmi, joka käskee tekoälyä olemaan tuhoamatta maailmaa, voi vahingossa lopettaa oman toimintansa. Jos tämä tapahtuu, et tiedä, onko sisältöalgoritmi edelleen analysoimassa uhkaa vai onko se lopettanut toimintansa. Vaikutuksesta algoritmi on käyttökelvoton”, Rahwan sanoo.
Toinen ongelma on, että asiantuntijat eivät ehkä edes tajua, kun yliälykäs kone saavuttaa tämän tilan, pääasiassa sen vuoksi, että se on älykkäämpää kuin ihmiset.












