tynkä Onko tekoäly eksistentiaalinen uhka? - Unite.AI
Liity verkostomme!

Keinotekoinen yleinen älykkyys

Onko tekoäly eksistentiaalinen uhka?

mm
Päivitetty on

Kun puhutaan tekoälystä (AI), yleinen keskustelu on siitä, onko tekoäly eksistentiaalinen uhka. Vastaus edellyttää koneoppimisen (ML) taustalla olevan teknologian ymmärtämistä ja sen tunnustamista, että ihmisillä on taipumus antropomorfisoitua. Tutkimme kahta eri tyyppistä tekoälyä, nyt saatavilla olevaa ja huolestuttavaa tekoälyä (ANI) ja tekoälyä, joka on yleisin tekoäly (AGI), joka liittyy yleisimmin apokalyptisiin tekoälyihin.

Keinotekoisen kapeaa älykkyyttä koskevat uhkat

Ymmärtääksesi, mikä ANI on, sinun on yksinkertaisesti ymmärrettävä, että jokainen tällä hetkellä saatavilla oleva tekoälysovellus on ANI-muoto. Nämä ovat tekoälyn aloja, joilla on kapea erikoisala, esimerkiksi autonomiset ajoneuvot käyttävät tekoälyä, jonka ainoana tarkoituksena on siirtää ajoneuvo paikasta A paikkaan B. Toinen ANI-tyyppi voi olla shakkiohjelma, joka on optimoitu pelaamaan shakkia, ja vaikka shakkiohjelma jatkuvasti parantaa itseään vahvistusoppimisen avulla, shakkiohjelma ei koskaan pysty käyttämään autonomista ajoneuvoa.

Koska ANI-järjestelmät keskittyvät mihin tahansa toimintaan, josta se on vastuussa, ne eivät pysty käyttämään yleistettyä oppimista valtaakseen maailman. Se on hyvä uutinen; huono uutinen on se, että tekoälyjärjestelmä on riippuvainen ihmisoperaattorista, ja se on altis puolueelliselle tiedolle, inhimillisille virheille tai vielä pahempaa, roistolle ihmisoperaattorille.

AI-valvonta

Ihmiskunnalle ei välttämättä ole suurempaa vaaraa kuin ihmiset, jotka käyttävät tekoälyä loukkaamaan yksityisyyttä ja joissakin tapauksissa tekoälyvalvontaa estääkseen täysin ihmisiä liikkumasta vapaasti.  Kiina, Venäjä ja muut maat läpäisivät säädökset COVID-19:n aikana jotta ne voivat seurata ja valvoa oman väestönsä liikkumista. Nämä ovat lakeja, joita on vaikea poistaa, varsinkin yhteiskunnissa, joissa on itsevaltaisia ​​johtajia.

Kiinassa kamerat sijoitetaan ihmisten kodin ulkopuolelle ja joissain tapauksissa kodin sisälle. Joka kerta kun perheenjäsen lähtee, tekoäly tarkkailee saapumis- ja lähtöaikaa ja hälyttää tarvittaessa viranomaisia. Ikään kuin se ei olisi riittänyt, Kiina pystyy seuraamaan kasvojentunnistusteknologian avulla jokaisen henkilön liikettä aina, kun hänet tunnistetaan kameralla. Tämä tarjoaa absoluuttisen vallan tekoälyä hallitsevalle taholle ja täysin nolla turvaa kansalaisilleen.

Miksi tämä skenaario on vaarallinen, johtuu siitä, että korruptoituneet hallitukset voivat tarkkailla toimittajien, poliittisten vastustajien tai kenen tahansa, joka uskaltaa kyseenalaistaa hallituksen auktoriteetin, liikkeitä. On helppo ymmärtää, kuinka toimittajat ja kansalaiset olisivat varovaisia ​​kritisoimaan hallituksia, kun jokaista liikettä valvotaan.

Onneksi monet kaupungit taistelevat estääkseen kasvojentunnistusta soluttautumasta kaupunkeihinsa. Erityisesti Portland, Oregon on hiljattain hyväksynyt lain joka estää kasvojentunnistuksen tarpeettoman käytön kaupungissa. Vaikka nämä säädösten muutokset ovat saattaneet jäädä suurelta yleisöltä huomaamatta, tulevaisuudessa nämä säännökset voivat olla ero kaupunkien välillä, jotka tarjoavat jonkinlaista autonomiaa ja vapautta, ja kaupunkien välillä, jotka tuntevat itsensä sortaaksi.

Autonomiset aseet ja droonit

Yli 4500 tekoälytutkimusta on vaatinut autonomisten aseiden kieltämistä ja luonut Kieltää tappavat autonomiset aseet verkkosivusto. Ryhmällä on allekirjoittajina monia merkittäviä voittoa tavoittelemattomia järjestöjä, kuten Human Rights Watch, Amnesty International, ja Elämän tulevaisuus -instituutti jolla itsessään on loistava tieteellinen neuvottelukunta, mukaan lukien Elon Musk, Nick Bostrom ja Stuart Russell.

Ennen kuin jatkan, jaan tämän lainauksen The Future of Life Institutesta, joka selittää parhaiten, miksi on selvää syytä huoleen: "Toisin kuin puoliautonomiset aseet, jotka vaativat ihmisen valvontaa varmistaakseen, että jokainen kohde vahvistetaan eettisesti ja laillisesti legitiimiksi, Täysin itsenäiset aseet valitsevat ja iskevät kohteet ilman ihmisen väliintuloa, mikä edustaa tappavien haittojen täydellistä automatisointia. ”

Tällä hetkellä älypommeja käytetään ihmisen valitseman kohteen kanssa, ja sitten pommi käyttää tekoälyä suunnitellakseen kurssin ja laskeutuakseen kohteeseensa. Ongelmana on, mitä tapahtuu, kun päätämme poistaa ihmisen kokonaan yhtälöstä?

Kun tekoäly valitsee, mihin ihmiset tarvitsevat kohdistusta, sekä hyväksyttäväksi katsotun sivuvahingon tyypin, olemme saaneet ylittää pisteen, josta ei ole paluuta. Tästä syystä niin monet tekoälytutkijat vastustavat kaiken, mikä liittyy etäisesti autonomisiin aseisiin, tutkimusta.

On useita ongelmia, kun yritetään yksinkertaisesti estää autonominen asetutkimus. Ensimmäinen ongelma on, vaikka kehittyneet maat, kuten Kanada, Yhdysvallat ja suurin osa Euroopasta päättävät hyväksyä kiellon, se ei tarkoita, että roistovaltiot, kuten Kiina, Pohjois-Korea, Iran ja Venäjä, osallistuisivat siihen. Toinen ja isompi ongelma on se, että tekoälytutkimusta ja sovelluksia, jotka on suunniteltu käytettäväksi yhdellä alalla, voidaan käyttää täysin toisella alalla.

Esimerkiksi tietokonenäkö paranee jatkuvasti ja on tärkeä autonomisten ajoneuvojen kehittämisessä, tarkkuuslääketieteessä ja muissa tärkeissä käyttötapauksissa. Se on myös erittäin tärkeää tavallisille droneille tai droneille, joita voidaan muokata itsenäisiksi. Yksi kehittyneen drone-teknologian mahdollinen käyttötapa on kehittää droneita, jotka voivat valvoa ja torjua metsäpaloja. Tämä poistaisi palomiehet täysin vahingoilta. Tätä varten sinun on rakennettava droneja, jotka pystyvät lentämään haittojen tielle, navigoimaan heikossa tai nollanäkyvyydessä ja pystyvät pudottamaan vettä moitteettomasti. Tämän identtisen tekniikan käyttäminen autonomisessa dronessa, joka on suunniteltu valikoivasti ihmisiin, ei ole pitkä venytys.

Se on vaarallinen ahdinko, ja tällä hetkellä kukaan ei täysin ymmärrä itsenäisten aseiden kehityksen edistämisen tai estämisen seurauksia. Se on kuitenkin jotain, jota meidän on pidettävä silmällämme ja parannettava vihellyspuhaltimen suoja voivat antaa alan toimijoille mahdollisuuden ilmoittaa väärinkäytöksistä.

Rogue-operaattori syrjään, mitä tapahtuu, jos AI-harha hiipii tekoälyteknologiaan, joka on suunniteltu itsenäiseksi aseeksi?

AI Bias

Yksi raportoimattomimmista tekoälyn uhista on AI-harha. Tämä on helppo ymmärtää, koska suurin osa siitä on tahatonta. Tekoälyn harha liukuu sisään, kun tekoäly tarkastaa ihmisten sille syöttämiä tietoja käyttämällä hahmontunnistusta tekoälylle syötetyistä tiedoista. Tekoäly tekee virheellisiä johtopäätöksiä, joilla voi olla kielteisiä vaikutuksia yhteiskuntaan. Esimerkiksi tekoäly, jolle syötetään menneen vuosisadan kirjallisuutta lääkintähenkilöstön tunnistamisesta, voi tehdä ei-toivotun seksistisen johtopäätöksen, että naiset ovat aina sairaanhoitajia ja miehet aina lääkäreitä.

Vaarallisempi skenaario on milloin Tuomittujen rikollisten tuomitsemiseen käytetty tekoäly on puolueellinen pidempiä vankeusrangaistuksia vähemmistöille. Tekoälyn rikollisten riskien arviointialgoritmit tutkivat yksinkertaisesti järjestelmään syötetyn datan malleja. Nämä tiedot osoittavat, että historiallisesti tietyt vähemmistöt ovat todennäköisemmin rikollisia, vaikka tämä johtuu huonoista tietokokonaisuuksista, joihin poliisin rotuprofilointi saattaa vaikuttaa. Puolueellinen tekoäly vahvistaa sitten negatiivista inhimillistä politiikkaa. Siksi tekoälyn tulisi olla ohjenuora, ei koskaan tuomita ja tuomaristo.

Palatakseni autonomisiin aseisiin, jos meillä on tekoäly, joka on puolueellinen tiettyjä etnisiä ryhmiä kohtaan, se voisi kohdistaa kohdistaakseen tiettyjä henkilöitä puolueellisten tietojen perusteella, ja se voisi mennä niin pitkälle, että varmistetaan, että kaikenlaiset sivuvahingot vaikuttavat tiettyihin väestöryhmiin vähemmän kuin toiset. . Esimerkiksi terroristiin kohdistettaessa se voisi ennen hyökkäämistä odottaa, kunnes terroristin ympärillä on kristittyjen sijaan muslimiuskoa noudattavia.

Onneksi on todistettu, että eri tiimien kanssa suunniteltu tekoäly on vähemmän altis harhaan. Tämä on riittävä syy yrityksille yrittää mahdollisuuksien mukaan palkata monipuolinen ja monipuolinen tiimi.

Yleisen tekoälyn uhkat

On todettava, että vaikka tekoäly etenee eksponentiaalisesti, emme ole vieläkään saavuttaneet AGI:tä. Siitä, milloin saavutamme AGI:n, keskustellaan, ja jokaisella on erilainen vastaus aikajanaan. Yhdyn henkilökohtaisesti Ray Kurzweilin, keksijän, futuristin ja The Singularity is Near -kirjan kirjoittajan näkemyksiin. Hän uskoo, että meillä on saavuttanut AGI:n vuoteen 2029 mennessä.

AGI tulee olemaan maailman mullistavin teknologia. Viikon sisällä siitä, kun tekoäly on saavuttanut ihmistason älykkyyden, se saavuttaa sen huipputiede joka määritellään älykkyydeksi, joka ylittää paljon ihmisen älyn.

Tällä älykkyystasolla AGI voisi nopeasti omaksua kaiken ihmistiedon ja käyttää hahmontunnistusta terveysongelmia aiheuttavien biomarkkereiden tunnistamiseen ja sitten hoitaa näitä tiloja datatieteen avulla. Se voisi luoda nanobotteja, jotka pääsevät verenkiertoon kohdistamaan syöpäsoluja tai muita hyökkäysvektoreita. Lista saavutuksista, joihin AGI pystyy, on ääretön. Olemme aiemmin tutkineet joitain AGI:n edut.

Ongelmana on, että ihmiset eivät ehkä enää pysty hallitsemaan tekoälyä. Elon Musk kuvailee sitä näin:Tekoälyllä kutsumme demonin.' Pystymmekö hallitsemaan tätä demonia, on kysymys?

AGI:n saavuttaminen voi olla yksinkertaisesti mahdotonta, ennen kuin tekoäly jättää simulaatioasetuksen todelliseen vuorovaikutukseen avoimessa maailmassamme. Itsetietoisuutta ei voida suunnitella, sen sijaan uskotaan, että an esiintuleva tietoisuus todennäköisesti kehittyy, kun tekoälyllä on robottirunko, jossa on useita syöttövirtoja. Näihin tuloihin voi sisältyä kosketusstimulaatio, äänentunnistus ja parannettu luonnollisen kielen ymmärtäminen ja laajennettu tietokonenäkö.

Kehittynyt tekoäly voidaan ohjelmoida altruistisilla motiiveilla ja haluta pelastaa planeetta. Valitettavasti tekoäly voi käyttää tietojenkäsittely, tai jopa a päätöspuu saavuttaa ei-toivottu virheellinen logiikka, kuten arvioida, että on tarpeen steriloida ihmiset tai eliminoida osa ihmispopulaatiosta ihmisten ylikansoituksen hallitsemiseksi.

Huolellista ajattelua ja harkintaa on tutkittava, kun rakennetaan tekoälyä, jonka älykkyys ylittää paljon ihmisen älyn. On ollut monia painajaisskenaarioita, joita on tutkittu.

Professori Nick Bostrom Paperclip Maximizer -argumentissa on väittänyt, että väärin konfiguroitu AGI, jos sitä kehotetaan valmistamaan paperiliittimiä, kuluttaisi yksinkertaisesti kaikki maapallon resurssit näiden paperiliittimien tuottamiseen. Vaikka tämä näyttää hieman kaukaa haetulta, pragmaattisempi näkemys on, että AGI:tä voisi hallita roistovaltio tai yritys, jolla on huono etiikka. Tämä taho voisi kouluttaa AGI:n maksimoimaan voitot, ja tässä tapauksessa huonolla ohjelmoinnilla ja ilman katumusta se voisi päättää ajaa kilpailijat konkurssiin, tuhota toimitusketjut, hakkeroida osakemarkkinoita, likvidoida pankkitilejä tai hyökätä poliittisia vastustajia vastaan.

Silloin meidän on muistettava, että ihmisillä on taipumus antropomorfisoitua. Emme voi antaa tekoälylle ihmistyyppisiä tunteita, haluja tai toiveita. Vaikka on pirullisia ihmisiä, jotka tappavat huvikseen, ei ole mitään syytä uskoa, että tekoäly olisi altis tämän tyyppiselle käytökselle. On mahdotonta ajatella, että ihmiset edes ajattelevat, kuinka tekoäly näkisi maailman.

Sen sijaan meidän on opetettava tekoäly olemaan aina kunnioittava ihmistä kohtaan. Tekoälyn tulee aina antaa ihmisen vahvistaa kaikki asetusten muutokset, ja aina tulee olla vikaturvallinen mekanismi. Toisaalta on väitetty, että tekoäly yksinkertaisesti replikoi itsensä pilvessä, ja siihen mennessä, kun ymmärrämme sen olevan tietoinen, voi olla liian myöhäistä.

Tästä syystä on niin tärkeää, että tekoäly on avoimessa lähdekoodissa mahdollisimman paljon ja näistä asioista käydään rationaalista keskustelua.

Yhteenveto

Tekoälyllä on monia haasteita, onneksi meillä on vielä monta vuotta aikaa yhdessä selvittää tulevaisuuden polku, jonka haluamme AGI:n kulkevan. Meidän tulisi lyhyellä aikavälillä keskittyä monipuolisen tekoälytyövoiman luomiseen, johon kuuluu niin paljon naisia ​​kuin miehiä ja mahdollisimman monta etnistä ryhmää, joilla on erilaisia ​​näkökulmia.

Meidän pitäisi myös luoda ilmiantajien suojauksia tekoälyn parissa työskenteleville tutkijoille, ja meidän pitäisi antaa lakeja ja määräyksiä, jotka estävät valtion tai yrityksen laajuisen valvonnan laajamittaisen väärinkäytön. Ihmisillä on kerran elämässä mahdollisuus parantaa ihmisen tilaa tekoälyn avulla, meidän on vain huolehdittava siitä, että luomme huolellisesti yhteiskunnalliset puitteet, jotka mahdollistavat parhaiten positiiviset asiat, samalla kun lievennämme negatiivisia, joihin sisältyy eksistentiaalisia uhkia.

Unite.AI:n perustajaosakas ja jäsen Forbes Technology Council, Antoine on a futurist joka on intohimoinen tekoälyn ja robotiikan tulevaisuudesta.

Hän on myös perustaja Securities.io, verkkosivusto, joka keskittyy investoimaan häiritsevään teknologiaan.