csonk Az AI egzisztenciális fenyegetés? - Egyesüljetek.AI
Kapcsolatba velünk

Mesterséges általános intelligencia

Az AI egzisztenciális fenyegetés?

mm
korszerűsített on

Amikor a mesterséges intelligenciáról (AI) beszélünk, általános vita az, hogy az AI egzisztenciális fenyegetés-e. A válaszhoz meg kell érteni a Machine Learning (ML) mögött meghúzódó technológiát, és fel kell ismerni, hogy az emberek hajlamosak az antropomorfizálódásra. A mesterséges intelligencia két különböző típusát fogjuk megvizsgálni, a jelenleg elérhető és aggodalomra okot adó mesterséges keskeny intelligenciát (ANI), valamint azt a fenyegetést, amely a mesterséges intelligencia apokaliptikus megjelenítéséhez leggyakrabban társul, azaz a mesterséges általános intelligenciát (AGI).

Mesterséges keskeny intelligencia veszélyei

Ahhoz, hogy megértsük, mi az ANI, egyszerűen meg kell értenünk, hogy minden egyes jelenleg elérhető AI-alkalmazás az ANI egy formája. Ezek a mesterséges intelligencia azon területei, amelyeknek egy szűk szakterülete van, például az autonóm járművek mesterséges intelligenciát használnak, amelyet kizárólag arra terveztek, hogy egy járművet A pontból B-be mozgassanak. Az ANI egy másik típusa lehet egy játékra optimalizált sakkprogram. sakk, és még ha a sakkprogram folyamatosan fejleszti is magát a megerősítő tanulás segítségével, a sakkprogram soha nem lesz képes önálló járművet működtetni.

Mivel az ANI-rendszerek bármilyen műveletre összpontosítanak, amiért felelős, nem képesek az általánosított tanulást használni a világ uralma érdekében. Ez a jó hír; A rossz hír az, hogy az emberi kezelőre támaszkodó mesterséges intelligencia rendszer érzékeny az elfogult adatokra, az emberi hibára, vagy ami még rosszabb, a szélhámos emberi kezelőre.

AI felügyelet

Lehetséges, hogy nincs nagyobb veszély az emberiségre, mint az, ha mesterséges intelligencia segítségével megsértik a magánéletet, és bizonyos esetekben mesterséges intelligencia-felügyelettel teljesen megakadályozzák az emberek szabad mozgását.  Kína, Oroszország és más nemzetek szabályokon mentek keresztül a COVID-19 idején hogy figyelemmel kísérhessék és ellenőrizhessék saját népességük mozgását. Ezek olyan törvények, amelyeket ha egyszer életbe lépnek, nehéz eltávolítani, különösen azokban a társadalmakban, ahol autokratikus vezetők vannak.

Kínában a kamerák az emberek otthonain kívül vannak elhelyezve, bizonyos esetekben pedig az adott személy otthonában. Valahányszor a háztartás egy tagja távozik, egy mesterséges intelligencia figyeli az érkezés és távozás idejét, és szükség esetén riasztja a hatóságokat. Mintha ez nem lenne elég, az arcfelismerő technológia segítségével Kína minden egyes ember mozgását követni tudja, valahányszor egy kamera azonosítja őket. Ez abszolút hatalmat biztosít az MI-t irányító entitásnak, és abszolút zéró igénybevételt biztosít állampolgárai számára.

Miért veszélyes ez a forgatókönyv, az az, hogy a korrupt kormányok gondosan figyelemmel kísérhetik az újságírók, a politikai ellenfelek mozgását, vagy bárkit, aki meg meri kérdőjelezni a kormány tekintélyét. Könnyű megérteni, hogy az újságírók és a polgárok mennyire óvatosak a kormányok kritizálásával, amikor minden megmozdulást figyelnek.

Szerencsére sok város küzd azért, hogy megakadályozza az arcfelismerés beszivárgását városukba. Nevezetesen, Portland (Oregon állam) nemrégiben törvényt fogadott el amely megakadályozza, hogy az arcfelismerést szükségtelenül használják a városban. Bár ezek a szabályozási változások a nagyközönség számára észrevétlenül maradhattak, a jövőben ezek a szabályozások jelenthetik a különbséget a bizonyos típusú autonómiát és szabadságot kínáló városok és az elnyomónak érző városok között.

Autonóm fegyverek és drónok

Több mint 4500 mesterséges intelligenciakutatás sürgette az autonóm fegyverek betiltását, és létrehozta a Betiltsák a halálos autonóm fegyvereket weboldal. A csoportnak számos jelentős nonprofit szervezete van aláíróként, mint pl Human Rights Watch, Amnesty International, És a Az élet jövője intézet amelynek önmagában is van egy kiváló tudományos tanácsadó testülete, köztük Elon Musk, Nick Bostrom és Stuart Russell.

Mielőtt folytatnám, megosztom a The Future of Life Institute-ból származó idézetet, amely a legjobban megmagyarázza, miért van egyértelmű ok az aggodalomra: „Ellenben a félig autonóm fegyverekkel, amelyek emberi felügyeletet igényelnek annak biztosítására, hogy minden célpont etikai és jogilag legitimnek minősüljön, A teljesen autonóm fegyverek emberi beavatkozás nélkül választják ki a célpontokat és ütik fel azokat, ami a halálos sérülések teljes automatizálását jelenti. ”

Jelenleg az intelligens bombákat egy ember által kiválasztott célponttal vetik be, majd a bomba mesterséges intelligencia segítségével meghatározza az irányt, és leszáll a célpontjára. A probléma az, hogy mi történik, ha úgy döntünk, hogy az embert teljesen eltávolítjuk az egyenletből?

Amikor egy mesterséges intelligencia kiválasztja, hogy az embereknek mire van szüksége, valamint az elfogadhatónak ítélt járulékos károk típusát, akkor előfordulhat, hogy átléptünk egy olyan pontot, ahonnan nincs visszatérés. Ez az oka annak, hogy olyan sok mesterséges intelligenciakutató ellenzi, hogy bármit kutassanak, ami távolról kapcsolódik az autonóm fegyverekhez.

Számos probléma merül fel azzal, ha egyszerűen megpróbáljuk blokkolni az autonóm fegyverkutatást. Az első probléma az, hogy még ha olyan fejlett országok, mint Kanada, az USA és Európa nagy része úgy döntenek, hogy elfogadják a tilalmat, ez nem jelenti azt, hogy a szélhámos nemzetek, mint Kína, Észak-Korea, Irán és Oroszország együtt fognak játszani. A második és még nagyobb probléma az, hogy az AI-kutatás és -alkalmazások, amelyeket egy területen való használatra terveztek, egy teljesen független területen használhatók.

Például a számítógépes látás folyamatosan javul, és fontos az autonóm járművek fejlesztéséhez, a precíziós gyógyászathoz és más fontos használati esetekhez. Alapvetően fontos a hagyományos drónok vagy a drónok esetében is, amelyeket módosítani lehet, hogy autonómmá váljanak. A fejlett dróntechnológia egyik lehetséges felhasználási példája az erdőtüzek megfigyelésére és leküzdésére alkalmas drónok fejlesztése. Ez teljesen eltávolítaná a tűzoltókat a károktól. Ennek érdekében olyan drónokat kell építeni, amelyek képesek repülni az ártalmakba, navigálni gyenge vagy nulla látási viszonyok között, és kifogástalan precizitással képesek leereszteni a vizet. Nem túl messzire vezetni ezt az azonos technológiát egy autonóm drónban, amelyet arra terveztek, hogy szelektíven célozza meg az embereket.

Veszélyes helyzetről van szó, és jelenleg senki sem érti teljesen az autonóm fegyverek fejlesztésének előrehaladásának vagy megkísérlésének következményeit. Mindazonáltal ez olyasvalami, amire figyelnünk kell, és javítanunk kell sípolás elleni védelem lehetővé teheti a területen dolgozók számára a visszaélések bejelentését.

A szélhámos operátort leszámítva, mi történik, ha a mesterséges intelligencia torzítása bekúszik a mesterséges intelligencia technológiájába, amelyet autonóm fegyvernek terveztek?

AI torzítás

Az AI egyik leginkább be nem jelentett fenyegetése az AI torzítás. Ezt könnyű megérteni, mivel a legtöbb nem szándékos. A mesterséges intelligencia torzítása becsúszik, amikor a mesterséges intelligencia felülvizsgálja az emberek által bevitt adatokat, és a mesterséges intelligencia számára betáplált adatokból mintafelismerést használ, és az MI helytelenül jut olyan következtetésekre, amelyek negatív hatással lehetnek a társadalomra. Például egy mesterséges intelligencia, amely a múlt századi irodalmat táplálja az egészségügyi személyzet azonosításáról, arra a nem kívánt szexista következtetésre juthat, hogy a nők mindig ápolók, a férfiak pedig mindig orvosok.

Veszélyesebb forgatókönyv az, amikor Az elítélt bűnözők elítélésére használt mesterséges intelligencia elfogult a kisebbségek hosszabb börtönbüntetése felé. Az AI bűnügyi kockázatelemző algoritmusai egyszerűen a rendszerbe betáplált adatok mintáit tanulmányozzák. Ezek az adatok azt jelzik, hogy a történelem során bizonyos kisebbségek nagyobb valószínűséggel követnek el újbóli bűncselekményt, még akkor is, ha ennek oka a rossz adatkészlet, amelyet a rendőrség faji profilalkotása befolyásolhat. Az elfogult mesterséges intelligencia ezután megerősíti a negatív emberi politikákat. Ezért kell a mesterséges intelligencia iránymutatásnak lennie, soha nem ítélkezni és zsűrizni.

Visszatérve az autonóm fegyverekhez, ha van olyan mesterséges intelligencia, amely elfogult bizonyos etnikai csoportokkal szemben, akkor elfogult adatok alapján dönthet úgy, hogy bizonyos személyeket céloz meg, és odáig is eljuthat, hogy biztosítsa, hogy a járulékos károk bármely típusa kevésbé érintsen bizonyos demográfiai jellemzőket, mint mások. . Például, amikor egy terroristát céloznak meg, a támadás előtt megvárhatja, amíg a terroristát a keresztények helyett a muszlim hitet követők veszik körül.

Szerencsére bebizonyosodott, hogy a különböző csapatokkal tervezett AI kevésbé hajlamos az elfogultságra. Ez elegendő ok arra, hogy a vállalkozások, amikor csak lehetséges, megpróbáljanak egy változatos, jól összeállított csapatot felvenni.

Mesterséges általános intelligencia veszélyei

Meg kell állapítani, hogy miközben az AI exponenciális ütemben halad, még mindig nem értük el az AGI-t. Hogy mikor érjük el az AGI-t, az vita tárgyát képezi, és mindenkinek más a válasza az idővonalat illetően. Én személy szerint egyetértek Ray Kurzweil feltaláló, futurista és a „The Singularity is Near” szerzője nézeteivel, aki úgy gondolja, hogy 2029-re elérte az AGI-t.

Az AGI lesz a világ leginkább átalakító technológiája. A mesterséges intelligencia heteken belül eléri az emberi szintű intelligenciát szuperintelligencia amelyet az emberét messze felülmúló intelligenciaként határoznak meg.

Ilyen szintű intelligencia birtokában az AGI gyorsan felszívhatja az összes emberi tudást, és mintafelismeréssel azonosíthatja az egészségügyi problémákat okozó biomarkereket, majd adattudomány segítségével kezelheti ezeket a feltételeket. Olyan nanobotokat hozhat létre, amelyek a véráramba jutva rákos sejteket vagy más támadási vektorokat céloznak meg. Azon teljesítmények listája, amelyekre egy AGI képes, végtelen. Korábban megvizsgáltunk néhányat Az AGI előnyei.

A probléma az, hogy az emberek már nem tudják irányítani az AI-t. Elon Musk így írja le:A mesterséges intelligenciával megidézzük a démont.' A kérdés, hogy képesek leszünk-e irányítani ezt a démont?

Az AGI elérése egyszerűen lehetetlen lehet mindaddig, amíg egy mesterséges intelligencia nem hagyja el a szimulációs beállítást, hogy valóban kölcsönhatásba lépjen nyitott világunkban. Az önismeret nem tervezhető, ehelyett úgy gondolják, hogy egy kialakuló tudat Valószínűleg akkor alakul ki, ha egy mesterséges intelligencia több bemeneti adatfolyamot tartalmazó robottesttel rendelkezik. Ezek a bemenetek magukban foglalhatják a tapintható stimulációt, a hangfelismerést a természetes nyelv jobb megértésével és a kibővített számítógépes látást.

Lehet, hogy a fejlett mesterséges intelligencia altruista indítékokkal van programozva, és meg akarja menteni a bolygót. Sajnos az AI használhatja adat-tudomány, vagy akár a döntési fa nemkívánatos hibás logikára jutni, például annak felmérésére, hogy szükséges-e az emberek sterilizálása vagy az emberi populáció egy részének megszüntetése az emberi túlnépesedés ellenőrzése érdekében.

Alapos gondolkodásra és mérlegelésre van szükség, amikor olyan intelligenciával rendelkező mesterséges intelligenciát építünk, amely messze felülmúlja az emberét. Sok rémálom forgatókönyvet vizsgáltak meg.

Nick Bostrom professzor a Paperclip Maximizer érvben azzal érvelt, hogy egy rosszul konfigurált AGI, ha gemkapcsok gyártására utasítják, egyszerűen felemészti az összes földi erőforrást ezen iratkapcsok előállításához. Noha ez kissé távolinak tűnik, egy pragmatikusabb nézőpont szerint az AGI-t egy szélhámos állam vagy egy rossz etikával rendelkező vállalat irányíthatja. Ez az entitás megtaníthatja az AGI-t a profit maximalizálására, és ebben az esetben rossz programozással és lelkiismeret-furdalás nélkül dönthet úgy, hogy csődbe viszi a versenytársakat, megsemmisíti az ellátási láncokat, feltöri a tőzsdét, felszámolja a bankszámlákat, vagy megtámadja a politikai ellenfeleket.

Ilyenkor emlékeznünk kell arra, hogy az emberek hajlamosak antropomorfizálódni. Az MI-nek nem adhatunk emberi típusú érzelmeket, vágyakat vagy vágyakat. Bár vannak ördögi emberek, akik örömükből ölnek, nincs okunk azt hinni, hogy egy mesterséges intelligencia fogékony lenne az ilyen típusú viselkedésre. Elképzelhetetlen, hogy az emberek egyáltalán belegondoljanak, hogyan látná egy mesterséges intelligencia a világot.

Ehelyett azt kell megtanítanunk a mesterséges intelligencia számára, hogy mindig tisztelettudóan viselkedjen az emberrel szemben. Az AI-nak mindig rendelkeznie kell egy emberrel, aki megerősíti a beállítások módosításait, és mindig léteznie kell egy hibabiztos mechanizmusnak. Ugyanakkor azt állítják, hogy a mesterséges intelligencia egyszerűen replikálja magát a felhőben, és mire észrevesszük, hogy tisztában van vele, már késő lehet.

Ezért olyan fontos, hogy a lehető legtöbb mesterséges intelligencia forráskódját nyissa meg, és racionális megbeszéléseket folytassunk ezekről a kérdésekről.

Összegzésként

A mesterséges intelligencia előtt számos kihívás áll, szerencsére még sok évünk van arra, hogy közösen kitaláljuk azt a jövőbeli utat, amelyre az AGI-t be akarjuk vinni. Rövid távon arra kell összpontosítanunk, hogy sokszínű mesterséges intelligencia munkaerőt hozzunk létre, amelybe annyi nő, mint férfi, és minél több etnikai csoport, sokféle nézőponttal rendelkezik.

Ezenkívül létre kell hoznunk a bejelentők védelmét az AI-n dolgozó kutatók számára, és olyan törvényeket és rendeleteket kell elfogadnunk, amelyek megakadályozzák az állami vagy vállalati szintű felügyelettel való széles körű visszaélést. Az embereknek egyszer az életben lehetőségük van arra, hogy a mesterséges intelligencia segítségével javítsák az emberi állapotot, csak gondoskodnunk kell arról, hogy körültekintően hozzunk létre egy olyan társadalmi keretet, amely a legjobban lehetővé teszi a pozitívumot, miközben mérsékli az egzisztenciális fenyegetéseket is magában foglaló negatívumokat.

Az unite.AI alapító partnere és tagja Forbes Technológiai Tanács, Antoine a futurista aki szenvedélyesen rajong az AI és a robotika jövőjéért.

Ő az alapítója is Értékpapír.io, egy webhely, amely a bomlasztó technológiába való befektetésre összpontosít.