výhonek Je umělá inteligence existenční hrozbou? - Spojte se.AI
Spojte se s námi

Umělá obecná inteligence

Je umělá inteligence existenční hrozbou?

mm
aktualizováno on

Při diskusi o umělé inteligenci (AI) se často diskutuje o tom, zda je umělá inteligence existenční hrozbou. Odpověď vyžaduje pochopení technologie strojového učení (ML) a uznání, že lidé mají tendenci antropomorfizovat. Prozkoumáme dva různé typy umělé inteligence, umělou úzkou inteligenci (ANI), která je nyní k dispozici a je důvodem k obavám, a hrozbu, která je nejčastěji spojována s apokalyptickým ztvárněním umělé inteligence, což je umělá všeobecná inteligence (AGI).

Hrozby umělé inteligence

Abyste pochopili, co je ANI, musíte jednoduše pochopit, že každá jednotlivá aplikace AI, která je v současné době k dispozici, je formou ANI. Jedná se o oblasti umělé inteligence, které mají úzkou oblast specializace, například autonomní vozidla používají umělou inteligenci, která je navržena s jediným účelem přesunout vozidlo z bodu A do bodu B. Dalším typem ANI může být šachový program, který je optimalizován pro hraní šachy, a i když se šachový program neustále zdokonaluje pomocí posilovacího učení, šachový program nikdy nebude schopen řídit autonomní vozidlo.

Vzhledem k tomu, že se systémy ANI zaměřují na jakoukoli operaci, za kterou jsou zodpovědné, nejsou schopny používat zobecněné učení k tomu, aby převzaly kontrolu nad světem. To je dobrá zpráva; špatná zpráva je, že díky své závislosti na lidském operátorovi je systém umělé inteligence náchylný na zkreslená data, lidskou chybu nebo ještě hůře na nepoctivého lidského operátora.

AI dohled

Pro lidstvo nemusí být větší nebezpečí, než když lidé používají AI k narušení soukromí a v některých případech využívají AI dohled k úplnému zabránění lidem ve volném pohybu.  Čína, Rusko a další země prošly během COVID-19 předpisy umožnit jim sledovat a řídit pohyb jejich příslušných populací. Jsou to zákony, které jakmile budou zavedeny, je těžké je odstranit, zvláště ve společnostech, kde jsou autokratičtí vůdci.

V Číně jsou kamery umístěny mimo domovy lidí a v některých případech i uvnitř domu dané osoby. Pokaždé, když člen domácnosti odejde, AI sleduje čas příjezdu a odjezdu a v případě potřeby upozorní úřady. Jako by to nestačilo, s pomocí technologie rozpoznávání obličeje je Čína schopna sledovat pohyb každého člověka pokaždé, když je identifikován kamerou. To nabízí absolutní moc entitě ovládající AI a naprosto nulové využití pro její občany.

Proč je tento scénář nebezpečný, spočívá v tom, že zkorumpované vlády mohou pečlivě sledovat pohyb novinářů, politických oponentů nebo kohokoli, kdo se odváží zpochybnit autoritu vlády. Je snadné pochopit, jak by byli novináři a občané opatrní, aby kritizovali vlády, když je každé hnutí monitorováno.

Naštěstí existuje mnoho měst, která bojují za to, aby do jejich měst neproniklo rozpoznávání obličejů. Zejména, Portland, Oregon nedávno schválil zákon která brání zbytečnému používání rozpoznávání obličejů ve městě. I když tyto změny v regulaci mohly zůstat bez povšimnutí široké veřejnosti, v budoucnu by tyto regulace mohly být rozdílem mezi městy, která nabízejí určitý typ autonomie a svobody, a městy, která se cítí utlačovatelská.

Autonomní zbraně a drony

Více než 4500 výzkumníků AI požadovalo zákaz autonomních zbraní a vytvořili je Zakázat smrtící autonomní zbraně webová stránka. Skupina má mnoho významných neziskových organizací jako signatáři jako např Human Rights Watch, Amnesty InternationalA Institut budoucnosti života která sama o sobě má hvězdnou vědeckou poradní radu včetně Elona Muska, Nicka Bostroma a Stuarta Russella.

Než budu pokračovat, podělím se o tento citát z The Future of Life Institute, který nejlépe vysvětluje, proč existuje jasný důvod k obavám: „Na rozdíl od poloautonomních zbraní, které vyžadují lidský dohled, aby bylo zajištěno, že každý cíl bude ověřen jako eticky a právně legitimní, např. plně autonomní zbraně vybírají a zasahují cíle bez lidského zásahu, což představuje úplnou automatizaci smrtelného poškození. “

V současné době jsou chytré bomby rozmístěny s cílem vybraným člověkem a bomba pak používá AI k vytyčení kurzu a přistání na svůj cíl. Problém je, co se stane, když se rozhodneme úplně odstranit člověka z rovnice?

Když si AI vybere, co lidé potřebují zaměřit, a také typ vedlejšího poškození, který je považován za přijatelný, možná jsme překročili bod, odkud není návratu. To je důvod, proč se tolik výzkumníků AI staví proti zkoumání čehokoli, co vzdáleně souvisí s autonomními zbraněmi.

Existuje mnoho problémů s jednoduchým pokusem zablokovat výzkum autonomních zbraní. Prvním problémem je, že i když se vyspělé země jako Kanada, USA a většina Evropy rozhodnou se zákazem souhlasit, neznamená to, že s tím budou hrát nepoctivé národy jako Čína, Severní Korea, Írán a Rusko. Druhým a větším problémem je, že výzkum a aplikace AI, které jsou navrženy pro použití v jedné oblasti, mohou být použity v oblasti zcela nesouvisející.

Počítačové vidění se například neustále zlepšuje a je důležité pro vývoj autonomních vozidel, přesné medicíny a dalších důležitých případů použití. Je také zásadně důležité pro běžné drony nebo drony, které by mohly být upraveny tak, aby se staly autonomními. Jedním z potenciálních případů použití pokročilé technologie dronů je vývoj dronů, které mohou monitorovat lesní požáry a bojovat s nimi. To by zcela odstranilo hasiče z cesty škod. Abyste toho dosáhli, museli byste sestrojit drony, které jsou schopny létat do nebezpečných cest, navigovat za nízké nebo nulové viditelnosti a jsou schopny pouštět vodu s dokonalou přesností. Není příliš daleko k použití této identické technologie v autonomním dronu, který je navržen tak, aby selektivně cílil na lidi.

Je to nebezpečná situace a v tuto chvíli nikdo plně nechápe důsledky postupu nebo pokusu zablokovat vývoj autonomních zbraní. Je to nicméně něco, na co musíme dávat pozor a co zlepšovat ochrana oznamovatele může umožnit osobám v terénu hlásit zneužití.

Pomineme-li nepoctivého operátora, co se stane, když se do technologie umělé inteligence, která je navržena jako autonomní zbraň, vplíží zaujatost AI?

AI zaujatost

Jednou z nejvíce nehlášených hrozeb AI je zkreslení AI. To je snadno pochopitelné, protože většina z toho je neúmyslná. Zkreslení umělé inteligence vklouzne, když AI kontroluje data, která jí jsou podávána lidmi, pomocí rozpoznávání vzorů z dat, která byla předávána AI, AI nesprávně dospívá k závěrům, které mohou mít negativní dopady na společnost. Například umělá inteligence, která je krmena literaturou z minulého století o tom, jak identifikovat zdravotnický personál, může dojít k nežádoucímu sexistickému závěru, že ženy jsou vždy zdravotní sestry a muži jsou vždy lékaři.

Nebezpečnější scénář je kdy AI, která se používá k odsouzení odsouzených zločinců, je neobjektivní k udělování delších trestů odnětí svobody pro menšiny. Algoritmy hodnocení kriminálních rizik AI jednoduše studují vzorce v datech, která byla vložena do systému. Tyto údaje naznačují, že historicky určité menšiny mají větší pravděpodobnost, že se znovu dopustí trestného činu, i když je to způsobeno špatnými datovými soubory, které mohou být ovlivněny policejním rasovým profilováním. Zaujatá AI pak posiluje negativní lidskou politiku. To je důvod, proč by umělá inteligence měla být vodítkem, nikdy nesoudit a posuzovat.

Vrátíme-li se k autonomním zbraním, pokud máme AI, která je zaujatá vůči určitým etnickým skupinám, mohla by se rozhodnout zacílit na určité jednotlivce na základě neobjektivních údajů a mohlo by to jít tak daleko, že by zajistilo, že jakýkoli druh vedlejších škod bude mít dopad na určitou demografickou skupinu méně než na ostatní. . Například při zaměřování na teroristu může před útokem počkat, až bude terorista obklopen těmi, kdo vyznávají muslimskou víru namísto křesťanů.

Naštěstí bylo prokázáno, že umělá inteligence, která je navržena pro různé týmy, je méně náchylná ke zkreslení. To je dostatečný důvod pro to, aby se podniky pokusily, pokud je to možné, najmout různorodý, dobře vyladěný tým.

Hrozby umělé inteligence

Je třeba říci, že zatímco AI postupuje exponenciálním tempem, stále jsme nedosáhli AGI. Kdy se dostaneme k AGI, je předmětem debaty a každý má jinou odpověď, pokud jde o časovou osu. Osobně souhlasím s názory Raye Kurzweila, vynálezce, futuristy a autora knihy „Singularita je blízko“, který věří, že budeme mít dosáhl AGI do roku 2029.

AGI bude nejvíce transformační technologií na světě. Během týdnů poté, co AI dosáhne inteligence na lidské úrovni, dosáhne super inteligence která je definována jako inteligence, která daleko převyšuje tu lidskou.

S touto úrovní inteligence může AGI rychle absorbovat všechny lidské znalosti a používat rozpoznávání vzorů k identifikaci biomarkerů, které způsobují zdravotní problémy, a poté tyto stavy léčit pomocí datové vědy. Mohlo by to vytvořit nanoboty, které vstoupí do krevního řečiště, aby se zaměřily na rakovinné buňky nebo jiné útočné vektory. Seznam úspěchů, kterých je AGI schopen, je nekonečný. Některé z nich jsme již dříve prozkoumali výhody AGI.

Problém je, že lidé už nemusí být schopni ovládat AI. Elon Musk to popisuje takto:S umělou inteligencí vyvoláváme démona.' Otázkou je, zda budeme schopni ovládat tohoto démona?

Dosažení AGI může být jednoduše nemožné, dokud AI neopustí nastavení simulace, aby skutečně interagovala v našem světě s otevřeným koncem. Sebeuvědomění nelze navrhnout, místo toho se věří, že an emergentní vědomí se pravděpodobně vyvine, když má AI robotické tělo s více vstupními toky. Tyto vstupy mohou zahrnovat hmatovou stimulaci, rozpoznávání hlasu s lepším porozuměním přirozené řeči a rozšířené počítačové vidění.

Pokročilá AI může být naprogramována s altruistickými motivy a chce zachránit planetu. Bohužel, AI může použít věda o datech, nebo dokonce rozhodovací strom dojít k nechtěné chybné logice, jako je posouzení, že je nutné sterilizovat lidi nebo eliminovat část lidské populace, aby bylo možné kontrolovat přelidnění lidí.

Při vytváření AI s inteligencí, která daleko předčí tu lidskou, je třeba prozkoumat pečlivé myšlení a uvažování. Existuje mnoho scénářů nočních můr, které byly prozkoumány.

Profesor Nick Bostrom v argumentu maximalizátoru papírových sponek argumentoval, že špatně nakonfigurovaný AGI, pokud by dostal pokyn k výrobě kancelářských sponek, by jednoduše spotřeboval všechny zemské zdroje na výrobu těchto kancelářských sponek. I když se to zdá trochu přitažené za vlasy, pragmatičtější hledisko je, že AGI by mohl být kontrolován nepoctivým státem nebo korporací se špatnou etikou. Tato entita by mohla vycvičit AGI k maximalizaci zisku a v tomto případě se špatným programováním a nulovými výčitkami svědomí by se mohla rozhodnout zkrachovat konkurenty, zničit dodavatelské řetězce, hacknout burzu, likvidovat bankovní účty nebo zaútočit na politické oponenty.

To je, když si musíme pamatovat, že lidé mají tendenci antropomorfizovat. Nemůžeme dát AI emoce, přání nebo touhy lidského typu. I když existují ďábelští lidé, kteří zabíjejí pro potěšení, není důvod se domnívat, že AI by byla náchylná k tomuto typu chování. Pro lidi je nepředstavitelné vůbec uvažovat o tom, jak by AI viděla svět.

Místo toho musíme naučit umělou inteligenci, aby byla k člověku vždy uctivá. Umělá inteligence by měla vždy nechat člověka potvrdit jakékoli změny v nastavení a vždy by měl existovat mechanismus zabezpečený proti selhání. Znovu se tvrdilo, že AI se jednoduše replikuje v cloudu, a až si uvědomíme, že si je vědoma, může být příliš pozdě.

To je důvod, proč je tak důležité otevřít co nejvíce umělé inteligence a vést o těchto otázkách racionální diskuse.

Shrnutí

Existuje mnoho výzev pro AI, naštěstí máme ještě mnoho let na to, abychom společně vymysleli budoucí cestu, kterou chceme, aby se AGI vydalo. V krátkodobém horizontu bychom se měli zaměřit na vytvoření různorodé pracovní síly v oblasti umělé inteligence, která bude zahrnovat tolik žen jako mužů a co nejvíce etnických skupin s různými názory.

Měli bychom také vytvořit ochranu oznamovatelů pro výzkumníky, kteří pracují na AI, a měli bychom přijmout zákony a předpisy, které zabrání rozsáhlému zneužívání státního nebo celopodnikového dohledu. Lidé mají příležitost jednou za život zlepšit svůj stav pomocí umělé inteligence, jen se musíme ujistit, že pečlivě vytvoříme společenský rámec, který nejlépe umožní pozitiva a zároveň zmírní negativa, mezi které patří existenční hrozby.

Zakládající partner unite.AI a člen Technologická rada Forbes, Antoine je a futurista který je zapálený pro budoucnost umělé inteligence a robotiky.

Je také zakladatelem Cenné papíry.io, web, který se zaměřuje na investice do převratných technologií.