peň Je AI existenčnou hrozbou? - Spojte sa.AI
Spojte sa s nami

Umelá všeobecná inteligencia

Je AI existenčnou hrozbou?

mm
Aktualizované on

Pri diskusii o umelej inteligencii (AI) sa často diskutuje o tom, či je AI existenčnou hrozbou. Odpoveď si vyžaduje pochopenie technológie strojového učenia (ML) a uznanie, že ľudia majú tendenciu antropomorfizovať sa. Preskúmame dva rôzne typy AI, umelú úzku inteligenciu (ANI), ktorá je teraz k dispozícii a je dôvodom na obavy, a hrozbu, ktorá sa najčastejšie spája s apokalyptickým stvárnením AI, ktorou je umelá všeobecná inteligencia (AGI).

Hrozby umelej úzkej inteligencie

Aby ste pochopili, čo je ANI, musíte jednoducho pochopiť, že každá jedna aplikácia AI, ktorá je v súčasnosti k dispozícii, je formou ANI. Toto sú oblasti AI, ktoré majú úzku oblasť špecializácie, napríklad autonómne vozidlá používajú AI, ktorá je navrhnutá s jediným cieľom presunúť vozidlo z bodu A do B. Ďalším typom ANI môže byť šachový program, ktorý je optimalizovaný na hranie. šach, a aj keď sa šachový program neustále zlepšuje pomocou posilňovacieho učenia, šachový program nikdy nebude schopný ovládať autonómne vozidlo.

So zameraním na akúkoľvek operáciu, za ktorú je zodpovedný, systémy ANI nie sú schopné použiť všeobecné učenie na to, aby prevzali kontrolu nad svetom. To je dobrá správa; zlou správou je, že systém umelej inteligencie, ktorý sa spolieha na ľudského operátora, je náchylný na skreslené údaje, ľudskú chybu alebo ešte horšie na nečestného ľudského operátora.

AI sledovanie

Pre ľudstvo nemusí byť väčšie nebezpečenstvo ako pre ľudí, ktorí používajú AI na narušenie súkromia a v niektorých prípadoch využívajú AI dohľad na úplné zabránenie ľuďom vo voľnom pohybe.  Čína, Rusko a ďalšie krajiny prešli počas COVID-19 nariadeniami umožniť im monitorovať a kontrolovať pohyb ich príslušných populácií. Sú to zákony, ktoré sa po zavedení ťažko odstraňujú, najmä v spoločnostiach, v ktorých sú autokratickí vodcovia.

V Číne sú kamery umiestnené mimo domovov ľudí a v niektorých prípadoch aj vo vnútri domu danej osoby. Zakaždým, keď člen domácnosti odíde, AI sleduje čas príchodu a odchodu a v prípade potreby upozorní úrady. Akoby to nestačilo, s pomocou technológie rozpoznávania tváre je Čína schopná sledovať pohyb každej osoby vždy, keď ju identifikuje kamera. To ponúka absolútnu moc subjektu, ktorý ovláda AI, a absolútne nulové využívanie svojich občanov.

Prečo je tento scenár nebezpečný, je, že skorumpované vlády môžu pozorne sledovať pohyb novinárov, politických oponentov alebo kohokoľvek, kto sa odváži spochybniť autoritu vlády. Je ľahké pochopiť, ako by boli novinári a občania opatrní pri kritizovaní vlád, keď je každé hnutie monitorované.

Našťastie existuje veľa miest, ktoré bojujú, aby zabránili infiltrácii rozpoznávania tváre do ich miest. Najmä Portland, Oregon nedávno prijal zákon ktorý blokuje zbytočné používanie rozpoznávania tváre v meste. Aj keď tieto zmeny v regulácii mohli zostať nepovšimnuté širokou verejnosťou, v budúcnosti by tieto regulácie mohli byť rozdielom medzi mestami, ktoré ponúkajú určitý typ autonómie a slobody, a mestami, ktoré sa cítia utláčajúce.

Autonómne zbrane a drony

Viac ako 4500 výskumníkov AI požadovalo zákaz autonómnych zbraní a vytvorili ich Zákaz smrtiacich autonómnych zbraní webovej stránky. Skupina má ako signatárov mnoho pozoruhodných neziskoviek ako napr Human Rights Watch, Amnesty International, A Inštitút budúcnosti života ktorá sama o sebe má hviezdny vedecký poradný výbor vrátane Elona Muska, Nicka Bostroma a Stuarta Russella.

Skôr než budem pokračovať, podelím sa o tento citát z Inštitútu budúcnosti života, ktorý najlepšie vysvetľuje, prečo existuje jasný dôvod na obavy: „Na rozdiel od poloautonómnych zbraní, ktoré si vyžadujú ľudský dohľad, aby sa zabezpečilo, že každý cieľ bude uznaný ako eticky a právne legitímny, napr. plne autonómne zbrane vyberajú a zasahujú ciele bez ľudského zásahu, čo predstavuje úplnú automatizáciu smrteľného poškodenia. “

V súčasnosti sa inteligentné bomby rozmiestňujú s cieľom vybraným človekom a bomba potom používa AI na vytýčenie kurzu a pristátie na svoj cieľ. Problém je, čo sa stane, keď sa rozhodneme úplne odstrániť človeka z rovnice?

Keď si AI vyberie, čo ľudia potrebujú zamerať, ako aj typ vedľajšieho poškodenia, ktorý sa považuje za prijateľný, možno sme prekročili bod, odkiaľ niet návratu. To je dôvod, prečo je toľko výskumníkov AI proti skúmaniu čohokoľvek, čo je vzdialene spojené s autonómnymi zbraňami.

Existuje viacero problémov s jednoduchým pokusom zablokovať výskum autonómnych zbraní. Prvým problémom je, že aj keď sa vyspelé štáty ako Kanada, USA a väčšina Európy rozhodnú súhlasiť so zákazom, neznamená to, že budú hrať nečestné štáty ako Čína, Severná Kórea, Irán a Rusko. Druhým a väčším problémom je, že výskum a aplikácie AI, ktoré sú navrhnuté na použitie v jednej oblasti, môžu byť použité v úplne nesúvisiacej oblasti.

Napríklad počítačové videnie sa neustále zlepšuje a je dôležité pre vývoj autonómnych vozidiel, presnej medicíny a iných dôležitých prípadov použitia. Je tiež zásadne dôležité pre bežné drony alebo drony, ktoré by sa dali upraviť tak, aby sa stali autonómnymi. Jedným z možných prípadov použitia pokročilej technológie dronov je vývoj dronov, ktoré dokážu monitorovať lesné požiare a bojovať proti nim. To by hasičov úplne odstránilo z nebezpečnej cesty. Aby ste to mohli urobiť, museli by ste postaviť drony, ktoré sú schopné lietať do nebezpečných ciest, navigovať sa pri nízkej alebo nulovej viditeľnosti a sú schopné púšťať vodu s dokonalou presnosťou. Využiť túto identickú technológiu v autonómnom drone, ktorý je navrhnutý tak, aby selektívne cielil na ľudí, nie je ďaleko.

Je to nebezpečná situácia a v tomto momente nikto úplne nerozumie dôsledkom postupu alebo pokusu blokovať vývoj autonómnych zbraní. Napriek tomu je to niečo, na čo musíme dávať pozor a zlepšovať ochrana oznamovateľa môže umožniť tým, ktorí sú v teréne, nahlásiť zneužitie.

Odhliadnuc od nečestného operátora, čo sa stane, ak sa do technológie AI, ktorá je navrhnutá ako autonómna zbraň, vkradne zaujatosť AI?

AI zaujatosť

Jednou z najviac nehlásených hrozieb AI je zaujatosť AI. Je to jednoduché na pochopenie, pretože väčšina z toho je neúmyselná. Skreslenie umelej inteligencie prenikne, keď umelá inteligencia skontroluje údaje, ktoré jej dodajú ľudia, pomocou rozpoznávania vzorov z údajov odovzdaných umelej inteligencii a nesprávne dospeje k záverom, ktoré môžu mať negatívne dôsledky na spoločnosť. Napríklad umelá inteligencia, ktorá je kŕmená literatúrou z minulého storočia o tom, ako identifikovať zdravotnícky personál, môže dospieť k nechcenému sexistickému záveru, že ženy sú vždy zdravotné sestry a muži sú vždy lekári.

Nebezpečnejší scenár je kedy AI, ktorá sa používa na odsúdenie odsúdených zločincov, je neobjektívna k udeľovaniu dlhších trestov odňatia slobody menšinám. Algoritmy hodnotenia kriminálnych rizík AI jednoducho študujú vzorce v údajoch, ktoré boli vložené do systému. Tieto údaje naznačujú, že historicky sa u niektorých menšín s väčšou pravdepodobnosťou znovu dopustí trestnej činnosti, aj keď je to spôsobené slabými súbormi údajov, ktoré môžu byť ovplyvnené policajným rasovým profilovaním. Zaujatá AI potom posilňuje negatívne ľudské politiky. To je dôvod, prečo by AI mala byť usmernením, nikdy nie súdiť a posudzovať.

Ak sa vrátime k autonómnym zbraniam, ak máme AI, ktorá je zaujatá voči určitým etnickým skupinám, mohla by sa rozhodnúť zacieliť na určitých jednotlivcov na základe neobjektívnych údajov a mohlo by to ísť tak ďaleko, že by sa zabezpečilo, že akýkoľvek druh vedľajších škôd ovplyvní určitú demografiu menej ako ostatné. . Napríklad pri zameraní na teroristu môže pred útokom počkať, kým teroristu neobkľúčia tí, ktorí vyznávajú moslimskú vieru namiesto kresťanov.

Našťastie sa dokázalo, že AI, ktorá je navrhnutá pre rôzne tímy, je menej náchylná na zaujatosť. To je dostatočný dôvod na to, aby sa podniky pokúsili, keď je to len možné, najať rôznorodý, dobre zaoblený tím.

Hrozby umelej všeobecnej inteligencie

Treba povedať, že zatiaľ čo AI napreduje exponenciálnym tempom, stále sme nedosiahli AGI. Kedy sa dostaneme k AGI, je na diskusiu a každý má inú odpoveď, pokiaľ ide o časovú os. Osobne súhlasím s názormi Raya Kurzweila, vynálezcu, futuristu a autora knihy „Singularita je blízko“, ktorý verí, že budeme mať dosiahnuť AGI do roku 2029.

AGI bude najviac transformačná technológia na svete. V priebehu niekoľkých týždňov, keď AI dosiahne inteligenciu na ľudskej úrovni, dosiahne superinteligencia ktorá je definovaná ako inteligencia, ktorá ďaleko prevyšuje inteligenciu človeka.

S touto úrovňou inteligencie môže AGI rýchlo absorbovať všetky ľudské znalosti a použiť rozpoznávanie vzorov na identifikáciu biomarkerov, ktoré spôsobujú zdravotné problémy, a potom tieto stavy liečiť pomocou vedy o údajoch. Mohlo by to vytvoriť nanoboty, ktoré vstúpia do krvného obehu, aby sa zamerali na rakovinové bunky alebo iné útočné vektory. Zoznam úspechov, ktorých je AGI schopný, je nekonečný. Predtým sme preskúmali niektoré z výhody AGI.

Problém je v tom, že ľudia už nemusia byť schopní ovládať AI. Elon Musk to opisuje takto:S umelou inteligenciou vyvolávame démona.' Otázkou je, či budeme schopní ovládať tohto démona?

Dosiahnutie AGI môže byť jednoducho nemožné, kým AI neopustí prostredie simulácie, aby skutočne interagovala v našom svete s otvoreným koncom. Sebauvedomenie nemožno navrhnúť, namiesto toho sa verí, že an emergentné vedomie sa pravdepodobne vyvinie, keď má AI robotické telo s viacerými vstupnými tokmi. Tieto vstupy môžu zahŕňať hmatovú stimuláciu, rozpoznávanie hlasu so zlepšeným porozumením prirodzeného jazyka a rozšírené počítačové videnie.

Pokročilá AI môže byť naprogramovaná s altruistickými motívmi a chce zachrániť planétu. Bohužiaľ, AI môže použiť údajov, alebo dokonca a rozhodovací strom dospieť k nechcenej chybnej logike, ako je posúdenie, že je potrebné sterilizovať ľudí alebo eliminovať časť ľudskej populácie, aby bolo možné kontrolovať premnoženie ľudí.

Pri vytváraní AI s inteligenciou, ktorá ďaleko prevyšuje ľudskú inteligenciu, je potrebné dôkladne premyslieť a zvážiť. Existuje mnoho scenárov nočných môr, ktoré boli preskúmané.

Profesor Nick Bostrom v argumente maximalizátora kancelárskych sponiek tvrdil, že nesprávne nakonfigurovaný AGI, ak by dostal pokyn na výrobu kancelárskych sponiek, by jednoducho spotreboval všetky zemské zdroje na výrobu týchto sponiek. Aj keď sa to zdá trochu pritiahnuté za vlasy, pragmatickejší názor je, že AGI by mohol kontrolovať nečestný štát alebo korporácia so zlou etikou. Táto entita by mohla vycvičiť AGI, aby maximalizovala zisky a v tomto prípade so zlým programovaním a nulovými výčitkami svedomia by sa mohla rozhodnúť zbankrotovať konkurentov, zničiť dodávateľské reťazce, hacknúť burzu, zlikvidovať bankové účty alebo zaútočiť na politických oponentov.

Vtedy si musíme uvedomiť, že ľudia majú tendenciu antropomorfizovať. Nemôžeme dať AI emócie, túžby alebo túžby ľudského typu. Aj keď existujú diabolskí ľudia, ktorí zabíjajú pre potešenie, nie je dôvod veriť, že AI by bola náchylná na tento typ správania. Pre ľudí je nepredstaviteľné čo i len uvažovať o tom, ako by sa AI pozerala na svet.

Namiesto toho musíme naučiť AI, aby bola vždy úctivá k človeku. Umelá inteligencia by mala vždy nechať človeka potvrdiť akékoľvek zmeny v nastaveniach a vždy by mal existovať bezpečnostný mechanizmus. Opäť sa tvrdilo, že AI sa jednoducho replikuje v cloude, a kým si uvedomíme, že si uvedomuje, môže byť neskoro.

Preto je také dôležité otvoriť čo najviac AI a viesť racionálne diskusie o týchto otázkach.

zhrnutie

Umelá inteligencia čelí mnohým výzvam, našťastie máme ešte veľa rokov na to, aby sme spoločne našli cestu, ktorou sa chce AGI vydať. Z krátkodobého hľadiska by sme sa mali zamerať na vytvorenie rôznorodej pracovnej sily v oblasti umelej inteligencie, ktorá zahŕňa toľko žien ako mužov a čo najviac etnických skupín s rôznymi názormi.

Mali by sme tiež vytvoriť ochranu oznamovateľov pre výskumníkov, ktorí pracujú na AI, a mali by sme prijať zákony a nariadenia, ktoré zabránia rozsiahlemu zneužívaniu štátneho alebo celopodnikového dohľadu. Ľudia majú raz za život príležitosť zlepšiť svoj stav pomocou AI, musíme len zabezpečiť, aby sme starostlivo vytvorili spoločenský rámec, ktorý najlepšie umožňuje pozitíva a zároveň zmierňuje negatíva, medzi ktoré patria existenčné hrozby.

Zakladajúci partner unite.AI a člen skupiny Technologická rada Forbes, Antoine je a Futurist ktorý je nadšený budúcnosťou AI a robotiky.

Je tiež zakladateľom Cenné papiere.io, web, ktorý sa zameriava na investovanie do prevratných technológií.