škrbina Je li AI egzistencijalna prijetnja? - Ujedinite se.AI
Povežite se s nama

Opća umjetna inteligencija

Je li AI egzistencijalna prijetnja?

mm
Ažurirano on

Kada se raspravlja o umjetnoj inteligenciji (AI), česta je rasprava je li AI egzistencijalna prijetnja. Odgovor zahtijeva razumijevanje tehnologije koja stoji iza strojnog učenja (ML) i prepoznavanje da ljudi imaju tendenciju antropomorfiziranja. Istražit ćemo dvije različite vrste AI, umjetnu usku inteligenciju (ANI) koja je sada dostupna i razlog je za zabrinutost, i prijetnju koja se najčešće povezuje s apokaliptičnim izvedbama AI, a to je umjetna opća inteligencija (AGI).

Prijetnje umjetne uske inteligencije

Da biste razumjeli što je ANI, jednostavno trebate razumjeti da je svaka pojedina AI aplikacija koja je trenutno dostupna oblik ANI-ja. To su polja umjetne inteligencije koja imaju usko područje specijalnosti, na primjer, autonomna vozila koriste umjetnu inteligenciju koja je dizajnirana s jedinom svrhom premještanja vozila od točke A do točke B. Druga vrsta ANI-ja može biti šahovski program koji je optimiziran za igranje šah, pa čak i ako se šahovski program neprestano poboljšava korištenjem učenja s potkrepljenjem, šahovski program nikada neće moći upravljati autonomnim vozilom.

Sa svojim fokusom na bilo koju operaciju za koju su odgovorni, ANI sustavi nisu u mogućnosti koristiti generalizirano učenje kako bi preuzeli svijet. To je dobra vijest; loša vijest je da je zbog oslanjanja na ljudskog operatera sustav umjetne inteligencije osjetljiv na pristrane podatke, ljudsku pogrešku ili još gore, lažnog ljudskog operatera.

AI nadzor

Možda ne postoji veća opasnost za čovječanstvo od ljudi koji koriste umjetnu inteligenciju za invaziju na privatnost, au nekim slučajevima koriste AI nadzor kako bi potpuno spriječili ljude da se slobodno kreću.  Kina, Rusija i druge zemlje donijele su propise tijekom COVID-19 kako bi im omogućili praćenje i kontrolu kretanja svoje populacije. To su zakoni koje je teško ukloniti, kada se jednom stvore, posebno u društvima koja imaju autokratske vođe.

U Kini su kamere postavljene izvan nečijih domova, au nekim slučajevima i unutar nečijeg doma. Svaki put kada član kućanstva ode, AI prati vrijeme dolaska i odlaska, te po potrebi upozorava nadležna tijela. Kao da to nije dovoljno, uz pomoć tehnologije prepoznavanja lica, Kina je u mogućnosti pratiti kretanje svake osobe svaki put kad je identificira kamera. Ovo nudi apsolutnu moć entitetu koji kontrolira AI, a apsolutno nula mogućnosti za pribjegavanje svojim građanima.

Zašto je ovaj scenarij opasan je to što korumpirane vlade mogu pažljivo pratiti kretanje novinara, političkih protivnika ili bilo koga tko se usudi dovesti u pitanje autoritet vlade. Lako je razumjeti kako bi novinari i građani bili oprezni u kritiziranju vlada kada se svaki pokret prati.

Srećom, postoje mnogi gradovi koji se bore da spriječe prepoznavanje lica da se infiltrira u njihove gradove. Posebno, Portland, Oregon nedavno je usvojio zakon koji blokira prepoznavanje lica od nepotrebne upotrebe u gradu. Iako su ove promjene u regulativi možda prošle nezapaženo od strane šire javnosti, u budućnosti bi te regulative mogle biti razlika između gradova koji nude neku vrstu autonomije i slobode i gradova koji se osjećaju opresivno.

Autonomno oružje i dronovi

Više od 4500 istraživanja umjetne inteligencije pozivalo je na zabranu autonomnog oružja i stvorilo Zabraniti smrtonosno autonomno oružje web stranica. Grupa ima mnoge značajne neprofitne organizacije kao potpisnike kao što su Human Rights Watch, Amnesty International, A Institut za budućnost života koja sama po sebi ima zvjezdani znanstveni savjetodavni odbor koji uključuje Elona Muska, Nicka Bostroma i Stuarta Russella.

Prije nego što nastavim, podijelit ću ovaj citat iz The Future of Life Institute koji najbolje objašnjava zašto postoji jasan razlog za zabrinutost: “Za razliku od polu-autonomnog oružja koje zahtijeva ljudski nadzor kako bi se osiguralo da je svaka meta potvrđena kao etički i zakonski legitimna, kao što su potpuno autonomno oružje odabire i napada mete bez ljudske intervencije, što predstavlja potpunu automatizaciju smrtonosnih ozljeda. ”

Trenutačno se pametne bombe postavljaju s metom koju je odabrao čovjek, a bomba zatim koristi AI za iscrtavanje kursa i sletanje na metu. Problem je što se događa kada odlučimo potpuno ukloniti čovjeka iz jednadžbe?

Kada umjetna inteligencija odabere što ljudi trebaju ciljati, kao i vrstu kolateralne štete koja se smatra prihvatljivom, možda smo prešli točku s koje nema povratka. To je razlog zašto se tako mnogo istraživača umjetne inteligencije protivi istraživanju bilo čega što je iole povezano s autonomnim oružjem.

Postoji više problema s jednostavnim pokušajem blokiranja istraživanja autonomnog oružja. Prvi problem je čak i ako napredne nacije poput Kanade, SAD-a i veći dio Europe odluče pristati na zabranu, to ne znači da će se odmetničke nacije poput Kine, Sjeverne Koreje, Irana i Rusije poigrati. Drugi i veći problem je da se istraživanja i aplikacije AI-ja koje su dizajnirane za korištenje u jednom području, mogu koristiti u potpuno nepovezanom području.

Na primjer, računalni vid neprestano se poboljšava i važan je za razvoj autonomnih vozila, precizne medicine i drugih važnih slučajeva upotrebe. Također je bitno važno za obične dronove ili dronove koji se mogu modificirati da postanu autonomni. Jedan potencijalni slučaj upotrebe napredne tehnologije dronova je razvoj dronova koji mogu nadzirati i boriti se protiv šumskih požara. To bi u potpunosti uklonilo vatrogasce od opasnosti. Da biste to učinili, trebali biste izgraditi dronove koji mogu letjeti u opasnost, za navigaciju pri slaboj ili nultoj vidljivosti i koji mogu ispuštati vodu s besprijekornom preciznošću. Nije daleko iskoristiti ovu identičnu tehnologiju u autonomnom dronu koji je dizajniran da selektivno gađa ljude.

To je opasna nevolja i u ovom trenutku nitko u potpunosti ne razumije implikacije napredovanja ili pokušaja blokiranja razvoja autonomnog oružja. To je ipak nešto na što moramo paziti, poboljšavajući ga zaštita zviždača može omogućiti osobama na terenu da prijave zlouporabe.

Na stranu nevaljali operater, što se događa ako se AI pristranost uvuče u AI tehnologiju koja je dizajnirana da bude autonomno oružje?

AI pristranost

Jedna od najneprijavljenijih prijetnji umjetne inteligencije je pristranost umjetne inteligencije. Ovo je jednostavno razumjeti jer je većina toga nenamjerna. Pristranost umjetne inteligencije dolazi do izražaja kada umjetna inteligencija pregledava podatke koje su joj dostavili ljudi, koristeći prepoznavanje uzoraka iz podataka koji su dostavljeni umjetnoj inteligenciji, umjetna inteligencija netočno dolazi do zaključaka koji mogu imati negativne posljedice na društvo. Na primjer, umjetna inteligencija koja se hrani literaturom iz prošlog stoljeća o tome kako identificirati medicinsko osoblje može doći do neželjenog seksističkog zaključka da žene su uvijek medicinske sestre, a muškarci liječnici.

Opasniji scenarij je kada AI koja se koristi za izricanje kazni osuđenim kriminalcima je pristrana ka davanju dužih zatvorskih kazni manjinama. AI-jevi algoritmi za procjenu kriminalnog rizika jednostavno proučavaju obrasce u podacima koji su uneseni u sustav. Ovi podaci pokazuju da je povijesno veća vjerojatnost da će određene manjine ponovno počiniti prekršaj, čak i kada je to zbog loših skupova podataka na koje može utjecati policijsko rasno profiliranje. Pristrana umjetna inteligencija zatim pojačava negativne ljudske politike. Zbog toga bi umjetna inteligencija trebala biti smjernica, nikad sudac i porota.

Vraćajući se na autonomno oružje, ako imamo umjetnu inteligenciju koja je pristrana prema određenim etničkim skupinama, mogla bi odlučiti ciljati određene pojedince na temelju pristranih podataka i mogla bi ići tako daleko da osigura da bilo koja vrsta kolateralne štete manje utječe na određene demografske skupine nego na druge . Na primjer, kada se cilja na terorista, prije napada može se pričekati dok se terorist ne okruži onima koji slijede muslimansku vjeru umjesto kršćana.

Srećom, dokazano je da je umjetna inteligencija koja je dizajnirana s različitim timovima manje sklona pristranosti. Ovo je dovoljan razlog da poduzeća pokušaju kad god je to moguće zaposliti raznolik i dobro zaokružen tim.

Prijetnje općom umjetnom inteligencijom

Treba reći da iako AI napreduje eksponencijalnom brzinom, još uvijek nismo postigli AGI. Kada ćemo dostići AGI, predmet je rasprave, a svatko ima drugačiji odgovor što se tiče vremenskog okvira. Osobno podržavam stajališta Raya Kurzweila, izumitelja, futurista i autora knjige 'Singularnost je blizu' koji vjeruje da ćemo imati postigao AGI do 2029.

AGI će biti najtransformativnija tehnologija na svijetu. U roku od nekoliko tjedana nakon što umjetna inteligencija postigne inteligenciju na ljudskoj razini, tada će dosegnuti superinteligencija koja se definira kao inteligencija koja daleko nadilazi ljudsku.

S ovom razinom inteligencije AGI bi mogao brzo apsorbirati svo ljudsko znanje i koristiti prepoznavanje uzoraka za identificiranje biomarkera koji uzrokuju zdravstvene probleme, a zatim liječiti ta stanja korištenjem znanosti o podacima. Mogao bi stvoriti nanobote koji ulaze u krvotok kako bi ciljali na stanice raka ili druge vektore napada. Popis postignuća za koje je AGI sposoban je beskonačan. Prethodno smo istražili neke od prednosti AGI.

Problem je u tome što ljudi možda više neće moći kontrolirati AI. Elon Musk to ovako opisuje: "Umjetnom inteligencijom prizivamo demona.' Pitanje je hoćemo li moći kontrolirati ovog demona?

Postizanje AGI-a može biti jednostavno nemoguće sve dok AI ne napusti postavku simulacije za istinsku interakciju u našem otvorenom svijetu. Samosvijest se ne može dizajnirati, umjesto toga vjeruje se da an pojavna svijest vjerojatno će se razviti kada AI ima robotsko tijelo s više ulaznih tokova. Ti unosi mogu uključivati ​​taktilnu stimulaciju, prepoznavanje glasa s poboljšanim razumijevanjem prirodnog jezika i poboljšani računalni vid.

Napredna umjetna inteligencija možda je programirana s altruističkim motivima i želi spasiti planet. Nažalost, AI može koristiti znanost o podacimaili čak a stablo odluke doći do neželjene pogrešne logike, kao što je procjena da je neophodno sterilizirati ljude ili eliminirati dio ljudske populacije kako bi se kontrolirala prenaseljenost ljudi.

Prilikom izgradnje AI s inteligencijom koja daleko nadmašuje ljudsku inteligenciju potrebno je pažljivo razmišljanje i promišljanje. Bilo je mnogo scenarija noćne more koji su istraženi.

Profesor Nick Bostrom u argumentu Paperclip Maximizer je tvrdio da bi krivo konfigurirani AGI, ako bi dobio upute za proizvodnju spajalica, jednostavno potrošio sve zemaljske resurse za proizvodnju ovih spajalica. Iako se ovo čini pomalo nategnutim, pragmatičnije je gledište da bi AGI mogla kontrolirati odmetnička država ili korporacija s lošom etikom. Ovaj bi entitet mogao trenirati AGI da maksimizira profit, au ovom slučaju uz loše programiranje i bez grižnje savjesti mogao bi bankrotirati konkurente, uništiti opskrbne lance, hakirati burzu, likvidirati bankovne račune ili napasti političke protivnike.

Ovo je trenutak kada se trebamo sjetiti da su ljudi skloni antropomorfizaciji. Ne možemo umjetnoj inteligenciji dati ljudske emocije, želje ili želje. Iako postoje đavolski ljudi koji ubijaju iz zadovoljstva, nema razloga vjerovati da bi umjetna inteligencija bila podložna ovakvom ponašanju. Nezamislivo je da ljudi uopće razmišljaju o tome kako bi umjetna inteligencija gledala na svijet.

Umjesto toga, ono što trebamo učiniti je naučiti AI da uvijek bude pun poštovanja prema ljudima. AI bi uvijek trebao imati čovjeka koji potvrđuje sve promjene u postavkama i uvijek bi trebao postojati mehanizam za zaštitu od greške. S druge strane, tvrdi se da će se umjetna inteligencija jednostavno replicirati u oblaku, a dok shvatimo da je samosvjesna, moglo bi biti prekasno.

Zbog toga je tako važno otvoriti što je moguće više AI i voditi racionalne rasprave o tim pitanjima.

rezime

Postoji mnogo izazova za AI, srećom, još uvijek imamo mnogo godina da zajedno shvatimo budući put kojim želimo da AGI ide. Kratkoročno bismo se trebali usredotočiti na stvaranje raznolike radne snage za umjetnu inteligenciju, koja uključuje što više žena koliko i muškaraca, te što više etničkih skupina s različitim stajalištima.

Također bismo trebali stvoriti zaštitu zviždača za istraživače koji rade na umjetnoj inteligenciji i trebali bismo donijeti zakone i propise koji sprječavaju raširenu zlouporabu nadzora države ili cijele tvrtke. Ljudi imaju priliku jednom u životu poboljšati ljudsko stanje uz pomoć umjetne inteligencije, samo trebamo osigurati da pažljivo stvorimo društveni okvir koji najbolje omogućuje pozitivne strane, a istovremeno ublažava negativne strane koje uključuju egzistencijalne prijetnje.

Osnivač unite.AI i član udruge Forbesovo tehnološko vijeće, Antoine je a futurist koji je strastven prema budućnosti umjetne inteligencije i robotike.

Također je i osnivač Vrijednosni papiri.io, web stranica koja se fokusira na ulaganje u disruptivnu tehnologiju.