stubs Vai AI ir eksistenciāls drauds? - Apvienojieties.AI
Savienoties ar mums

Vispārējais mākslīgais intelekts

Vai AI ir eksistenciāls drauds?

mm
Atjaunināts on

Apspriežot mākslīgo intelektu (AI), izplatīta diskusija ir par to, vai AI ir eksistenciāls drauds. Lai atbildētu, ir jāsaprot mašīnmācības (ML) tehnoloģija un jāatzīst, ka cilvēkiem ir tendence antropomorfizēties. Mēs izpētīsim divus dažādus mākslīgā intelekta veidus, mākslīgo šauru intelektu (ANI), kas ir pieejams tagad un rada bažas, un draudus, kas visbiežāk tiek saistīti ar mākslīgā intelekta apokaliptisko pārsūtīšanu, kas ir mākslīgais vispārējais intelekts (AGI).

Mākslīgā šaura intelekta draudi

Lai saprastu, kas ir ANI, jums vienkārši jāsaprot, ka katra pašlaik pieejamā AI lietojumprogramma ir ANI forma. Tie ir mākslīgā intelekta jomas, kurām ir šaura specialitātes joma, piemēram, autonomie transportlīdzekļi izmanto AI, kas ir izstrādāts ar vienīgo mērķi pārvietot transportlīdzekli no punkta A uz punktu B. Cits ANI veids varētu būt šaha programma, kas ir optimizēta spēlēšanai. šahs, un pat tad, ja šaha programma sevi nepārtraukti pilnveido, izmantojot pastiprināšanas mācīšanos, šaha programma nekad nespēs darbināt autonomu transportlīdzekli.

Koncentrējoties uz jebkuru darbību, par kuru tā ir atbildīga, ANI sistēmas nespēj izmantot vispārinātu mācīšanos, lai pārņemtu pasauli. Tā ir labā ziņa; sliktā ziņa ir tā, ka mākslīgā intelekta sistēma, paļaujoties uz cilvēku operatoru, ir pakļauta neobjektīviem datiem, cilvēka kļūdām vai, vēl ļaunāk, negodīgiem operatoriem.

AI uzraudzība

Cilvēcei var būt lielākas briesmas par cilvēkiem, kuri izmanto mākslīgo intelektu, lai pārkāptu privātumu, un dažos gadījumos AI uzraudzību, lai pilnībā novērstu cilvēku brīvu pārvietošanos.  Ķīna, Krievija un citas valstis pieņēma noteikumus COVID-19 laikā lai tie varētu uzraudzīt un kontrolēt savu attiecīgo iedzīvotāju pārvietošanos. Tie ir likumi, kurus ir grūti atcelt, jo īpaši sabiedrībās, kurās ir autokrātiski vadītāji.

Ķīnā kameras ir izvietotas ārpus cilvēku mājām un dažos gadījumos arī personas mājās. Katru reizi, kad kāds no mājsaimniecības locekļiem atstāj, AI uzrauga ierašanās un izbraukšanas laiku un, ja nepieciešams, brīdina iestādes. It kā ar to nebūtu pietiekami, ar sejas atpazīšanas tehnoloģijas palīdzību Ķīna spēj izsekot katras personas kustībai ikreiz, kad to atpazīst kamera. Tas nodrošina absolūtu varu vienībai, kas kontrolē AI, un absolūti nulles iespējas saviem pilsoņiem.

Kāpēc šis scenārijs ir bīstams, ir tas, ka korumpētas valdības var rūpīgi uzraudzīt žurnālistu, politisko oponentu vai jebkura cita, kas uzdrošinās apšaubīt valdības autoritāti, kustības. Ir viegli saprast, kā žurnālisti un pilsoņi būtu piesardzīgi, kritizējot valdības, kad tiek uzraudzīta katra kustība.

Par laimi, ir daudzas pilsētas, kuras cīnās, lai novērstu sejas atpazīšanas iefiltrēšanos viņu pilsētās. Īpaši Portlendā, Oregonas štatā, nesen ir pieņemts likums kas bloķē sejas atpazīšanas nevajadzīgu izmantošanu pilsētā. Lai gan šīs regulējuma izmaiņas plašākai sabiedrībai varētu būt nepamanītas, nākotnē šie noteikumi varētu būt atšķirība starp pilsētām, kas piedāvā sava veida autonomiju un brīvību, un pilsētām, kuras jūtas nomācošas.

Autonomie ieroči un droni

Vairāk nekā 4500 AI pētījumu ir aicinājuši aizliegt autonomos ieročus un ir radījuši Aizliegt letālus autonomos ieročus tīmekļa vietne. Grupai ir daudzas ievērojamas bezpeļņas organizācijas kā parakstītāji, piemēram, Human Rights Watch, Amnesty International, Kā arī Dzīves nākotnes institūts kurai pati par sevi ir izcila zinātniskā padomdevēja padome, tostarp Elons Masks, Niks Bostroms un Stjuarts Rasels.

Pirms turpināt, es dalīšos ar šo citātu no The Future of Life Institute, kas vislabāk izskaidro, kāpēc ir skaidrs iemesls bažām: “Atšķirībā no daļēji autonomiem ieročiem, kuriem nepieciešama cilvēka uzraudzība, lai nodrošinātu, ka katrs mērķis tiek atzīts par ētiski un juridiski likumīgu, pilnībā autonomi ieroči atlasa un iesaista mērķus bez cilvēka iejaukšanās, kas ir pilnīga letāla kaitējuma automatizācija. ”

Pašlaik viedbumbas tiek izvietotas ar cilvēka izvēlētu mērķi, un pēc tam bumba izmanto AI, lai noteiktu kursu un nosēstos uz tā mērķa. Problēma ir tāda, kas notiek, kad mēs nolemjam pilnībā izņemt cilvēku no vienādojuma?

Kad mākslīgais intelekts izvēlas, uz ko cilvēkiem ir nepieciešama mērķauditorijas atlase, kā arī papildu bojājumu veidu, kas tiek uzskatīts par pieņemamu, mēs, iespējams, esam šķērsojuši neatgriešanās punktu. Tāpēc tik daudzi AI pētnieki iebilst pret visu, kas ir attāli saistīts ar autonomiem ieročiem, izpēti.

Pastāv vairākas problēmas, vienkārši mēģinot bloķēt autonomu ieroču izpēti. Pirmā problēma ir pat tad, ja tādas attīstītās valstis kā Kanāda, ASV un lielākā daļa Eiropas izvēlas piekrist aizliegumam, tas nenozīmē, ka līdzi stāsies arī negodīgas valstis, piemēram, Ķīna, Ziemeļkoreja, Irāna un Krievija. Otra un lielāka problēma ir tā, ka AI pētījumi un lietojumprogrammas, kas paredzētas lietošanai vienā jomā, var tikt izmantotas pilnīgi nesaistītā jomā.

Piemēram, datora redze nepārtraukti uzlabojas un ir svarīga autonomu transportlīdzekļu izstrādei, precīzai medicīnai un citiem svarīgiem lietošanas gadījumiem. Tas ir ļoti svarīgi arī parastajiem bezpilota lidaparātiem vai droniem, kurus var pārveidot, lai tie kļūtu autonomi. Viens no iespējamiem modernu dronu tehnoloģiju izmantošanas gadījumiem ir tādu dronu izstrāde, kas var uzraudzīt un cīnīties ar meža ugunsgrēkiem. Tas pilnībā atbrīvotu ugunsdzēsējus no kaitējuma ceļa. Lai to izdarītu, būtu jābūvē droni, kas spēj ielidot kaitējuma ceļā, pārvietoties zemas vai nulles redzamības apstākļos un spēj nevainojami nolaist ūdeni. Nav tālu, lai pēc tam izmantotu šo identisko tehnoloģiju autonomā bezpilota lidaparātā, kas paredzēts selektīvai mērķēšanai uz cilvēkiem.

Tā ir bīstama situācija, un šobrīd neviens pilnībā nesaprot autonomo ieroču attīstības virzīšanas vai mēģinājuma bloķēt sekas. Tomēr tas ir kaut kas, uz ko mums ir jātur acis, un tas ir jāuzlabo trauksmes pūtēja aizsardzība var ļaut tiem, kas darbojas šajā jomā, ziņot par pārkāpumiem.

Ja neņem vērā negodīgo operatoru, kas notiek, ja AI aizspriedumi iekļūst AI tehnoloģijā, kas ir izstrādāta kā autonoms ierocis?

AI novirze

Viens no visvairāk neziņotajiem AI draudiem ir AI novirze. To ir viegli saprast, jo lielākā daļa no tā ir nejauša. AI novirze parādās, kad AI pārskata datus, ko tai ievada cilvēki, izmantojot modeļa atpazīšanu no datiem, kas tika ievadīti AI, un AI nepareizi izdara secinājumus, kam var būt negatīva ietekme uz sabiedrību. Piemēram, mākslīgais intelekts, kas tiek barots ar pagājušā gadsimta literatūru par to, kā identificēt medicīnas personālu, var nonākt pie nevēlama seksistiska secinājuma, ka sievietes vienmēr ir medmāsas, un vīrieši vienmēr ir ārsti.

Bīstamāks scenārijs ir tad, kad AI, ko izmanto notiesātajiem noziedzniekiem, ir neobjektīvs garāku cietumsodu piešķiršanu minoritātēm. AI kriminālā riska novērtēšanas algoritmi vienkārši pēta sistēmā ievadīto datu modeļus. Šie dati liecina, ka vēsturiski noteiktas minoritātes, visticamāk, atkārtos pārkāpumus, pat ja tas ir saistīts ar sliktām datu kopām, ko var ietekmēt policijas rasu profilēšana. Pēc tam neobjektīvais AI pastiprina negatīvu cilvēku politiku. Tāpēc mākslīgajam intelektam ir jābūt vadlīnijai, nevis tiesāšanai un žūrijai.

Atgriežoties pie autonomiem ieročiem, ja mums ir mākslīgais intelekts, kas ir neobjektīvs pret noteiktām etniskām grupām, tas varētu izvēlēties mērķēt uz noteiktām personām, pamatojoties uz neobjektīviem datiem, un tas varētu iet tik tālu, lai nodrošinātu, ka jebkāda veida papildu kaitējums noteiktus demogrāfiskos datus ietekmē mazāk nekā citus. . Piemēram, vēršoties pret teroristu, pirms uzbrukuma tas varētu pagaidīt, līdz teroristu ieskauj tie, kas seko musulmaņu ticībai, nevis kristiešiem.

Par laimi, ir pierādīts, ka AI, kas ir izstrādāta ar dažādām komandām, ir mazāk pakļauta neobjektivitātei. Tas ir pietiekams iemesls, lai uzņēmumi, kad vien iespējams, mēģinātu nolīgt daudzveidīgu, labi noapaļotu komandu.

Mākslīgā vispārējā intelekta draudi

Jānorāda, ka, lai gan AI virzās uz priekšu eksponenciālā tempā, mēs joprojām neesam sasnieguši AGI. Kad mēs sasniegsim AGI, tiek apspriests, un katram ir atšķirīga atbilde par laika grafiku. Es personīgi piekrītu Reja Kurcveila, izgudrotāja, futūrista un grāmatas “The Singularity is Near” autora uzskatiem, kurš uzskata, ka mums būs sasniedza AGI līdz 2029. gadam.

AGI būs transformējošākā tehnoloģija pasaulē. Dažu nedēļu laikā pēc tam, kad AI sasniegs cilvēka līmeņa intelektu, tas sasniegs superinteliģence kas tiek definēts kā intelekts, kas ievērojami pārsniedz cilvēka intelektu.

Ar šo intelekta līmeni AGI varētu ātri absorbēt visas cilvēku zināšanas un izmantot modeļu atpazīšanu, lai identificētu biomarķierus, kas izraisa veselības problēmas, un pēc tam ārstētu šos apstākļus, izmantojot datu zinātni. Tas varētu radīt nanobotus, kas nonāk asinsritē, lai mērķētu uz vēža šūnām vai citiem uzbrukuma vektoriem. To sasniegumu saraksts, uz kuriem AGI ir spējīgs, ir bezgalīgs. Mēs iepriekš esam izpētījuši dažus no AGI priekšrocības.

Problēma ir tāda, ka cilvēki, iespējams, vairs nevarēs kontrolēt AI. Elons Masks to apraksta šādi: ”Ar mākslīgo intelektu mēs izsaucam dēmonu.' Jautājums ir, vai mēs spēsim kontrolēt šo dēmonu?

AGI sasniegšana var būt vienkārši neiespējama, kamēr AI neatstāj simulācijas iestatījumu, lai patiesi mijiedarbotos mūsu atvērtajā pasaulē. Pašapziņu nevar veidot, tā vietā tiek uzskatīts, ka an topošā apziņa visticamāk, attīstīsies, ja AI ir robotizēts korpuss ar vairākām ievades straumēm. Šīs ievades var ietvert taustes stimulāciju, balss atpazīšanu ar uzlabotu dabiskās valodas izpratni un paplašinātu datora redzi.

Uzlabotais AI var būt ieprogrammēts ar altruistiskiem motīviem un vēlas glābt planētu. Diemžēl AI var izmantot datu zinātne, vai pat a lēmumu koks lai nonāktu pie nevēlamas kļūdainas loģikas, piemēram, novērtējot, ka ir nepieciešams sterilizēt cilvēkus vai likvidēt daļu no cilvēku populācijas, lai kontrolētu cilvēku pārapdzīvotību.

Veidojot mākslīgo intelektu ar intelektu, kas ievērojami pārspēs cilvēka intelektu, ir rūpīgi jādomā un jāapsver. Ir bijuši daudzi murgu scenāriji, kas ir izpētīti.

Profesors Niks Bostroms argumentā par saspraudes maksimizatoru ir apgalvojis, ka nepareizi konfigurēta AGI, ja tai tiktu uzdots ražot saspraudes, vienkārši patērēs visus zemes resursus, lai ražotu šīs saspraudes. Lai gan tas šķiet nedaudz tālu, pragmatiskāks viedoklis ir tāds, ka AGI varētu kontrolēt negodīga valsts vai korporācija ar sliktu ētiku. Šī organizācija varētu apmācīt AGI palielināt peļņu, un šajā gadījumā ar sliktu programmēšanu un nulles nožēlu tā varētu izvēlēties bankrotēt konkurentiem, iznīcināt piegādes ķēdes, uzlauzt akciju tirgu, likvidēt banku kontus vai uzbrukt politiskajiem pretiniekiem.

Tas ir tad, kad mums jāatceras, ka cilvēkiem ir tendence antropomorfizēties. Mēs nevaram sniegt AI cilvēka tipa emocijas, vēlmes vai vēlmes. Lai gan ir velnišķīgi cilvēki, kas nogalina sava prieka pēc, nav pamata uzskatīt, ka mākslīgais intelekts būtu uzņēmīgs pret šāda veida uzvedību. Cilvēkiem ir neiedomājami pat apsvērt, kā AI uztvertu pasauli.

Tā vietā mums ir jāiemāca AI vienmēr būt cienīgam pret cilvēku. AI vienmēr ir jābūt cilvēkam, kas apstiprina visas iestatījumu izmaiņas, un vienmēr ir jābūt drošam mehānismam. Vēlreiz tiek apgalvots, ka mākslīgais intelekts vienkārši atkārtosies mākonī, un, kamēr mēs sapratīsim, ka tas apzināsies, var būt par vēlu.

Tāpēc ir tik svarīgi pēc iespējas vairāk atvērtā koda AI un racionāli apspriest šos jautājumus.

Kopsavilkums

AI ir daudz izaicinājumu, par laimi, mums vēl ir daudz gadu, lai kopīgi izdomātu nākotnes ceļu, ko vēlamies, lai AGI iet. Īstermiņā mums jākoncentrējas uz daudzveidīga mākslīgā intelekta darbaspēka izveidi, kurā būtu pēc iespējas vairāk sieviešu un vīriešu un pēc iespējas vairāk etnisko grupu ar dažādiem viedokļiem.

Mums būtu arī jāizveido trauksmes cēlēju aizsardzība pētniekiem, kuri strādā pie AI, un mums ir jāpieņem likumi un noteikumi, kas novērš plaši izplatītu valsts vai uzņēmuma mēroga uzraudzības ļaunprātīgu izmantošanu. Cilvēkiem vienreiz mūžā ir iespēja uzlabot cilvēka stāvokli ar mākslīgā intelekta palīdzību, mums tikai jānodrošina, ka mēs rūpīgi izveidojam sociālo sistēmu, kas vislabāk nodrošina pozitīvo, vienlaikus mazinot negatīvos, kas ietver eksistenciālus draudus.

Unite.AI dibinātājs un biedrs Forbes tehnoloģiju padome, Antuāns ir a futūrists kurš aizraujas ar AI un robotikas nākotni.

Viņš ir arī dibinātājs Vērtspapīri.io, vietne, kas koncentrējas uz ieguldījumiem traucējošās tehnoloģijās.