stub Kas tehisintellekt on eksistentsiaalne oht? - Ühendage.AI
Ühenda meile

Üldine tehisintellekt

Kas tehisintellekt on eksistentsiaalne oht?

mm
Ajakohastatud on

Tehisintellekti (AI) arutamisel on levinud arutelu selle üle, kas tehisintellekt on eksistentsiaalne oht. Vastus nõuab masinõppe (ML) tehnoloogia mõistmist ja teadvustamist, et inimestel on kalduvus antropomorfeeruda. Uurime kahte erinevat tüüpi tehisintellekti, tehisintellekti (ANI), mis on praegu saadaval ja tekitab muret, ning ohtu, mida kõige sagedamini seostatakse AI apokalüptiliste üleviimistega, mis on tehisintellekt (AGI).

Kitsa tehisintellekti ohud

ANI-i mõistmiseks peate lihtsalt mõistma, et iga praegu saadaval olev AI-rakendus on ANI vorm. Need on tehisintellekti valdkonnad, millel on kitsas erialane valdkond, näiteks autonoomsed sõidukid kasutavad tehisintellekti, mis on loodud ainult sõiduki liigutamiseks punktist A punkti B. Teine ANI tüüp võib olla mängimiseks optimeeritud maleprogramm. male ja isegi kui maleprogramm end pidevalt tugevdava õppe abil täiustab, ei saa maleprogramm kunagi autonoomset sõidukit juhtida.

Keskendudes mis tahes toimingule, mille eest ta vastutab, ei suuda ANI-süsteemid kasutada üldist õpet, et maailma üle võtta. See on hea uudis; Halb uudis on see, et tehisintellekti süsteem, tuginedes inimoperaatorile, on vastuvõtlik kallutatud andmetele, inimlikele eksimustele või, mis veelgi hullem, petturlikule inimoperaatorile.

AI järelevalve

Inimkonnale ei pruugi olla suuremat ohtu kui inimesed, kes kasutavad tehisintellekti privaatsuse ründamiseks ja mõnel juhul kasutavad tehisintellekti järelevalvet inimeste vaba liikumise täielikuks takistamiseks.  Hiina, Venemaa ja teised riigid läbisid COVID-19 ajal eeskirjad võimaldada neil jälgida ja kontrollida oma elanikkonna liikumist. Need on seadused, mida on raske eemaldada, eriti ühiskondades, kus on autokraatlikud juhid.

Hiinas asuvad kaamerad väljaspool inimeste kodusid ja mõnel juhul ka inimese kodus. Iga kord, kui leibkonnaliige lahkub, jälgib tehisintellekt saabumise ja lahkumise aega ning vajadusel hoiatab ametiasutusi. Nagu sellest veel vähe oleks, suudab Hiina näotuvastustehnoloogia abil jälgida iga inimese liikumist iga kord, kui kaamera tuvastab. See pakub tehisintellekti kontrollivale üksusele absoluutset võimu ja oma kodanikele absoluutset võimalust.

Miks see stsenaarium on ohtlik, seisneb selles, et korrumpeerunud valitsused saavad hoolikalt jälgida ajakirjanike, poliitiliste oponentide või kõigi, kes julgevad valitsuse autoriteeti kahtluse alla seada, liikumist. On lihtne mõista, kuidas ajakirjanikud ja kodanikud oleksid ettevaatlikud valitsusi kritiseerima, kui iga liikumist jälgitakse.

Õnneks on palju linnu, kes võitlevad selle eest, et näotuvastus nende linnadesse imbuks. Eelkõige Portland (Oregon) võttis hiljuti vastu seaduse mis takistab näotuvastuse asjatut kasutamist linnas. Kuigi need muudatused regulatsioonis võisid jääda avalikkusele märkamatuks, võivad need reeglid tulevikus olla erinevus linnade vahel, mis pakuvad teatud tüüpi autonoomiat ja vabadust, ning linnade vahel, mis tunnevad end rõhuvalt.

Autonoomsed relvad ja droonid

Üle 4500 AI-uuringu on nõudnud autonoomsete relvade keelustamist ja loonud Keelake surmavad autonoomsed relvad veebisait. Rühmal on allakirjutanutena palju märkimisväärseid mittetulundusühinguid, näiteks Human Rights Watch, Amnesty InternationalJa Elu Tuleviku Instituut millel iseenesest on suurepärane teaduslik nõuandekogu, kuhu kuuluvad Elon Musk, Nick Bostrom ja Stuart Russell.

Enne jätkamist jagan seda tsitaati The Future of Life Institute’ist, mis selgitab kõige paremini, miks on põhjust muretsemiseks: „Erinevalt poolautonoomsetest relvadest, mis nõuavad inimjärelevalvet, et tagada iga sihtmärgi eetiliselt ja juriidiliselt legitiimseks tunnistamine, täielikult autonoomsed relvad valivad ja löövad sihtmärke ilma inimese sekkumiseta, mis kujutab endast surmava kahju täielikku automatiseerimist. ”

Praegu kasutatakse nutikaid pomme inimese valitud sihtmärgiga ning pomm kasutab seejärel tehisintellekti kursi kavandamiseks ja sihtmärgile maandumiseks. Probleem on selles, mis juhtub siis, kui otsustame inimese võrrandist täielikult eemaldada?

Kui tehisintellekt valib, mida inimesed vajavad sihtimiseks, ja ka vastuvõetavaks peetava kaaskahju tüübi, oleme võib-olla ületanud tagasitulekupunkti. Seetõttu on nii paljud AI-uurijad vastu kõike, mis on autonoomsete relvadega kaugelt seotud, uurimisele.

Autonoomsete relvauuringute lihtsalt blokeerimise katsega on palju probleeme. Esimene probleem on see, et isegi kui arenenud riigid, nagu Kanada, USA ja suurem osa Euroopast otsustavad keeluga nõustuda, ei tähenda see, et ka sellised petturid nagu Hiina, Põhja-Korea, Iraan ja Venemaa kaasa mängiksid. Teine ja suurem probleem on see, et tehisintellekti uuringuid ja rakendusi, mis on mõeldud kasutamiseks ühes valdkonnas, võidakse kasutada täiesti mitteseotud valdkonnas.

Näiteks arvutinägemine paraneb pidevalt ja on oluline autonoomsete sõidukite, täppismeditsiini ja muude oluliste kasutusjuhtude arendamiseks. Samuti on see põhimõtteliselt oluline tavaliste droonide või droonide jaoks, mida saab muuta autonoomseteks. Üks täiustatud droonitehnoloogia potentsiaalseid kasutusviise on droonide väljatöötamine, mis suudavad jälgida metsatulekahjusid ja nendega võidelda. See eemaldaks tuletõrjujad kahjudest täielikult. Selleks tuleks ehitada droone, mis suudavad lennata kahjudele, navigeerida halva või nullnähtavuse korral ning laitmatu täpsusega vett maha lasta. Selle identse tehnoloogia kasutamine autonoomses droonis, mis on loodud inimeste valikuliseks sihtimiseks, pole kaugeltki pikk.

See on ohtlik olukord ja praegusel ajahetkel ei mõista keegi täielikult autonoomsete relvade arendamise edasiliikumise või blokeerimiskatse tagajärgi. Sellegipoolest peame sellel silma peal hoidma ja seda täiustama vilepuhuri kaitse võib võimaldada valdkonna töötajatel kuritarvitustest teatada.

Kui petturlik operaator kõrvale jätta, mis juhtub siis, kui AI eelarvamus hiilib AI-tehnoloogiasse, mis on loodud olema autonoomne relv?

AI eelarvamus

Üks enim teatamata AI ohte on AI eelarvamus. Seda on lihtne mõista, kuna suurem osa sellest on tahtmatu. AI eelarvamus libiseb sisse, kui tehisintellekt vaatab üle inimeste poolt talle antud andmed, kasutades tehisintellektile söödetud andmete mustrituvastust, teeb tehisintellekt ebaõiged järeldused, millel võib olla ühiskonnale negatiivne mõju. Näiteks AI, millele toidetakse eelmise sajandi kirjandust meditsiinipersonali tuvastamise kohta, võib jõuda soovimatu seksistliku järelduseni, et naised on alati õed ja mehed alati arstid.

Ohtlikum stsenaarium on siis, kui Süüdimõistetud kurjategijatele karistuse määramiseks kasutatav tehisintellekt on erapoolik vähemustele pikema vanglakaristuse määramise suunas. AI kriminaalsete riskide hindamise algoritmid uurivad lihtsalt süsteemi sisestatud andmete mustreid. Need andmed näitavad, et ajalooliselt on teatud vähemused tõenäolisemalt rikkunud, isegi kui see on tingitud kehvadest andmekogumitest, mida võib mõjutada politsei rassiline profiilide koostamine. Erapoolik tehisintellekt tugevdab seejärel negatiivset inimpoliitikat. Seetõttu peaks tehisintellekt olema juhis, mitte kunagi kohtunik ja žürii.

Tulles tagasi autonoomsete relvade juurde, kui meil on AI, mis on teatud etniliste rühmade suhtes kallutatud, võib see sihikule võtta teatud isikuid kallutatud andmete põhjal ja see võib minna nii kaugele, et tagada, et igasugune kaaskahju mõjutab teatud demograafiat vähem kui teisi. . Näiteks terroristi sihikule võtmisel võiks ta enne ründamist oodata, kuni terroristi ümbritsevad kristlaste asemel moslemite usku järgijad.

Õnneks on tõestatud, et erinevate meeskondadega loodud tehisintellekt on vähem kalduvus erapoolikusse. See on piisav põhjus, et ettevõtted püüaksid võimalusel palgata mitmekülgset ja terviklikku meeskonda.

Üldise tehisintellekti ohud

Tuleb märkida, et kuigi AI edeneb eksponentsiaalses tempos, pole me AGI-d ikka veel saavutanud. Millal me AGI-le jõuame, on aruteluks ja igaühel on ajaskaala osas erinev vastus. Ma nõustun isiklikult Ray Kurzweili, leiutaja, futurist ja raamatu "The Singularity is Near" autori vaadetega, kes usub, et meil on saavutas AGI 2029. aastaks.

AGI saab olema maailma kõige muutlikum tehnoloogia. Nädala jooksul pärast seda, kui AI saavutab inimtaseme intelligentsuse, jõuab see seejärel kohale ülintelligentsus mida defineeritakse kui intelligentsust, mis ületab tunduvalt inimese oma.

Selle intelligentsuse tasemega saaks AGI kiiresti absorbeerida kõik inimeste teadmised ja kasutada mustrituvastust terviseprobleeme põhjustavate biomarkerite tuvastamiseks ning seejärel andmeteaduse abil neid haigusseisundeid ravida. See võib luua nanoboteid, mis sisenevad vereringesse vähirakkude või muude rünnakuvektorite sihtmärgiks. Saavutuste loetelu, milleks AGI on võimeline, on lõpmatu. Oleme varem mõnda neist uurinud AGI eelised.

Probleem on selles, et inimesed ei pruugi enam AI-d kontrollida. Elon Musk kirjeldab seda järgmiselt: ”Tehisintellektiga kutsume välja deemoni.' Kas me suudame seda deemonit kontrollida, on küsimus?

AGI saavutamine võib olla lihtsalt võimatu, kuni AI jätab simulatsiooniseade, et meie avatud maailmas tõeliselt suhelda. Eneseteadvust ei saa kujundada, selle asemel arvatakse, et an tekkiv teadvus tõenäoliselt areneb, kui tehisintellektil on robotkere, millel on mitu sisendvoogu. Need sisendid võivad hõlmata kombatavat stimulatsiooni, hääletuvastust koos täiustatud loomuliku keele mõistmisega ja täiustatud arvutinägemist.

Täiustatud tehisintellekt võib olla programmeeritud altruistlike motiividega ja soovib planeeti päästa. Kahjuks võib AI kasutada andmeteadus, või isegi a otsustuspuu jõuda soovimatu vigase loogikani, näiteks hinnata, et inimeste ülerahvastatuse kontrolli all hoidmiseks on vaja inimesi steriliseerida või osa inimpopulatsioonist elimineerida.

Tehisintellekti loomisel, mille intelligentsus ületab palju inimese oma, tuleb hoolikalt mõelda ja kaaluda. On olnud palju õudusunenägusid, mida on uuritud.

Professor Nick Bostrom argumendis Paperclip Maximizer on väitnud, et valesti konfigureeritud AGI, kui tal antakse korraldus toota kirjaklambreid, kulutaks nende kirjaklambrite tootmiseks lihtsalt kõik maa ressursid. Kuigi see tundub pisut kaugeleulatuv, on pragmaatilisem seisukoht, et AGI-d võiks kontrollida petturlik riik või kehva eetikaga ettevõte. See üksus võiks koolitada AGI-d kasumit maksimeerima ning sellisel juhul kehva programmeerimise ja kahetsustundeta võiks ta valida konkurendid pankrotti ajada, hävitada tarneahelad, häkkida aktsiaturgu, likvideerida pangakontosid või rünnata poliitilisi vastaseid.

See on siis, kui peame meeles pidama, et inimesed kipuvad antropomorfiseeruma. Me ei saa anda tehisintellektile inimtüüpi emotsioone, soove ega ihasid. Kuigi on kuratlikke inimesi, kes tapavad naudingu pärast, pole põhjust arvata, et tehisintellekt oleks seda tüüpi käitumisele vastuvõtlik. On mõeldamatu, et inimesed isegi mõtleksid sellele, kuidas tehisintellekt maailma näeks.

Selle asemel peame õpetama tehisintellekti alati inimese suhtes lugupidavalt suhtuma. Tehisintellektil peaks alati olema seadete muudatuste kinnitamine inimesel ja alati peaks olema tõrkekindel mehhanism. Jällegi on väidetud, et AI lihtsalt replitseerib ennast pilves ja selleks ajaks, kui me mõistame, et see on teadlik, võib olla juba hilja.

Seetõttu on nii oluline avada võimalikult palju tehisintellekti lähtekoodiga ja pidada nendel teemadel ratsionaalseid arutelusid.

kokkuvõte

Tehisintellektil on palju väljakutseid, õnneks on meil veel palju aastaid aega, et ühiselt välja mõelda, millisele tulevikuteele AGI-le minna tahame. Lühiajalises perspektiivis peaksime keskenduma mitmekesise tehisintellekti tööjõu loomisele, mis hõlmaks nii palju naisi kui mehi ja võimalikult palju erinevate vaatenurkadega etnilisi rühmi.

Peaksime looma tehisintellektiga tegelevatele teadlastele ka rikkumisest teatajate kaitse ning vastu võtma seadused ja määrused, mis hoiavad ära riikliku või ettevõtteülese järelevalve laialdase kuritarvitamise. Inimestel on kord elus võimalus AI abil inimese seisundit parandada, me peame lihtsalt tagama, et loome hoolikalt ühiskondliku raamistiku, mis võimaldab kõige paremini positiivseid tulemusi, leevendades samas negatiivseid, mis hõlmavad eksistentsiaalseid ohte.

Unite.AI asutajapartner ja liige Forbesi tehnoloogianõukogu, Antoine on a futurist kes on kirglik tehisintellekti ja robootika tuleviku vastu.

Ta on ka asutaja Securities.io, veebisait, mis keskendub häirivasse tehnoloogiasse investeerimisele.