stomp Is KI 'n eksistensiële bedreiging? - Verenig.AI
Verbinding met ons

Kunsmatige Algemene Intelligensie

Is KI 'n eksistensiële bedreiging?

mm
Opgedateer on

Wanneer kunsmatige intelligensie (KI) bespreek word, is 'n algemene debat of KI 'n eksistensiële bedreiging is. Die antwoord vereis dat jy die tegnologie agter Machine Learning (ML) verstaan, en erken dat mense die neiging het om te antropomorfiseer. Ons sal twee verskillende tipes KI ondersoek, kunsmatige smal intelligensie (ANI) wat nou beskikbaar is en rede tot kommer is, en die bedreiging wat die meeste geassosieer word met apokaliptiese weergawes van KI, wat kunsmatige algemene intelligensie (AGI) is.

Kunsmatige smal intelligensie bedreigings

Om te verstaan ​​wat ANI is, moet jy eenvoudig verstaan ​​dat elke enkele KI-toepassing wat tans beskikbaar is, 'n vorm van ANI is. Dit is velde van KI wat 'n smal spesialiteitsveld het, byvoorbeeld outonome voertuie gebruik KI wat ontwerp is met die uitsluitlike doel om 'n voertuig van punt A na B te beweeg. 'n Ander tipe ANI kan 'n skaakprogram wees wat geoptimaliseer is om te speel skaak, en selfs al verbeter die skaakprogram homself voortdurend deur gebruik te maak van versterkingsleer, sal die skaakprogram nooit 'n outonome voertuig kan bestuur nie.

Met sy fokus op watter operasie dit ook al verantwoordelik is, is ANI-stelsels nie in staat om algemene leer te gebruik om die wêreld oor te neem nie. Dit is die goeie nuus; die slegte nuus is dat met sy afhanklikheid van 'n menslike operateur die KI-stelsel vatbaar is vir bevooroordeelde data, menslike foute, of selfs erger, 'n skelm menslike operateur.

KI-toesig

Daar is dalk geen groter gevaar vir die mensdom as mense wat KI gebruik om privaatheid in te dring nie, en in sommige gevalle KI-toesig gebruik om mense heeltemal te verhoed om vrylik te beweeg.  China, Rusland en ander nasies het regulasies tydens COVID-19 deurgevoer om hulle in staat te stel om die beweging van hul onderskeie bevolkings te monitor en te beheer. Dit is wette wat sodra in plek is, moeilik is om te verwyder, veral in samelewings met outokratiese leiers.

In China word kameras buite mense se huise gestasioneer, en in sommige gevalle binne die persoon se huis. Elke keer as ’n lid van die huishouding vertrek, monitor ’n KI die tyd van aankoms en vertrek, en waarsku indien nodig die owerhede. Asof dit nie voldoende is nie, kan China met die hulp van gesigsherkenningstegnologie die beweging van elke persoon dophou elke keer as hulle deur 'n kamera geïdentifiseer word. Dit bied absolute mag aan die entiteit wat die KI beheer, en absoluut geen beroep op sy burgers nie.

Waarom hierdie scenario gevaarlik is, is dat korrupte regerings die bewegings van joernaliste, politieke opponente of enigiemand wat dit waag om die gesag van die regering te bevraagteken noukeurig kan monitor. Dit is maklik om te verstaan ​​hoe joernaliste en burgers versigtig sal wees om regerings te kritiseer wanneer elke beweging gemonitor word.

Daar is gelukkig baie stede wat veg om te verhoed dat gesigsherkenning hul stede binnedring. Veral, Portland, Oregon het onlangs 'n wet aangeneem wat keer dat gesigsherkenning onnodig in die stad gebruik word. Alhoewel hierdie veranderinge in regulasie dalk ongemerk deur die algemene publiek gebly het, kan hierdie regulasies in die toekoms die verskil wees tussen stede wat een of ander soort outonomie en vryheid bied, en stede wat onderdrukkend voel.

Outonome wapens en hommeltuie

Meer as 4500 KI-navorsing het gevra vir 'n verbod op outonome wapens en het die geskep Verbied dodelike outonome wapens webwerf. Die groep het baie noemenswaardige nie-winsgewende organisasies as ondertekenaars soos Human Rights Watch, Amnestie Internasionaal, En die Die toekoms van die lewe Instituut wat op sigself 'n uitstekende wetenskaplike adviesraad het wat Elon Musk, Nick Bostrom en Stuart Russell insluit.

Voordat ek voortgaan, sal ek hierdie aanhaling van The Future of Life Institute deel wat die beste verduidelik waarom daar duidelike rede tot kommer is: “In teenstelling met semi-outonome wapens wat menslike toesig vereis om te verseker dat elke teiken as eties en wetlik legitiem bekragtig word, soos bv. volledig outonome wapens kies en betrek teikens sonder menslike ingryping, wat volledige outomatisering van dodelike skade verteenwoordig. ”

Tans word slimbomme ontplooi met 'n teiken wat deur 'n mens gekies is, en die bom gebruik dan KI om 'n koers uit te stippel en op sy teiken te land. Die probleem is wat gebeur as ons besluit om die mens heeltemal uit die vergelyking te verwyder?

Wanneer 'n KI kies wat mense moet teiken, sowel as die tipe kollaterale skade wat aanvaarbaar geag word, het ons dalk 'n punt van geen terugkeer oorgesteek. Dit is hoekom so baie KI-navorsers daarteen gekant is om enigiets na te vors wat op afstand verband hou met outonome wapens.

Daar is verskeie probleme om bloot te probeer om outonome wapennavorsing te blokkeer. Die eerste probleem is, selfs al kies gevorderde lande soos Kanada, die VSA en die meeste van Europa om in te stem tot die verbod, beteken dit nie skelm nasies soos China, Noord-Korea, Iran en Rusland sal saamspeel nie. Die tweede en groter probleem is dat KI-navorsing en toepassings wat ontwerp is vir gebruik in een veld, in 'n heeltemal onverwante veld gebruik kan word.

Byvoorbeeld, rekenaarvisie verbeter voortdurend en is belangrik vir die ontwikkeling van outonome voertuie, presisiemedisyne en ander belangrike gebruiksgevalle. Dit is ook fundamenteel belangrik vir gereelde hommeltuie of hommeltuie wat aangepas kan word om outonoom te word. Een moontlike gebruiksgeval van gevorderde hommeltuigtegnologie is die ontwikkeling van hommeltuie wat bosbrande kan monitor en bestry. Dit sal brandbestryders heeltemal van skade wegneem. Om dit te kan doen, sal jy hommeltuie moet bou wat in staat is om teen skade te vlieg, om in lae of geen sigbaarheid te navigeer, en in staat is om water met onberispelike presisie te laat val. Dit is nie ver om dan hierdie identiese tegnologie te gebruik in 'n outonome hommeltuig wat ontwerp is om selektief mense te teiken nie.

Dit is 'n gevaarlike penarie en op hierdie tydstip verstaan ​​niemand ten volle die implikasies van bevordering of poging om die ontwikkeling van outonome wapens te blokkeer nie. Dit is nietemin iets waarop ons ons oë moet hou, verbeter fluitjieblaserbeskerming kan diegene in die veld in staat stel om misbruik aan te meld.

Skelmoperateur eenkant, wat gebeur as KI-vooroordeel insluip in KI-tegnologie wat ontwerp is om 'n outonome wapen te wees?

AI-vooroordeel

Een van die mees ongerapporteerde bedreigings van KI is KI-vooroordeel. Dit is maklik om te verstaan, aangesien die meeste daarvan onbedoeld is. KI-vooroordeel gly in wanneer 'n KI data hersien wat deur mense aan hom gevoer word, deur gebruik te maak van patroonherkenning van die data wat aan die KI gevoer is, kom die KI verkeerdelik tot gevolgtrekkings wat negatiewe uitwerking op die samelewing kan hê. Byvoorbeeld, 'n KI wat literatuur van die afgelope eeu gevoer word oor hoe om mediese personeel te identifiseer, kan tot die ongewenste seksistiese gevolgtrekking kom dat vroue is altyd verpleegsters, en mans is altyd dokters.

’n Gevaarliker scenario is wanneer KI wat gebruik word om veroordeelde misdadigers te vonnis, is bevooroordeeld om langer tronkstraf aan minderhede te gee. Die KI se algoritmes vir kriminele risikobepaling bestudeer bloot patrone in die data wat in die stelsel ingevoer is. Hierdie data dui aan dat histories sekere minderhede meer geneig is om weer aanstoot te gee, selfs wanneer dit te wyte is aan swak datastelle wat deur die polisie se rasseprofilering beïnvloed kan word. Die bevooroordeelde KI versterk dan negatiewe menslike beleid. Dit is hoekom KI 'n riglyn moet wees, nooit oordeel en jurie nie.

Om terug te keer na outonome wapens, as ons 'n KI het wat bevooroordeeld is teen sekere etniese groepe, kan dit kies om sekere individue te teiken op grond van bevooroordeelde data, en dit kan so ver gaan as om te verseker dat enige tipe kollaterale skade sekere demografiese impak minder as ander het. . Byvoorbeeld, wanneer 'n terroris geteiken word, voordat dit aangeval word, kan dit wag totdat die terroris omring word deur diegene wat die Moslem-geloof volg in plaas van Christene.

Gelukkig is dit bewys dat KI wat met uiteenlopende spanne ontwerp is, minder geneig is tot vooroordeel. Dit is genoeg rede vir ondernemings om, wanneer dit enigsins moontlik is, te probeer om 'n diverse, afgeronde span aan te stel.

Kunsmatige Algemene Intelligensie Bedreigings

Dit moet gestel word dat hoewel KI teen 'n eksponensiële tempo vorder, ons steeds nie AGI bereik het nie. Wanneer ons AGI sal bereik, word bespreek, en almal het 'n ander antwoord oor 'n tydlyn. Ek onderskryf persoonlik die sienings van Ray Kurzweil, uitvinder, toekomskundige en skrywer van 'The Singularity is Near' wat glo dat ons sal hê AGI teen 2029 behaal het.

AGI sal die mees transformerende tegnologie in die wêreld wees. Binne weke nadat KI menslike vlak intelligensie bereik het, sal dit dan bereik super intelligensie wat gedefinieer word as intelligensie wat die van 'n mens ver oortref.

Met hierdie vlak van intelligensie kan 'n AGI vinnig alle menslike kennis absorbeer en patroonherkenning gebruik om biomerkers te identifiseer wat gesondheidskwessies veroorsaak, en dan daardie toestande behandel deur datawetenskap te gebruik. Dit kan nanobotte skep wat die bloedstroom binnedring om kankerselle of ander aanvalvektore te teiken. Die lys van prestasies waartoe 'n AGI in staat is, is oneindig. Ons het voorheen sommige van die voordele van AGI.

Die probleem is dat mense dalk nie meer die KI kan beheer nie. Elon Musk beskryf dit so: ”Met kunsmatige intelligensie roep ons die demoon.' Sal ons hierdie demoon kan beheer is die vraag?

Die bereiking van AGI kan eenvoudig onmoontlik wees totdat 'n KI 'n simulasie-instelling verlaat om werklik interaksie in ons oop wêreld te hê. Selfbewustheid kan nie ontwerp word nie, in plaas daarvan word geglo dat 'n ontluikende bewussyn sal waarskynlik ontwikkel wanneer 'n KI 'n robotliggaam het wat verskeie insetstrome bevat. Hierdie insette kan tasstimulasie, stemherkenning met verbeterde natuurlike taalbegrip en verbeterde rekenaarvisie insluit.

Die gevorderde KI is dalk met altruïstiese motiewe geprogrammeer en wil die planeet red. Ongelukkig kan die KI gebruik data wetenskap, of selfs 'n besluit boom om by ongewenste foutiewe logika uit te kom, soos om te bepaal dat dit nodig is om mense te steriliseer, of van die menslike bevolking uit te skakel om menslike oorbevolking te beheer.

Noukeurige nadenke en oorweging moet ondersoek word wanneer 'n KI gebou word met intelligensie wat dié van 'n mens ver oortref. Daar was baie nagmerriescenario's wat ondersoek is.

Professor Nick Bostrom in die Paperclip Maximizer-argument het aangevoer dat 'n verkeerd gekonfigureerde AGI as opdrag gegee word om skuifspelde te vervaardig eenvoudig al die aarde se hulpbronne sal verbruik om hierdie skuifspelde te vervaardig. Alhoewel dit 'n bietjie vergesog lyk, is 'n meer pragmatiese standpunt dat 'n AGI beheer kan word deur 'n skelm staat of 'n korporasie met swak etiek. Hierdie entiteit kan die AGI oplei om wins te maksimeer, en in hierdie geval met swak programmering en geen berou kan dit kies om mededingers bankrot te maak, voorsieningskettings te vernietig, die aandelemark te kap, bankrekeninge te likwideer of politieke teenstanders aan te val.

Dit is wanneer ons moet onthou dat mense geneig is om te antropomorfiseer. Ons kan nie die KI menslike-tipe emosies, begeertes of begeertes gee nie. Alhoewel daar diaboliese mense is wat doodmaak vir plesier, is daar geen rede om te glo dat 'n KI vir hierdie tipe gedrag vatbaar sal wees nie. Dit is ondenkbaar vir mense om selfs te oorweeg hoe 'n KI die wêreld sal sien.

Wat ons eerder moet doen, is om KI te leer om altyd eerbiedig teenoor 'n mens te wees. Die KI moet altyd 'n mens hê wat enige veranderinge in instellings bevestig, en daar moet altyd 'n faalveilige meganisme wees. Weereens, daar is aangevoer dat KI homself eenvoudig in die wolk sal herhaal, en teen die tyd dat ons besef dat dit selfbewus is, kan dit te laat wees.

Dit is hoekom dit so belangrik is om soveel KI as moontlik oop te maak en om rasionele besprekings oor hierdie kwessies te voer.

Opsomming

Daar is baie uitdagings vir KI, gelukkig het ons nog baie jare om gesamentlik uit te vind watter toekomstige pad ons wil hê AGI moet neem. Ons moet op kort termyn fokus op die skep van 'n diverse KI-werksmag, wat soveel vroue as mans insluit, en soveel etniese groepe as moontlik met uiteenlopende standpunte.

Ons moet ook fluitjieblaserbeskerming skep vir navorsers wat aan KI werk, en ons moet wette en regulasies deurvoer wat wydverspreide misbruik van staats- of maatskappywye toesig voorkom. Mense het 'n eenmalige geleentheid om die menslike toestand met die hulp van KI te verbeter, ons moet net verseker dat ons noukeurig 'n samelewingsraamwerk skep wat die positiewe die beste moontlik maak, terwyl die negatiewe wat eksistensiële bedreigings insluit, versag.

'n Stigtersvennoot van unite.AI & 'n lid van die Forbes Tegnologieraad, Antoine is 'n futuris wat passievol is oor die toekoms van KI en robotika.

Hy is ook die stigter van Sekuriteite.io, 'n webwerf wat fokus op belegging in ontwrigtende tegnologie.