стуб Да ли је АИ егзистенцијална претња? - Уните.АИ
Повежите се са нама

Вештачка општа интелигенција

Да ли је АИ егзистенцијална претња?

mm
Ажурирано on

Када се расправља о вештачкој интелигенцији (АИ), уобичајена дебата је да ли је вештачка интелигенција егзистенцијална претња. Одговор захтева разумевање технологије која стоји иза машинског учења (МЛ) и препознавање да људи имају тенденцију да се антропоморфизују. Истражићемо две различите врсте вештачке интелигенције, вештачку уску интелигенцију (АНИ) која је сада доступна и изазива забринутост, и претњу која се најчешће повезује са апокалиптичним приказима вештачке интелигенције која је вештачка општа интелигенција (АГИ).

Претње вештачке уске интелигенције

Да бисте разумели шта је АНИ, једноставно морате да разумете да је свака појединачна АИ апликација која је тренутно доступна облик АНИ. Ово су области АИ које имају уско поље специјалности, на пример аутономна возила користе вештачку интелигенцију која је дизајнирана са једином сврхом да помери возило од тачке А до тачке Б. Други тип АНИ-а може бити шаховски програм који је оптимизован за играње шах, па чак и ако се шаховски програм континуирано побољшава коришћењем учења са појачањем, шаховски програм никада неће моћи да управља аутономним возилом.

Са својим фокусом на било коју операцију за коју је одговоран, АНИ системи нису у стању да користе генерализовано учење како би заузели свет. То је добра вест; Лоша вест је да је систем вештачке интелигенције са својим ослањањем на људског оператера подложан пристрасним подацима, људској грешци или још горе, лажном људском оператеру.

АИ надзор

Можда не постоји већа опасност по човечанство од људи који користе вештачку интелигенцију да упадну у приватност, а у неким случајевима користе и надзор вештачке интелигенције да потпуно спрече људе да се слободно крећу.  Кина, Русија и друге нације усвојиле су прописе током ЦОВИД-19 да им се омогући праћење и контрола кретања свог становништва. То су закони који су једном на снази, тешко их је уклонити, посебно у друштвима која имају аутократске вође.

У Кини, камере су постављене изван домова људи, ау неким случајевима иу кући те особе. Сваки пут када члан домаћинства оде, АИ прати време доласка и одласка и ако је потребно упозорава надлежне. Као да то није довољно, уз помоћ технологије за препознавање лица, Кина је у стању да прати кретање сваке особе сваки пут када је камера идентификује. Ово нуди апсолутну моћ ентитету који контролише АИ, и апсолутно нулту могућност прибегавања својим грађанима.

Зашто је овај сценарио опасан је то што корумпиране владе могу пажљиво пратити кретање новинара, политичких противника или било кога ко се усуђује да доведе у питање ауторитет власти. Лако је разумети како би новинари и грађани били опрезни да критикују владе када се прати сваки покрет.

На срећу, постоји много градова који се боре да спрече препознавање лица да се инфилтрира у њихове градове. Посебно, Портланд, Орегон је недавно усвојио закон који спречава да се препознавање лица непотребно користи у граду. Иако су ове промене у регулативи можда остале незапажене од стране јавности, у будућности би ти прописи могли бити разлика између градова који нуде неку врсту аутономије и слободе и градова који се осећају репресивно.

Аутономно оружје и дронови

Преко 4500 истраживања вештачке интелигенције позивало је на забрану аутономног оружја и створило Забрана смртоносног аутономног оружја веб сајт. Група има многе значајне непрофитне организације као потписнике као нпр Хуман Ригхтс Ватцх, Амнести Интернешенел, i Институт за будућност живота која сама по себи има сјајан научни саветодавни одбор укључујући Елона Маска, Ника Бострома и Стјуарта Расела.

Пре него што наставим, поделићу овај цитат из Института за будућност живота који најбоље објашњава зашто постоји јасан разлог за забринутост: „За разлику од полуаутономног оружја које захтева људски надзор како би се осигурало да је свака мета потврђена као етички и правно легитимна, нпр. потпуно аутономно оружје бира и гађа циљеве без људске интервенције, што представља потпуну аутоматизацију смртоносне штете. ”

Тренутно се паметне бомбе постављају са метом коју одабере човек, а бомба затим користи вештачку интелигенцију да зацрта курс и слети на своју мету. Проблем је шта се дешава када одлучимо да потпуно избацимо човека из једначине?

Када АИ одабере шта је људима потребно за циљање, као и врсту колатералне штете која се сматра прихватљивом, можда смо прешли тачку без повратка. Због тога се многи истраживачи вештачке интелигенције противе истраживању било чега што је на даљину повезано са аутономним оружјем.

Постоји више проблема са једноставним покушајем блокирања истраживања аутономног оружја. Први проблем је чак и ако напредне нације као што су Канада, САД и већина Европе одлуче да пристану на забрану, то не значи да ће нације попут Кине, Северне Кореје, Ирана и Русије играти заједно. Други и већи проблем је што истраживање вештачке интелигенције и апликације које су дизајниране за употребу у једној области, могу да се користе у потпуно неповезаној области.

На пример, компјутерски вид се стално побољшава и важан је за развој аутономних возила, прецизне медицине и других важних случајева употребе. Такође је фундаментално важно за обичне дронове или дронове који се могу модификовати да постану аутономни. Један потенцијални случај употребе напредне технологије дронова је развој дронова који могу да надгледају и се боре против шумских пожара. Ово би потпуно уклонило ватрогасце са пута опасности. Да бисте то урадили, требало би да направите беспилотне летелице које могу да лете на опасан начин, да се навигирају при слабој или нултој видљивости и да испуштају воду са беспрекорном прецизношћу. Није далеко користити ову идентичну технологију у аутономном дрону који је дизајниран да селективно циља људе.

То је опасна невоља и у овом тренутку нико у потпуности не разуме импликације напредовања или покушаја да се блокира развој аутономног оружја. Ипак, то је нешто на шта морамо да пазимо, побољшавајући заштита звиждача може омогућити онима на терену да пријаве злоупотребе.

На страну неваљалог оператера, шта се дешава ако се АИ пристрасност увуче у АИ технологију која је дизајнирана да буде аутономно оружје?

АИ Биас

Једна од најнепријављених претњи АИ је пристрасност АИ. Ово је лако разумети јер је већина ненамерна. АИ пристрасност се појављује када АИ прегледа податке које јој дају људи, користећи препознавање образаца из података који су достављени АИ, АИ погрешно долази до закључака који могу имати негативне реперкусије по друштво. На пример, вештачка интелигенција која се храни литературом из прошлог века о томе како да идентификује медицинско особље може доћи до нежељеног сексистичког закључка да жене су увек медицинске сестре, а мушкарци су увек лекари.

Опаснији сценарио је када АИ који се користи за кажњавање осуђених злочинаца је пристрасан ка давању дужих затворских казни мањинама. Алгоритми за процену ризика од криминала АИ једноставно проучавају обрасце у подацима који су унети у систем. Ови подаци указују на то да је историјски извесна мањина већа вероватноћа да поново почине прекршај, чак и када је то због лоших скупова података на које може утицати полицијска расна профилација. Пристрасна АИ тада појачава негативне људске политике. Због тога АИ треба да буде смерница, а никада судија и порота.

Враћајући се на аутономно оружје, ако имамо АИ који је пристрасан према одређеним етничким групама, могао би изабрати да циља одређене појединце на основу пристрасних података, и могао би ићи толико далеко да осигура да било која врста колатералне штете утиче на одређене демографије мање од других . На пример, када се циља терориста, пре него што нападне може да сачека док терориста не буде окружен онима који следе муслиманску веру уместо хришћана.

На срећу, доказано је да је вештачка интелигенција која је дизајнирана са различитим тимовима мање склона пристрасности. Ово је довољан разлог да предузећа покушају када је то икако могуће ангажују разноврстан добро заокружен тим.

Претње вештачке опште интелигенције

Треба рећи да, иако АИ напредује експоненцијалним темпом, још увек нисмо постигли АГИ. Када ћемо доћи до АГИ је за дебату, а свако има другачији одговор на временску линију. Ја се лично слажем са ставовима Реја Курцвајла, проналазача, футуристе и аутора књиге „Сингуларност је близу“ који верује да ћемо имати постигао АГИ до 2029.

АГИ ће бити најтрансформативнија технологија на свету. У року од неколико недеља након што АИ постигне интелигенцију на нивоу човека, она ће тада достићи суперинтелигенција која се дефинише као интелигенција која далеко превазилази људску.

Са овим нивоом интелигенције, АГИ би могао брзо да апсорбује сво људско знање и користи препознавање образаца да идентификује биомаркере који узрокују здравствене проблеме, а затим да лечи та стања коришћењем науке о подацима. То би могло да створи наноботе који улазе у крвоток да циљају ћелије рака или друге векторе напада. Листа достигнућа за која је АГИ способна је бесконачна. Раније смо истражили неке од предности АГИ.

Проблем је у томе што људи можда више неће моћи да контролишу АИ. Елон Муск то описује на овај начин: "Са вештачком интелигенцијом ми призивамо демона.' Питање је да ли ћемо моћи да контролишемо овог демона?

Постизање АГИ може једноставно бити немогуће све док АИ не напусти симулацију да би заиста ступила у интеракцију у нашем отвореном свету. Самосвест се не може осмислити, већ се верује да је ан емергентна свест вероватно ће се развити када АИ има роботско тело које садржи више улазних токова. Ови улази могу укључивати тактилну стимулацију, препознавање гласа са побољшаним разумевањем природног језика и проширени компјутерски вид.

Напредна вештачка интелигенција може бити програмирана са алтруистичким мотивима и жели да спасе планету. Нажалост, АИ може да користи дата сциенцеили чак а стабло одлуке да дођемо до нежељене погрешне логике, као што је процена да је неопходно стерилисати људе, или елиминисати део људске популације како би се контролисала пренасељеност људи.

Пажљиво размишљање и промишљање потребно је истражити када се гради АИ са интелигенцијом која ће далеко надмашити људску. Било је много сценарија из ноћних мора који су истражени.

Професор Ник Бостром у аргументу Макимизер спајалица је тврдио да би погрешно конфигурисан АГИ, ако би добио инструкције да производи спајалице, једноставно потрошио све земаљске ресурсе за производњу ових спајалица. Иако се ово чини мало натегнутим, прагматичније становиште је да би АГИ могла да контролише неваљала држава или корпорација са лошом етиком. Овај ентитет би могао да обучи АГИ да максимизира профит, ау овом случају са лошим програмирањем и нултим кајањем могао би изабрати да банкротира конкуренте, уништи ланце снабдевања, хакује берзу, ликвидира банковне рачуне или нападне политичке противнике.

Ово је када треба да се сетимо да људи имају тенденцију да антропоморфизују. Не можемо АИ давати емоције, жеље или жеље људског типа. Иако постоје ђаволски људи који убијају из задовољства, нема разлога да верујемо да би вештачка интелигенција била подложна оваквом понашању. Незамисливо је да људи уопште размишљају о томе како би вештачка интелигенција гледала на свет.

Уместо тога, оно што треба да урадимо је да научимо АИ да увек буде поштован према човеку. АИ би увек требало да има човека који потврђује све промене у подешавањима, и увек треба да постоји механизам без грешке. С друге стране, тврди се да ће се АИ једноставно реплицирати у облаку, а када схватимо да је самосвесна, можда ће бити прекасно.

Због тога је толико важно отворити извор што је више могуће АИ и водити рационалне дискусије о овим питањима.

резиме

Постоји много изазова за АИ, на срећу, још увек имамо много година да заједно схватимо будући пут којим желимо да АГИ крене. Краткорочно бисмо се требали фокусирати на стварање разноврсне АИ радне снаге, која укључује што више жена колико мушкараца, и што више етничких група са различитим гледиштима.

Такође би требало да створимо заштиту узбуњивача за истраживаче који раде на вештачкој интелигенцији, и требало би да донесемо законе и прописе који спречавају раширену злоупотребу надзора државе или компаније. Људи имају прилику једном у животу да побољшају људско стање уз помоћ вештачке интелигенције, само треба да се постарамо да пажљиво креирамо друштвени оквир који најбоље омогућава позитивне ствари, док ублажава негативности које укључују егзистенцијалне претње.

Оснивачки партнер уните.АИ и члан Форбсов технолошки савет, Антоан је а футуристички који је страствен за будућност вештачке интелигенције и роботике.

Такође је оснивач Сецуритиес.ио, веб локација која се фокусира на улагање у дисруптивну технологију.