никулец Дали вештачката интелигенција е егзистенцијална закана? - Обединете се.АИ
Поврзете се со нас

Вештачка општа интелигенција

Дали вештачката интелигенција е егзистенцијална закана?

mm
Ажурирани on

Кога се дискутира за вештачката интелигенција (ВИ), честа дебата е дали вештачката интелигенција е егзистенцијална закана. Одговорот бара разбирање на технологијата зад машинското учење (ML) и признавање дека луѓето имаат тенденција да антропоморфизираат. Ќе истражиме два различни типа на вештачка интелигенција, вештачка тесна интелигенција (АНИ) која е достапна сега и предизвикува загриженост, и заканата која најчесто се поврзува со апокалиптичните изведби на вештачката интелигенција, што е Вештачка општа интелигенција (АГИ).

Закани од вештачка тесна интелигенција

За да разберете што е ANI, едноставно треба да разберете дека секоја апликација за вештачка интелигенција што е моментално достапна е форма на ANI. Тоа се полиња на ВИ кои имаат тесно поле на специјалност, на пример автономните возила користат вештачка интелигенција која е дизајнирана со единствена цел да се движи возилото од точката А до Б. Друг тип на АНИ може да биде шаховска програма која е оптимизирана за играње шах, па дури и ако шаховската програма постојано се подобрува со користење на учење за засилување, шаховската програма никогаш нема да може да управува со автономно возило.

Со својот фокус на која било операција за која е одговорна, ANI системите не се во можност да користат генерализирано учење за да го преземат светот. Тоа е добрата вест; Лошата вест е дека со неговото потпирање на човечки оператор, системот за вештачка интелигенција е подложен на пристрасни податоци, човечка грешка или уште полошо, непријателски човечки оператор.

Надзор со вештачка интелигенција

Можеби нема поголема опасност за човештвото од луѓето кои користат вештачка интелигенција за да ја нарушат приватноста, а во некои случаи користат и надзор со вештачка интелигенција за целосно да ги спречат луѓето да се движат слободно.  Кина, Русија и другите нации поминаа низ прописите за време на СОВИД-19 да им се овозможи да го следат и контролираат движењето на нивните соодветни популации. Тоа се закони кои штом ќе се применат, тешко се отстрануваат, особено во општествата во кои има автократски лидери.

Во Кина, камерите се поставени надвор од домовите на луѓето, а во некои случаи и внатре во домот на лицето. Секој пат кога член на домаќинството заминува, вештачката интелигенција го следи времето на пристигнување и заминување и доколку е потребно ги алармира властите. Како тоа да не е доволно, со помош на технологијата за препознавање лице, Кина може да го следи движењето на секој човек секогаш кога ќе биде идентификуван со камера. Ова нуди апсолутна моќ на ентитетот што ја контролира вештачката интелигенција и апсолутно нула прибегнување кон своите граѓани.

Зошто ова сценарио е опасно, е тоа што корумпираните влади можат внимателно да ги следат движењата на новинарите, политичките противници или секој што ќе се осмели да го доведе во прашање авторитетот на владата. Лесно е да се разбере како новинарите и граѓаните би биле претпазливи да ги критикуваат владите кога секое движење се следи.

За среќа, има многу градови кои се борат да спречат препознавањето на лицето да се инфилтрира во нивните градови. Имено, Портланд, Орегон неодамна донесе закон што го блокира препознавањето на лицето да не се користи непотребно во градот. Иако овие промени во регулативата можеби останаа незабележани од пошироката јавност, во иднина овие регулативи би можеле да бидат разликата помеѓу градовите кои нудат некој вид автономија и слобода и градовите кои се чувствуваат угнетувачки.

Автономни оружја и дронови

Над 4500 истражувања за вештачката интелигенција бараат забрана на автономното оружје и го создадоа Забранете го смртоносното автономно оружје веб-страница. Групата има многу значајни непрофитни организации како потписници како на пр Хјуман рајтс воч, Амнести интернешенел, И Институт за иднината на животот која сама по себе има ѕвезден научен советодавен одбор вклучувајќи ги Илон Маск, Ник Бостром и Стјуарт Расел.

Пред да продолжам, ќе го споделам овој цитат од Институтот „Иднината на животот“ кој најдобро објаснува зошто постои јасна причина за загриженост: „За разлика од полуавтономните оружја за кои е потребен човечки надзор за да се осигура дека секоја цел е потврдена како етички и законски легитимна, како целосно автономно оружје избира и вклучува цели без човечка интервенција, што претставува целосна автоматизација на смртоносна штета. ”

Во моментов, паметните бомби се распоредени со цел избрана од човек, а бомбата потоа користи вештачка интелигенција за да зацрта патека и да слета на својата цел. Проблемот е што се случува кога ќе решиме целосно да го отстраниме човекот од равенката?

Кога вештачката интелигенција избира што им треба таргетирање на луѓето, како и видот на колатерална штета што се смета за прифатлив, можеби сме ја преминале точката од која нема враќање. Ова е причината зошто толку многу истражувачи на вештачка интелигенција се противат на истражување на сè што е од далечина поврзано со автономното оружје.

Има повеќе проблеми со едноставно обид за блокирање на истражувањето за автономно оружје. Првиот проблем е дури и ако напредните нации како Канада, САД и поголемиот дел од Европа изберат да се согласат со забраната, тоа не значи дека непријателските нации како Кина, Северна Кореја, Иран и Русија ќе играат заедно. Вториот и поголем проблем е тоа што истражувањата и апликациите за вештачка интелигенција кои се дизајнирани за употреба во едно поле, може да се користат во сосема неповрзано поле.

На пример, компјутерскиот вид постојано се подобрува и е важен за развој на автономни возила, прецизна медицина и други важни случаи на употреба. Тоа е исто така фундаментално важно за обичните дронови или беспилотните летала кои би можеле да се модифицираат за да станат автономни. Еден потенцијален случај на употреба на напредна технологија на беспилотни летала е развој на дронови кои можат да ги следат и да се борат со шумски пожари. Ова целосно ќе ги отстрани пожарникарите од штети. За да го направите ова, ќе треба да изградите беспилотни летала кои ќе можат да летаат на штетен начин, да се движат со мала или нулта видливост и да можат да испуштаат вода со беспрекорна прецизност. Не е далеку да се користи оваа идентична технологија во автономно беспилотно летало што е дизајнирано да таргетира селективно луѓе.

Тоа е опасна ситуација и во овој момент во времето, никој целосно не ги разбира импликациите од унапредувањето или обидот за блокирање на развојот на автономно оружје. Сепак, тоа е нешто на кое треба да внимаваме, да го подобруваме заштита од свиркач може да им овозможи на оние на терен да пријават злоупотреби.

Настрана нечесниот оператор, што ќе се случи ако пристрасноста на вештачката интелигенција се навлезе во технологијата за вештачка интелигенција која е дизајнирана да биде автономно оружје?

AI Пристрасност

Една од најнепријавените закани за вештачката интелигенција е пристрасноста на вештачката интелигенција. Ова е едноставно за разбирање бидејќи поголемиот дел од тоа е ненамерно. Пристрасноста на вештачката интелигенција се провлекува кога вештачката интелигенција ги прегледува податоците што ѝ ги даваат луѓето, користејќи препознавање на шаблонот од податоците што биле доставени до вештачката интелигенција, вештачката интелигенција погрешно доаѓа до заклучоци кои може да имаат негативни реперкусии врз општеството. На пример, вештачката интелигенција на која се храни литература од минатиот век за тоа како да се идентификува медицинскиот персонал може да дојде до несакан сексистички заклучок дека жените секогаш се медицински сестри, а мажите се лекари.

Поопасно сценарио е кога Вештачката интелигенција која се користи за казнување на осудените криминалци е пристрасна кон доделување подолги затворски казни за малцинствата. Алгоритмите за проценка на криминалниот ризик на вештачката интелигенција едноставно ги проучуваат шемите во податоците што се внесени во системот. Овие податоци покажуваат дека историски одредени малцинства имаат поголема веројатност повторно да навредат, дури и кога тоа се должи на лошите збирки на податоци кои може да бидат под влијание на полициското расно профилирање. Пристрасната вештачка интелигенција потоа ги зајакнува негативните човечки политики. Ова е причината зошто вештачката интелигенција треба да биде упатство, никогаш не судете и жири.

Враќајќи се на автономното оружје, ако имаме вештачка интелигенција која е пристрасна против одредени етнички групи, таа би можела да избере да таргетира одредени поединци врз основа на пристрасни податоци и може да оди дотаму што ќе осигури дека секаков вид колатерална штета влијае на одредени демографија помалку од другите . На пример, кога се гаѓа терорист, пред да се нападне може да почека додека терористот не биде опкружен со оние кои ја следат муслиманската вера наместо христијаните.

За среќа, докажано е дека вештачката интелигенција која е дизајнирана со различни тимови се помалку склони кон пристрасност. Ова е доволна причина за претпријатијата да се обидат кога е можно да ангажираат разновиден добро заокружен тим.

Закани за вештачка општа интелигенција

Треба да се каже дека додека вештачката интелигенција напредува со експоненцијално темпо, ние сè уште не сме постигнале AGI. Кога ќе стигнеме до АГИ е отворено за дебата, а секој има различен одговор за временската рамка. Јас лично се претплатам на ставовите на Реј Курцвеил, пронаоѓач, футурист и автор на „Сингуларноста е близу“, кој верува дека ќе имаме постигнат AGI до 2029 година.

AGI ќе биде најтрансформациската технологија во светот. Во рок од неколку недели откако вештачката интелигенција ќе постигне интелигенција на човечко ниво, таа потоа ќе достигне суперинтелигенција која се дефинира како интелигенција која далеку ја надминува човечката.

Со ова ниво на интелигенција, AGI може брзо да го апсорбира целото човечко знаење и да користи препознавање на модели за да ги идентификува биомаркерите кои предизвикуваат здравствени проблеми, а потоа да ги третира тие состојби со користење на науката за податоци. Тоа би можело да создаде нано-ботови кои влегуваат во крвотокот за да ги таргетираат клетките на ракот или другите вектори на напад. Списокот на достигнувања за кои може AGI е бесконечен. Претходно истраживме некои од придобивките од AGI.

Проблемот е што луѓето можеби повеќе нема да можат да ја контролираат вештачката интелигенција. Илон Маск го опишува вака:Со вештачка интелигенција го повикуваме демонот. Дали ќе можеме да го контролираме овој демон е прашањето?

Постигнувањето AGI може едноставно да биде невозможно додека вештачката интелигенција не остави поставка за симулација за вистинска интеракција во нашиот отворен свет. Самосвеста не може да се дизајнира, наместо тоа се верува дека ан појавна свест најверојатно ќе еволуира кога вештачката интелигенција има роботско тело со повеќе влезни текови. Овие влезови може да вклучуваат тактилна стимулација, препознавање глас со подобрено разбирање природен јазик и зголемена компјутерска визија.

Напредната вештачка интелигенција можеби е програмирана со алтруистички мотиви и сака да ја спаси планетата. За жал, вештачката интелигенција може да користи наука за податоци, па дури и а дрво на одлука да се дојде до несакана погрешна логика, како што е проценката дека е неопходно да се стерилизираат луѓето или да се елиминира дел од човечката популација за да се контролира пренаселеноста кај луѓето.

Треба да се истражи внимателно размислување и размислување кога се гради вештачка интелигенција со интелигенција која далеку ќе ја надмине онаа на човекот. Имаше многу кошмарни сценарија кои беа истражени.

Професорот Ник Бостром во аргументот за максимизирање на спојници за хартија тврди дека погрешно конфигуриран AGI, ако биде наложено да произведува клипови за хартија, едноставно ќе ги потроши сите ресурси на земјата за да ги произведе овие спојници. Иако ова изгледа малку пресилен, попрагматично гледиште е дека AGI може да биде контролиран од непријателска држава или корпорација со лоша етика. Овој ентитет би можел да го обучи AGI да го максимизира профитот, а во овој случај со лошо програмирање и нула каење може да избере да банкротира конкуренти, да уништи синџири на снабдување, да ја хакира берзата, да ги ликвидира банкарските сметки или да ги нападне политичките противници.

Ова е моментот кога треба да запомниме дека луѓето имаат тенденција да антропоморфизираат. Не можеме на вештачката интелигенција да и дадеме емоции, желби или желби од човечки тип. Иако постојат ѓаволски луѓе кои убиваат од задоволство, нема причина да се верува дека вештачката интелигенција би била подложна на ваков тип на однесување. За луѓето е незамисливо дури и да размислуваат како вештачката интелигенција би го гледала светот.

Наместо тоа, она што треба да го направиме е да ја научиме вештачката интелигенција секогаш да биде почит кон човекот. На вештачката интелигенција секогаш треба човек да ги потврди какви било промени во поставките и секогаш треба да има механизам кој не е безбеден. Повторно, се расправаше дека вештачката интелигенција едноставно ќе се реплицира во облакот, и кога ќе сфатиме дека е самосвесна, можеби ќе биде предоцна.

Затоа е толку важно да се отвори код што е можно повеќе вештачка интелигенција и да се води рационална дискусија за овие прашања.

Резиме

Има многу предизвици за вештачката интелигенција, за среќа, имаме уште многу години колективно да го откриеме идниот пат што сакаме да го преземе AGI. Краткорочно треба да се фокусираме на создавање разновидна работна сила со вештачка интелигенција, која вклучува колку што е можно повеќе жени и мажи и што е можно повеќе етнички групи со различни гледишта.

Исто така, треба да создадеме заштита на укажувачите за истражувачите кои работат на вештачката интелигенција и треба да донесеме закони и регулативи кои спречуваат широко распространета злоупотреба на надзорот на државата или на целата компанија. Луѓето имаат можност еднаш во животот да ја подобрат човечката состојба со помош на вештачка интелигенција, само треба да се погрижиме внимателно да создадеме општествена рамка што најдобро ги овозможува позитивните, а истовремено да ги ублажиме негативните, кои вклучуваат егзистенцијални закани.

Основачки партнер на unite.AI и член на Технолошкиот совет на Форбс, Антоан е а футуристички кој е страстен за иднината на вештачката интелигенција и роботиката.

Тој е и основач на Хартии од вредност.io, веб-страница која се фокусира на инвестирање во непушачка технологија.