стуб Напредне АИ технологије представљају етичке изазове - Лидери мисли - Уните.АИ
Повежите се са нама

Вође мисли

Напредне АИ технологије представљају етичке изазове – вође мисли

mm

објављен

 on

Аутор: Алфред Цревс, Јр, потпредседник и главни саветник за обавештајно-безбедносни сектор БАЕ Системс Инц.

Раније ове године, пре глобалне пандемије, присуствовао сам Цитаделиној конференцији о обавештајној етици у Чарлстону, где смо разговарали о теми етике у прикупљању обавештајних података у вези са заштитом националне безбедности. У одбрамбеној индустрији, видимо пролиферацију знања, рачунарства и напредних технологија, посебно у области вештачке интелигенције (АИ) и машинског учења (МЛ). Међутим, може доћи до значајних проблема када се примењује АИ у контексту прикупљања обавештајних података или борбе у реалном времену.

АИ у комбинацији са квантним рачунарством представља ризик

Оно што морамо преиспитивати, анализирати и одредити пут напред је када користимо АИ заједно са квантним рачунарским способностима у процесу доношења одлука у рату. На пример, сећате се Терминатора? Док наша технологија прави скокове и границе, реалност онога што је Скинет представио је пред нама. Могли бисмо да се запитамо: „Да ли Скинет долази по нас?“ Прошетај са мном стазом сјећања; АИ машине су преузеле власт јер су имале способност да сами размишљају и доносе одлуке, без човека да то усмерава. Када су машине закључиле да су људи буба, кренуле су да униште човечанство. Немојте ме погрешно схватити, АИ има велики потенцијал, али верујем да мора да има контролне параметре због фактора ризика који је укључен.

Етичке нејасноће и филозофска дилема АИ

Верујем да је управо то разлог зашто је Министарство одбране САД (ДоД) издало своје Етички принципи за АИ, јер употреба АИ изазива нове етичке нејасноће и ризике. Када комбинујете АИ са квантним рачунарским могућностима, способност доношења одлука се мења и повећава се ризик од губитка контроле – више него што бисмо данас могли да схватимо. Квантно рачунарство срамоти оперативни систем нашег људског мозга јер супер компјутери могу да изврше експоненцијално више прорачуна брже и са више тачности него што ће наш људски мозак икада моћи.

Поред тога, употреба вештачке интелигенције у комбинацији са рачунарством представља филозофску дилему. У ком тренутку ће свет дозволити машинама да имају сопствену вољу; и, ако је машинама дозвољено да мисле самостално, да ли то значи да је сама машина постала самосвесна? Да ли самосвест представља живот? Као друштво, још нисмо одредили како да дефинишемо ову ситуацију. Према томе, како данас стоји, машине које саме предузимају акцију без човека да то контролишу, могу довести до последица. Може ли машина надјачати људску интервенцију да заустави ватру? Ако машина ради сама, да ли ћемо моћи да извучемо утикач?

Како ја то видим, коришћење вештачке интелигенције са становишта одбране је лако. Међутим, колико би лакше било прећи у офанзиву? У нападу, машине би доносиле одлуке о борбеној паљби на лицу места. Да ли би машина која пуца на непријатеља представљала кршење Женевске конвенције и закона о оружаном сукобу? Крећући се у овај простор великом брзином, свет се мора сложити да употреба вештачке интелигенције и квантног рачунарства у борби мора да игра у складу са законима које тренутно имамо.

Министарство одбране има став када се користи вештачка интелигенција са аутономним системима и наводи да ће увек постојати особа укључена у процес доношења одлука; особа би направила последњи позив при повлачењу обарача да испали оружје. То је наше правило, али шта се дешава ако противник одлучи да крене другим путем и да машина способна за вештачку интелигенцију донесе све коначне одлуке? Тада би предност имала машина, која је, као што смо разговарали, већ бржа, паметнија и прецизнија.

Погледајмо дрон опремљен АИ и препознавањем лица: Дрон пуца по сопственој вољи због унапред одређене мете означене као терориста. Ко је заправо одговоран за отпуштање? Постоји ли одговорност ако постоји пристрасна грешка?

Пристрасност уклопљена у АИ/МЛ

Истраживања указују на чињеницу да је мање вероватно да ће машина погрешити него човек. Међутим, истраживања такође доказују да постоји пристрасност у машинском учењу заснованом на томе да људски „учитељ“ подучава машину. Пет етичких принципа АИ Министарства одбране позивало се на постојеће пристрасности када каже: „Одељење ће предузети намерне кораке да смањи ненамерну пристрасност у способностима вештачке интелигенције“. Већ знамо кроз доказане студије да у коришћењу апликација за препознавање лица постоји пристрасност према обојеним особама са лажним позитивним резултатима. Када особа креира код који учи машину како да доноси одлуке, постојаће пристрасности. Ово би могло бити ненамерно јер особа која је креирала АИ није била свесна пристрасности која је постојала у њима самима.

Дакле, како се елиминише пристрасност? АИ излаз је само онолико добар колико и улаз. Дакле, морају постојати контроле. Морате контролисати проток података јер би то могло учинити резултате АИ мање валидним. Програмери ће морати стално да поново пишу код како би елиминисали пристрасност.

Свет да дефинише најбољу употребу технологије  

Технологија сама по себи није ни добра ни лоша. То је начин на који га нација користи да искористи најбоље намере и да пође по злу. Како технологија напредује на начине који утичу на људске животе, свет мора да ради заједно на дефинисању одговарајуће акције. Ако извучемо човека из једначине у апликацијама вештачке интелигенције, такође правимо ту паузу пре него што повучемо окидач – тај морални компас који нас води; та пауза када застанемо и питамо: „Да ли је то тачно?“ Машина која је научена да ради неће имати ту паузу. Дакле, поставља се питање, да ли ће свет у будућности то подржавати? Колико далеко ће свет ићи да дозволи машинама да доносе борбене одлуке?

Алфред Цревс, Јр. је потпредседник и главни саветник за обавештајно-безбедносни сектор БАЕ Системс Инц, лидер у пружању великих системских инжењеринга, интеграције и услуга одржавања широм ваздушних, копнених, морских, свемирских и сајбер домена за Министарство одбране САД, обавештајну заједницу, савезне цивилне агенције и трупе распоређене широм света. Цревс надгледа правне функције, контролу извоза и етичке функције сектора.