стуб Јулиетте Повелл и Арт Клеинер, аутори Тхе АИ Дилемма - Интервиев Сериес - Уните.АИ
Повежите се са нама

Интервјуи

Џулијет Пауел и Арт Клајнер, ауторке серије интервјуа Тхе АИ Дилемма

mm

објављен

 on

Дилему вештачке интелигенције написали су Џулијет Пауел и Арт Клајнер.

Јулиеттe Пауел је ауторка, телевизијска креаторка са 9,000 емисија уживо, технолог и социолог. Она је такође коментатор на Блоомберг ТВ/ Бусинесс Невс Нетворкс и говорник на конференцијама које организују Економист и Међународна финансијска корпорација. Њен ТЕД говор има 130 хиљада прегледа на Јутјубу. Јулиетте идентификује обрасце и праксе успешних пословних лидера који се ослањају на етичку вештачку интелигенцију и податке да би победили. Она је на факултету на НИУ ИТП где предаје четири курса, укључујући Вештине дизајна за одговорне медије, курс заснован на њеној књизи.

"Дилема АИ” је књига која се фокусира на опасности од АИ технологије у погрешним рукама, а истовремено признаје предности које АИ нуди друштву.

Проблеми настају зато што је основна технологија толико сложена да крајњем кориснику постаје немогуће да заиста разуме унутрашње функционисање затвореног система.

Једно од најзначајнијих истакнутих питања је како се дефиниција одговорне вештачке интелигенције увек мења, пошто друштвене вредности често не остају доследне током времена.

Прилично сам уживао читајући „Дилему вештачке интелигенције“. То је књига која не сензационализује опасности вештачке интелигенције нити дубоко улази у потенцијалне замке вештачке опште интелигенције (АГИ). Уместо тога, читаоци сазнају о изненађујућим начинима на које се наши лични подаци користе без нашег знања, као ио неким од тренутних ограничења вештачке интелигенције и разлозима за забринутост.

Испод су нека питања која су осмишљена да покажу нашим читаоцима шта могу да очекују од ове револуционарне књиге.

Шта вас је на почетку инспирисало да напишете „Дилему вештачке интелигенције“?

Јулиетте је отишла у Колумбију делимично да проучи границе и могућности регулације АИ. Чула је из прве руке од пријатеља који су радили на АИ пројектима о напетости својственој тим пројектима. Дошла је до закључка да постоји дилема АИ, много већи проблем од саморегулације. Она је развила Апек референтни модел — модел како су одлуке о АИ тежиле ниској одговорности због интеракција између компанија и група унутар компанија. То је довело до њене дисертације.

Арт је радио са Јулиетте на бројним пројектима писања. Прочитао је њену дисертацију и рекао: „Овде имате књигу. Јулиетте га је позвала да буде коаутор. Радећи заједно на томе, открили су да имају веома различите перспективе, али деле чврсто мишљење да би овај сложени, веома ризични феномен вештачке интелигенције требало боље разумети како би људи који га користе могли да делују одговорније и ефикасније.

Један од фундаменталних проблема који је наглашен у Дилеми вештачке интелигенције јесте како је тренутно немогуће разумети да ли је систем вештачке интелигенције одговоран или продужава друштвену неједнакост једноставним проучавањем свог изворног кода. Колики је ово проблем?

Проблем није првенствено у изворном коду. Као што Кети О'Нил истиче, када постоји затворен систем, то није само код. Социотехнички систем — људске и технолошке силе које обликују једна другу — треба истражити. Логика која је изградила и пустила АИ систем укључивала је идентификацију сврхе, идентификацију података, постављање приоритета, креирање модела, постављање смерница и заштитних ограда за машинско учење, и одлучивање када и како човек треба да интервенише. То је део који треба учинити транспарентним — барем за посматраче и ревизоре. Ризик од друштвене неједнакости и други ризици су много већи када се ови делови процеса сакрију. Не можете стварно реинжењеринг логике дизајна из изворног кода.

Може се фокусирати на Објашњива АИ (КСАИ) да ли се икада бавио овим?

За инжењере, објашњива АИ се тренутно сматра групом технолошких ограничења и пракси, чији је циљ да модели буду транспарентнији за људе који на њима раде. За некога ко је лажно оптужен, објашњивост има сасвим друго значење и хитност. Потребна им је објашњивост да би могли да се гурну у своју одбрану. Свима нам је потребна објашњивост у смислу јасних пословних или владиних одлука које су у основи модела. Барем у Сједињеним Државама, увек ће постојати тензија између објашњивости — права човечанства да зна — и права организације да се такмичи и иновира. Ревизори и регулатори требају другачији ниво објашњења. О овоме ћемо детаљније говорити у Тхе АИ Дилемма.

Можете ли укратко да поделите своје ставове о важности држања стејкхолдера (АИ компанија) одговорним за код који објављују свету?

До сада је, на пример, у судару самовозећих аутомобила у Темпеу, АЗ у којем је погинуо пешак, одговоран оператер. Појединац је отишао у затвор. Међутим, на крају је то био организациони неуспех.

Када се мост сруши, одговоран је машински инжењер. То је зато што се машински инжењери обучавају, стално се усавршавају и сматрају одговорним према својој професији. Рачунарски инжењери нису.

Да ли заинтересоване стране, укључујући компаније са вештачком интелигенцијом, треба да буду обучене и преобучене да доносе боље одлуке и имају више одговорности?

Дилема вештачке интелигенције се много фокусирала на то како компаније као што су Гоогле и Мета могу прикупити и уновчити наше личне податке. Да ли бисте могли да поделите пример значајне злоупотребе наших података који би свима требало да буду на радару?

Из Дилеме АИ, страница 67 и даље:

Нови случајеви систематске злоупотребе личних података настављају да се појављују у јавности, од којих многи укључују тајну употребу препознавања лица. У децембру 2022, МИТ Тецхнологи Ревиев објавио је извештаје о дугогодишњој пракси иРобот-а. Роомба кућни роботи снимају слике и видео записе снимљене у домовима бета тестера волонтера, што неизбежно значи прикупљање интимних личних и породичних слика. Они се деле, без свести тестера, са групама ван земље. У најмање једном случају, на Фејсбуку је постављена слика појединца у тоалету. У међувремену, у Ирану су власти почеле да користе податке из система за препознавање лица за праћење и хапшење жена које не носе хиџаб.16

Нема потребе даље разлагати ове приче. Толико их је. Важно је, међутим, идентификовати кумулативни ефекат оваквог живота. Губимо осећај контроле над нашим животима када осетимо да би наше приватне информације могле бити употребљене против нас, у било ком тренутку, без упозорења.

Један опасан концепт који је изнесен је како је цео наш свет дизајниран да буде без трења, при чему је дефиниција трења „свака тачка на путовању корисника са компанијом у којој наиђу на препреку која их успорава или изазива незадовољство“. Како наше очекивање искуства без трења потенцијално води ка опасној вештачкој интелигенцији?

На Новом Зеланду, Пак'н'Саве паметан бот за оброке предложио је рецепт који би створио гас хлор ако се користи. Ово је промовисано као начин да купци потроше остатке и уштеде новац.

Беспомоћност ствара илузију контроле. Брже је и лакше слушати апликацију него тражити бакин рецепт. Људи иду путем мањег отпора и не схватају куда их то води.

Насупрот томе, трење је креативно. Ви се укључите. Ово доводи до стварне контроле. Стварна контрола захтева пажњу и рад, и – у случају вештачке интелигенције – извођење проширене анализе трошкова и користи.

Са илузијом контроле, чини се да живимо у свету у којем системи вештачке интелигенције подстичу људе, уместо да људи у потпуности контролишу. Који су неки примери које можете дати да људи колективно верују да имају контролу, а заправо је немају?

Сан Франциско управо сада, са роботакси. Идеја самовозећих таксија има тенденцију да изазове две супротстављене емоције: узбуђење („такси по много нижој цени!“) и страх („хоће ли ме ударити?“) Стога, многи регулатори предлажу да се аутомобили тестирају са људима у њима ко може да управља контролама. Нажалост, имати људе на опрезу, спремни да надјачају системе у реалном времену, можда није добар тест јавне безбедности. Прекомерно самопоуздање је честа динамика код система вештачке интелигенције. Што је систем аутономнији, то више људи имају тенденцију да му верују и не обраћају пуну пажњу. Досадно нам је гледати ове технологије. Када се несрећа заиста догоди, не очекујемо је и често не реагујемо на време.

Много је истраживања ушло у ову књигу, да ли вас је нешто изненадило?

Једна ствар која нас је заиста изненадила је да људи широм света нису могли да се сложе око тога ко треба да живи, а ко да умире Симулација моралне машине судара самовозећег аутомобила. Ако се око тога не можемо сложити, онда је тешко замислити да бисмо могли да имамо јединствено глобално управљање или универзалне стандарде за системе вештачке интелигенције.

Обоје себе описујете као предузетнике, како ће оно што сте научили и о чему сте извештавали утицати на ваше будуће напоре?

Наша саветодавна пракса за вештачку интелигенцију је оријентисана на помагање организацијама да одговорно расту са технологијом. Адвокати, инжењери, друштвени научници и пословни мислиоци су све заинтересоване стране у будућности АИ. У свом раду спајамо све ове перспективе и увежбавамо креативна трвења да бисмо пронашли боља решења. Развили смо оквире као што је прорачун намерног ризика да бисмо помогли у навигацији ових проблема.

Хвала вам на одличним одговорима, читаоци који желе да сазнају више треба да посете Дилема АИ.

Оснивачки партнер уните.АИ и члан Форбсов технолошки савет, Антоан је а футуристички који је страствен за будућност вештачке интелигенције и роботике.

Такође је оснивач Сецуритиес.ио, веб локација која се фокусира на улагање у дисруптивну технологију.