стуб Како се индустрије припремају за убрзано усвајање АИ, нови фокус на етику и одговорност - Уните.АИ
Повежите се са нама

Вође мисли

Како се индустрије припремају за убрзано усвајање АИ, нови фокус на етику и одговорност

mm

објављен

 on

By: Пандуранг Камат, технички директор Персистент Системс

Вештачка интелигенција (АИ) у својој сржи је Машина учење (МЛ), процес којим машине уче како да побољшају перформансе на основу уноса података. Сама количина постојећих података данас значи да је АИ имала плодно тло за процват, убрзавајући вртоглавим темпом у само последњих неколико година. А обећање вештачке интелигенције навело је технологе и руководиоце у далекосежним индустријама да креативно размишљају о њеним различитим применама.

Од индустријске револуције па надаље, сваки период брзог технолошког напретка обележен је подједнако ентузијазмом и стрепњом. Тхе Ворлд Виде Веб Цонсортиум (В3Ц), група која креира индустријске стандарде за веб програмере, истиче да „постоји све већа свест да примена машинског учења представља ризик и може довести до штете“ – укључујући у областима као што су: пристрасност, приватност, безбедност, одрживост и укупна одговорност.

„Постоји јасна потражња за етичким приступом МЛ, што се види кроз активизам цивилног друштва, појаву ~100 скупова етичких принципа АИ на глобалном нивоу, а влада се креће широм света да регулише АИ“, написала је група. „Ако технологије нису усклађене са вредностима друштава у којима послују, ризикују да их поткопају.

Изабрати мудро

На површини, тешко је тврдити да су побољшана брзина и учинак лоши за пословање. Али за одређене индустрије, много је улог у процесу доношења одлука за које неки тврде да не би требало бити препуштено алгоритму. Посматрајући неколико највећих индустрија, можемо видети колико смо рањиви на машинске грешке и зашто је одговорна АИ тако најважнија.

Банкарство, финансијске услуге и осигурање (БФСИ)

Светски економски форум (ВЕФ) и Делоитте су испитали процес примене вештачке интелигенције у компанијама БФСИ, откривши да, „иако АИ може помоћи у стварању корисних пословних увида из огромне количине информација“, „страност АИ“ ће бити извор стални озбиљан ризик.

„АИ расуђује на нељудске начине“, наводи се у извештају. „АИ системи не прате људске конструкције логике и понашају се веома другачије од људских актера који имају исти задатак. Даље, природа система вештачке интелигенције која само учи омогућава им да еволуирају без људског доприноса, што може довести до неочекиваних исхода заснованих на непознатим варијаблама.

Заговорници одговорне вештачке интелигенције тврде да машинско учење представља озбиљне проблеме у стварима попут аутоматског оцењивања ризика, кредита и одлука о позајмљивању, што је све историјски штетно за одређене демографије. Недавне студије су показале да су зајмодавци који користе машине за одлучивање засноване на вештачкој интелигенцији вероватније одбијали стамбене кредите људима у боји – у неким случајевима, Већа је вероватноћа да ће 80% црних кандидата бити одбијено.

Здравство

Пре неколико година, Часопис Америчког медицинског удружења (ЈАМА) је погледао усвајање АИ у здравству, откривши да су изазови многи, укључујући „нереална очекивања, пристрасне и нерепрезентативне податке, неадекватно одређивање приоритета једнакости и инклузије, ризик од погоршања диспаритета у здравственој заштити, низак ниво поверења и неизвесност регулаторна окружења“.

Није баш велика подршка, али постоји већа граница за одговорну АИ у здравству, посебно с обзиром на њен буквални потенцијал живота или смрти. У целини, здравствени радници су оптимистични, али чувају будућност вештачке интелигенције, одлучујући да своје напоре усредсреде на едукацију других практичара о њеној употреби у клиничком окружењу и креирање смерница о томе како да напредују одговорно на начин који користи свим пацијентима.

медиј

ПвЦ процењује да ће вештачка интелигенција обезбедити 15.7 билиона долара глобалног економског раста до 2030., Али према Салесфорцеу мање од половине (48%) купаца верује компанијама да ће етички користити вештачку интелигенцију, а 65% је забринуто због неетичке употребе АИ. У вези са профитом и поверењем, налазе се медијске компаније – рани корисници са огромним дометом и утицајем. И постоји забринутост због чињенице да АИ није апликација „подеси и заборави“, што значи да медијске компаније њихова одговорност није само у производњи садржаја, већ иу његовом сталном праћењу након имплементације.

Како се огласи приказују и персонализују? Како садржај стиже до одређене публике и која је порука? Ко подучава АИ „како“ да учи? И како можете циљати одређене потрошаче уз поштовање приватности? Ово су само нека од питања која муче медијске компаније док балансирају између етике и стицања конкурентске предности.

Одговор на одговорност

Напредак у развоју одговорне вештачке интелигенције очигледан је сваког дана – законодавци састављају прописе, потрошачи захтевају више транспарентности, а многе компаније су створиле посебна одељења која имају задатак да обезбеде да се њихова вештачка интелигенција користи на одговарајући начин. Компаније требају а добро дефинисан одговорни АИ оквир који покрива етику, транспарентност, одговорност, правичност, приватност и безбедност. Како се дебате и реформе настављају, а недавна заједничка студија МИТ Слоан Манагемент Ревиев и Бостон Цонсултинг Гроуп пружа неке једноставне опште смернице – написали су: „Ако желите да будете одговоран АИ лидер, фокусирајте се на то да будете одговорна компанија.“

Др Пандуранг Камат је главни технолошки директор у Персистент Системс, он је одговоран за напредна технолошка истраживања фокусирана на откључавање пословне вредности кроз иновације у великом обиму. Он је искусни технолошки лидер који помаже клијентима да побољшају корисничко искуство, оптимизују пословне процесе и креирају нове дигиталне производе. Његова визија за Персистент је да буде покретач иновација који учвршћује глобални и разнолик екосистем иновација, који се састоји од академске заједнице и новооснованих предузећа.