стуб Истраживачи вештачке интелигенције предлажу давање награда за пристрасност вештачке интелигенције како би вештачка интелигенција постала етичнија - Уните.АИ
Повежите се са нама

Етика

Истраживачи вештачке интелигенције предлажу награђивање на АИ пристрасности како би АИ учинили етичнијом

mm

објављен

 on

Тим истраживача вештачке интелигенције из компанија и лабораторија за развој вештачке интелигенције као што су Интел, Гоогле Браин и ОпенАИ препоручио је коришћење награда како би се обезбедила етичка употреба вештачке интелигенције. Тим истраживача је недавно објавио низ предлога у вези са етичком употребом вештачке интелигенције, а укључили су и предлог да би награђивање људи за откривање пристрасности у вештачкој интелигенцији могло бити ефикасан начин да се АИ учини праведнијим.

Како преноси ВентуреБеат, истраживачи из разних компанија широм САД-а и Европе удружили су се да саставе скуп етичких смерница за развој вештачке интелигенције, као и предлоге како да се испуне смернице. Један од предлога које су истраживачи дали био је да понуди награде програмерима који пронађу пристрасност унутар АИ програма. Предлог је изнет у раду под насловом „Ка развоју АИ од поверења: Механизми за подршку проверљивим тврдњама".

Као примери пристрасности којима се тим истраживача нада да ће се позабавити, пристрасни подаци и алгоритми су пронађени у свему, од апликација у здравству до система за препознавање лица које користе органи за спровођење закона. Једна таква појава пристрасности је алат за процену ризика ПАТТЕРН који је недавно користило Министарство правде САД за тријажу затвореника и одлучивање који би могли бити послати кући када се смањи број затворске популације као одговор на пандемију коронавируса.

Пракса награђивања програмера за проналажење непожељног понашања у компјутерским програмима је један стари, али ово би могло бити први пут да је етички одбор за вештачку интелигенцију озбиљно унапредио идеју као опцију за борбу против пристрасности АИ. Иако је мало вероватно да постоји довољно програмера АИ да пронађу довољно пристрасности да се АИ може обезбедити етичким, то би ипак помогло компанијама да смање укупну пристрасност и стекну осећај какве врсте пристрасности цуре у њихове АИ системе.

Аутори рада су објаснили да се концепт буг-боунти може проширити на АИ уз коришћење пристрасности и безбедносних награда и да би правилна употреба ове технике могла довести до боље документованих скупова података и модела. Документација би боље одражавала ограничења и модела и података. Истраживачи чак примећују да би се иста идеја могла применити на друга својства вештачке интелигенције као што су интерпретабилност, безбедност и заштита приватности.

Како се све више расправља о етичким принципима вештачке интелигенције, многи су приметили да принципи сами по себи нису довољни и да се морају предузети акције да би се АИ одржала етичком. Аутори рада примећују да „постојећи прописи и норме у индустрији и академској заједници нису довољни да обезбеде одговоран развој вештачке интелигенције“. Суоснивач компаније Гоогле Браин и лидер у индустрији вештачке интелигенције, Ендру Нг опини да сами водећи принципи немају способност да обезбеде да се АИ користи одговорно и поштено, говорећи да многи од њих морају да буду експлицитнији и да имају идеје које се могу применити.

Препорука комбинованог истраживачког тима за лов на уцене са пристрасношћу је покушај да се превазиђе етичка начела у област етичког деловања. Истраживачки тим је такође дао низ других препорука које би могле да подстакну етичку акцију у области вештачке интелигенције.

Истраживачки тим је дао низ других препорука које компаније могу да следе како би њихова употреба вештачке интелигенције била етичнија. Они сугеришу да би требало креирати централизовану базу података о инцидентима са вештачком интелигенцијом и делити је са широм АИ заједницом. Слично томе, истраживачи предлажу да се успостави ревизорски траг и да ти трагови треба да чувају информације у вези са креирањем и применом безбедносно критичних апликација у АИ платформама.

Да би се очувала приватност људи, истраживачки тим је предложио да се користе технике усмерене на приватност као што су шифрована комуникација, удружено учење и диференцијална приватност. Осим тога, истраживачки тим је предложио да алтернативе отвореног кода треба да буду широко доступне и да комерцијалне АИ моделе треба детаљно испитати. Коначно, истраживачки тим предлаже да се владино финансирање повећа како би академски истраживачи могли да верификују тврдње о перформансама хардвера.