стуб Бредфорд Њуман, председник Северноамеричке праксе за трговинске тајне - Серија интервјуа - Уните.АИ
Повежите се са нама

Интервјуи

Брадфорд Невман, председавајући Северноамеричке праксе за трговинске тајне – серија интервјуа

mm

објављен

 on

Бредфорд је специјализован за питања везана за пословне тајне и вештачку интелигенцију. Он је председник АИ подкомитета АБА. Препознат од стране Даили Јоурнала 2019. године као један од 20 најбољих адвоката за вештачку интелигенцију у Калифорнији, Бредфорд је био кључан у предлагању федералног законодавства о АИ радном месту и интелектуалној својини које је 2018. претворено у нацрт закона за дискусију у Представничком дому Сједињених Држава. Такође је развио најбоље праксе за надзор вештачке интелигенције и корпоративно управљање дизајниране да осигурају алгоритамску праведност.

Шта је то што је на почетку подстакло ваше интересовање за вештачку интелигенцију? 

Представљао сам водеће светске иноваторе и произвођаче АИ производа и технологије дуги низ година. Мој интерес је одувек био да идем иза завесе и разумем правне и техничке аспекте машинског учења и гледам како АИ еволуира. Фасциниран сам оним што је могуће за апликације у различитим доменима.

 

Ви сте жестоки заговорник рационалне регулације вештачке интелигенције, посебно у регулативи која штити јавно здравље, можете ли да поразговарате о томе шта вас највише брине?  

Верујем да смо у раној фази једне од најдубљих револуција које је човечанство доживело. АИ има потенцијал да утиче на сваки аспект наших живота, од тренутка када се пробудимо ујутру до тренутка када одемо на спавање - а такође и док спавамо. Многе од АИ апликација ће позитивно утицати на квалитет наших живота, а вероватно и на нашу дуговечност као врсте.

Управо сада, са становишта рачунарства и машинског учења, људи су још увек веома укључени у процес, од кодирања алгоритама, до разумевања скупова података за обуку, до обраде резултата, препознавања недостатака и производње технологије.

Али ми смо у трци са временом на два главна фронта. Прво, оно што се обично назива проблемом „црне кутије“: људско учешће и разумевање АИ ће се временом смањивати како се софистицираност АИ (мислим на АНН) развијала. И друго, употреба АИ од стране влада и приватних интереса ће се повећати.

Бринем се да ће вештачка интелигенција бити коришћена, намерно и ненамерно, на начине који су у супротности са западним демократским идеалима индивидуалне слободе и слободе.

 

Како решавамо ове забринутости? 

Друштво је на тачки где морамо да решимо не оно што је могуће у вези са вештачком интелигенцијом, већ оно што би требало да буде забрањено и/или делимично ограничено.

Прво, морамо посебно идентификовати одлуке које се никада не могу донети у целини или делимично помоћу алгоритамског излаза који генерише АИ. То значи да чак иу ситуацијама када се сваки стручњак слаже да су подаци који улазе и излазе потпуно непристрасни, транспарентни и тачни, мора постојати законска забрана њиховог коришћења за било коју врсту предвиђања или суштинског доношења одлука.

Додуше, ово је контраинтуитивно у свету у којем жудимо за математичком сигурношћу, али успостављање АИ „зоне без летења“ је од суштинског значаја за очување слобода које смо сви ми драги и које служе као основа за наше друштво.

Друго, за друге идентификоване одлуке засноване на АИ аналитици које нису потпуно забрањене, потребно нам је законодавство које јасно дефинише оне у којима човек мора бити укључен у процес доношења одлука.

 

Били сте кључни у предлагању федералног закона о АИ радном месту и интелектуалној својини који је 2018. претворен у нацрт закона за дискусију у Представничком дому Сједињених Држава. Можете ли да разговарате о неким од ових предлога?

Закон о заштити података АИ има за циљ да промовише иновације и дизајниран је да (1) повећа транспарентност у природи и употреби вештачке интелигенције и да изгради поверење јавности у њу; (2) бавити се утицајем вештачке интелигенције на тржиште рада и (3) заштитити јавно здравље и безбедност.

Има неколико кључних компоненти. На пример, забрањује искључиво ослањање покривених компанија на вештачку интелигенцију у доношењу одређених одлука, укључујући одлуку у вези са запошљавањем појединаца или ускраћивањем или ограничењем медицинског лечења, и забрањује издаваоцима здравственог осигурања да доносе одлуке у вези са покрићем медицинског третмана искључиво на аналитику вештачке интелигенције. Такође успоставља Одбор за вештачку интелигенцију — нову савезну агенцију задужену за посебне одговорности за регулисање вештачке интелигенције која се односи на јавно здравље и безбедност. И захтева од покривених ентитета да именују главног службеника за вештачку интелигенцију.

 

Такође сте развили најбоље праксе за надзор вештачке интелигенције и корпоративно управљање дизајниране да осигурају алгоритамску праведност. Која су нека од тренутних проблема које видите са правичношћу или пристрасношћу у системима вештачке интелигенције? 

Ова тема је била у фокусу интензивне контроле од стране академика и сада изазива интересовање владиних агенција САД, попут Комисије за једнаке могућности запошљавања (ЕЕОЦ) и адвокатске коморе тужиоца. Већину времена, узрочност је резултат или грешке у скуповима података за обуку или недостатка разумевања и транспарентности у окружењу за тестирање. Ово је додатно отежано недостатком централног власништва и надзора над АИ од стране вишег руководства.

Овај недостатак техничког разумевања и свести о ситуацији представља значајан проблем одговорности. Разговарао сам са неколико истакнутих адвоката тужиоца који су у потрази за случајевима пристрасности АИ.

 

Дубоко учење често пати од проблема са црном кутијом, при чему уносимо податке у вештачку неуронску мрежу (АНН), а затим добијамо излаз, без начина да знамо како је тај излаз генерисан. Да ли верујете да је ово велики проблем?  

Ја радим. А како алгоритми и неуронске мреже настављају да се развијају, а људи све више нису „у петљи“, постоји стварни ризик да се прође прекретница у којој више нећемо моћи да разумемо критичне елементе функције и излаза.

 

Са ЦОВИД-19 су се увеле земље широм света Државни надзорни системи напајани вештачком интелигенцијом. Колико имате проблема са потенцијалном злоупотребом код ове врсте надзора?

Наивно је и искрено, неодговорно из перспективе индивидуалних права и слобода игнорисати или умањити ризик од злоупотребе. Док се праћење контаката чини опрезним усред глобалне пандемије, а препознавање лица засновано на вештачкој интелигенцији пружа ефикасну меру да се уради оно што људи сами не би могли да постигну, друштво мора да уведе законске забране злоупотребе заједно са ефикасним механизмима надзора и спровођења. У супротном, предајемо држави суштински елемент наших индивидуалних основних права. Једном дат на велико, овај основни елемент наше слободе и приватности неће бити враћен.

 

Раније сте изјавили да „морамо успоставити АИ „зону забрањеног лета“ ако желимо да сачувамо слободе до којих су сви Американци драги и које служе као основа нашег друштва. Можете ли поделити неке од ових забринутости које имате?  

Када говоримо о вештачкој интелигенцији, увек се морамо фокусирати на суштинску сврху вештачке интелигенције: да произведе тачну предиктивну аналитику из веома великих скупова података који се затим користе за класификацију људи и доношење одлука. Затим морамо испитати ко су доносиоци одлука, шта одлучују и на чему заснивају своје одлуке.

Ако схватимо да су доносиоци одлука они који имају највећи утицај на наше здравље, живот и слободе — послодавци, власници, лекари, осигуравачи, органи за спровођење закона и свако друго приватно, комерцијално и државно предузеће које може да генерише, прикупља или купује АИ аналитику — постаје лако видети да у западној либералној демократији, за разлику од тоталитарног режима, треба да постоје одлуке које не треба, и не смеју, бити препуштене искључиво вештачкој интелигенцији.

Иако многе очигледне одлуке падају на памет, као што је забрана затварања некога пре него што се злочин почини, широко распрострањено усвајање вештачке интелигенције у сваком аспекту наших живота представља много неугодније примере етичких загонетки. На пример, ако алгоритам тачно предвиђа да радници који на друштвеним мрежама објављују фотографије одмора на плажи на којима пију алкохол дају отказ или буду отпуштени са посла у просеку 3.5 године раније од оних који објављују фотографије на којима вежбају, требало би да први категорија бити одбијена за унапређење или повећање само на основу алгоритамског резултата? Ако алгоритам тачно утврди да је мања вероватноћа да ће тинејџери који играју видео игрице у просеку више од 2 сата дневно дипломирати на четворогодишњем универзитету, да ли би таквим студентима требало ускратити пријем? Ако се утврди да азијске жене у 60-им годинама примљене на интензивну негу због симптома повезаних са ЦОВИД-19 имају већу стопу преживљавања од афроамеричких мушкараца у 70-им, да ли би жене требале да добију повлашћени медицински третман?

Ови превише поједностављени примери су само неки од бројних одлука у којима је ослањање само на вештачку интелигенцију у супротности са нашим ставовима о томе шта захтевају појединачна људска права.

 

Постоји ли још нешто што бисте желели да поделите у вези са вештачком интелигенцијом или Бејкером Мекензијем? 

Изузетно сам енергичан да помогнем у вођењу Заиста међународна пракса вештачке интелигенције Бакер МцКензие усред пејзажа који се развија. Свјесни смо да су наши клијенти гладни смјерница о свим стварима АИ, од преговарања о уговорима, преко успостављања интерног надзора, до избјегавања тврдњи о пристрасности, до разумијевања домаћег и међународног регулаторног оквира у настајању.

Компаније желе да ураде праву ствар, али постоји врло мало адвокатских фирми које имају неопходну стручност и разумевање АИ и машинског учења да би им могле помоћи. За оне од нас који смо и зависници од вештачке интелигенције и адвокати, ово је узбудљиво време да додамо праву вредност за наше клијенте.

Хвала вам на фантастичним одговорима у вези са неким од ових великих друштвених проблема који укључују АИ. Читаоци који желе да сазнају више о Бредфорду Њуману требало би кликните овде.

Оснивачки партнер уните.АИ и члан Форбсов технолошки савет, Антоан је а футуристички који је страствен за будућност вештачке интелигенције и роботике.

Такође је оснивач Сецуритиес.ио, веб локација која се фокусира на улагање у дисруптивну технологију.