кочан Изследователи на изкуствен интелект предлагат премии за пристрастията на изкуствения интелект, за да направят изкуствения интелект по-етичен – Unite.AI
Свържете се с нас

етика

Изследователите на AI предлагат да се дават премии за пристрастията на AI, за да направят AI по-етичен

mm

Публикуван

 on

Екип от изследователи на ИИ от компании и лаборатории за разработка на ИИ като Intel, Google Brain и OpenAI препоръча използването на премии, за да се гарантира етичното използване на ИИ. Екипът от изследователи наскоро пусна редица предложения относно етичното използване на AI и те включиха предложение, че възнаграждаването на хората за откриване на пристрастия в AI може да бъде ефективен начин да се направи AI по-справедлив.

Както съобщава VentureBeat, изследователи от различни компании в САЩ и Европа се обединиха, за да съставят набор от етични насоки за разработване на AI, както и предложения за това как да се спазват насоките. Едно от предложенията, направени от изследователите, е предлагането на награди за разработчиците, които открият пристрастия в програмите за изкуствен интелект. Предложението е направено в документ, озаглавен „Към надеждно разработване на AI: Механизми за подкрепа на проверими твърдения".

Като примери за пристрастията, с които екипът от изследователи се надява да се справи, са открити предубедени данни и алгоритми във всичко - от здравни приложения до системи за разпознаване на лица, използвани от правоприлагащите органи. Един такъв случай на пристрастност е инструментът за оценка на риска PATTERN, който наскоро беше използван от Министерството на правосъдието на САЩ за сортиране на затворници и решаване кои от тях могат да бъдат изпратени у дома при намаляване на размера на затворническата популация в отговор на пандемията от коронавирус.

Практиката да се възнаграждават разработчиците за откриване на нежелано поведение в компютърни програми е един стар, но това може да е първият път, когато съвет по етиката на ИИ напредна сериозно идеята като опция за борба с пристрастията към ИИ. Въпреки че е малко вероятно да има достатъчно разработчици на AI, за да открият достатъчно пристрастия, за да може AI да бъде гарантиран етичен, това все пак ще помогне на компаниите да намалят цялостните пристрастия и да разберат какви видове пристрастия изтичат в техните AI системи.

Авторите на статията обясняват, че концепцията за награди за грешки може да бъде разширена до AI с използването на пристрастия и награди за безопасност и че правилното използване на тази техника може да доведе до по-добре документирани набори от данни и модели. Документацията ще отразява по-добре ограниченията както на модела, така и на данните. Изследователите дори отбелязват, че същата идея може да се приложи към други свойства на AI като интерпретируемост, сигурност и защита на поверителността.

Тъй като все повече и повече дискусии се случват около етичните принципи на ИИ, мнозина отбелязват, че принципите сами по себе си не са достатъчни и че трябва да се предприемат действия, за да се запази етичният ИИ. Авторите на статията отбелязват, че „съществуващите разпоредби и норми в индустрията и академичните среди са недостатъчни, за да осигурят отговорно развитие на ИИ“. Съоснователят на Google Brain и лидерът на AI индустрията Андрю Нг също изказват мнение че ръководните принципи сами по себе си нямат способността да гарантират, че изкуственият интелект се използва отговорно и справедливо, като се казва, че много от тях трябва да бъдат по-ясни и да имат приложими идеи.

Препоръката за пристрастен лов на глави на комбинирания изследователски екип е опит да се премине отвъд етичните принципи в област на етично действие. Изследователският екип направи и редица други препоръки, които биха могли да стимулират етични действия в областта на ИИ.

Изследователският екип направи редица други препоръки, които компаниите могат да следват, за да направят използването на ИИ по-етично. Те предполагат, че трябва да се създаде централизирана база данни за инциденти с ИИ и да се споделя сред по-широката общност на ИИ. По подобен начин изследователите предлагат да се установи одитна пътека и тези пътеки да съхраняват информация относно създаването и внедряването на критични за безопасността приложения в платформи за ИИ.

За да се запази поверителността на хората, изследователският екип предложи да се използват техники, ориентирани към поверителността, като криптирани комуникации, федеративно обучение и диференцирана поверителност. Освен това, изследователският екип предложи алтернативите с отворен код да бъдат широко достъпни и комерсиалните AI модели да бъдат строго проучени. И накрая, изследователският екип предлага правителственото финансиране да бъде увеличено, така че академичните изследователи да могат да проверят твърденията за производителност на хардуера.