кочан Рийд Блекман, д-р, основател и главен изпълнителен директор на Virtue Consultants – Серия от интервюта – Unite.AI
Свържете се с нас

Интервюта

Рийд Блекман, д-р, основател и главен изпълнителен директор на Virtue Consultants – Серия интервюта

mm

Публикуван

 on

Рийд Блекман е основател и главен изпълнителен директор на Консултанти на добродетелта. В това си качество той е работил с компании за интегриране на етиката и намаляването на етичните рискове във фирмената култура и разработването, внедряването и доставката на нововъзникващи технологични продукти. Той също така е старши съветник на Ernst & Young и участва в техния консултативен съвет за изкуствен интелект и е член на Инициативата за етичен дизайн на IEEE.

Работата на Рийд е представена в The Wall Street Journal и Dell Perspectives и той е допринесъл с материали за The Harvard Business Review, TechCrunch, VentureBeat и Risk & Compliance Magazine. Той е цитиран в множество новинарски статии и редовно говори на различни места, включително Световния икономически форум, SAP, Cannes Lions, Forbes, NYU Stern School of Business, Колумбийския университет и AIG.

Бяхте професор по философия в Colgate University от 2009 г. до 2018 г. В кой момент започнахте да включвате етиката на ИИ в часовете си?

Често преподавах курс по социална и политическа философия, където разглеждах Маркс. Едно от централните твърдения на Маркс е, че капитализмът в крайна сметка ще отстъпи място на комунизма, поради огромното увеличение на „средствата за производство“. С други думи, капитализмът налага все по-голяма и по-голяма ефективност в името на конкуренцията и отварянето на нови пазари, което означава увеличаване на създаването на технологии, които могат да произвеждат все повече и повече за все по-кратко време. Маркс също прогнозира, че това все повече ще поставя парите в ръцете на малцина и ще тласка все повече и повече хора към бедност, в който момент капиталистическите структури ще бъдат преобърнати от революция, водена от нарастващия брой бедни маси. Всичко това води до дискусия около етиката на технологията, премахваща необходимостта от човешки труд, което е централен елемент от етиката на ИИ.

Малка странична история, ако се интересувате: През 2002 г. бях аспирант и водех дискусия за Маркс със студенти от Северозападния университет. В един момент ученик вдигна ръка и каза: „В крайна сметка няма да имаме нужда от хора, за да вършим каквато и да е работа.“ Класът беше объркан. Бях объркан. Така че аз казах, "добре тогава кой ще свърши работата?" Той отговори по много реален начин: „роботи“. Класът избухна в смях. Задуших своето. Но е доста очевидно кой се смее последен.

През 2018 г. стартирахте Консултанти на добродетелта, консултантска компания по етика, която дава възможност на лидерите в Data и AI да идентифицират и смекчат етичните рискове на техните продукти. Какво ви вдъхнови да започнете това предприемаческо пътуване?

ревност. Е, нещо като. Създадох компания за търговия на едро с фойерверки, когато бях студент, мисля, че около 2003 или 2004 г. Това мина по-добре, отколкото очаквах, и компанията все още съществува, въпреки че сега съм съветник и вече не се грижа за ежедневните операции . Както и да е, това е уместно, защото обяснява как станах ментор на стартиращи фирми в предприемаческата програма на Colgate (наречена TIA, Thought Into Action, водена от двама страхотни VC, Анди Грийнфийлд и Уилс Хапуърт, които управляват TIA Ventures). Като ментор видях студенти да се впускат във вълнуващи проекти, докато се опитваха да разберат как да създадат и мащабират своите стартиращи фирми с печалба или с нестопанска цел и си помислих: „Искам това!“ Но какво би било новото ми начинание? Трябваше да говори за любовта ми към философията и етиката и първото нещо, което имаше смисъл, беше консултант по етика. Тогава не видях пазара за такива услуги, защото нямаше такъв и затова чаках. И тогава Cambridge Analytica, BLM и #MeToo направиха национални заглавия и внезапно имаше по-голямо осъзнаване на необходимостта.

Колко важно е за компаниите да въведат етична декларация за AI?

Декларацията за етика на AI не е от съществено значение, но е изключително полезен инструмент за определяне на вашите цели. Когато въвеждате програма за етика на AI във вашата организация, искате тя да идентифицира, смекчава и управлява различни етични, репутационни, регулаторни и правни рискове. Това е основната му функция. Декларацията за етика помага да се формулира как ще изглеждат нещата, след като разполагате с инфраструктурата, процеса и практиките, за да постигнете тази функция. Доколкото една стратегия се нуждае от цел – което винаги има – Декларацията за етика на ИИ е добър начин за формулиране на тези цели, въпреки че не е единственият начин.

Как компаниите могат да гарантират, че декларацията за етика се прехвърля в процес и практика?

Декларацията за етика е само малка стъпка в правилната посока. Ако искате да продължите напред, следващата естествена стъпка е да направите оценка на това къде се намирате спрямо целите, формулирани в това изявление. След като разберете къде са най-големите, най-рискови пропуски – тоест къде сте най-застрашени да не постигнете целите си – тогава можете да започнете да измисляте решения за стесняване на тези пропуски. Може би е комисия по етика. Може би това е процес на надлежна проверка по време на разработването на продукта. Може би става все по-добре в начина, по който боравите с данни в непродуктови отдели, като маркетинг и човешки ресурси. Вероятно това са всички тези неща и повече.

Какви са някои решения, които компаниите трябва да внедрят, за да избегнат пристрастия към действителния алгоритъм на AI?

Има куп технически инструменти за идентифициране на пристрастия, но те са ограничени. Те ще ви позволят да сравните резултатите на вашия модел с десетките количествени показатели, които са били предложени в академичната литература по етика на машинното обучение, но трябва да внимавате, защото тези показатели не са взаимно съвместими. Така че трябва да се вземе съществено, етично решение: кой, ако има някой от тези показатели, е подходящият в този контекст?

Освен използването на инструмент като този, допълнен с отговорен начин за отговор на този въпрос, продуктовите екипи би било добре да помислят къде може да се появи пристрастие, преди да започнат да строят. Как може да се съдържа или отразява в наборите от данни за обучение? Какво ще кажете за определянето на целевата функция? Какво ще кажете за определяне на прага? Има много места, където може да се промъкне пристрастие. Предварителното обмисляне къде може да бъде това в текущия проект и как може да влезе там е от съществено значение за идентифицирането и смекчаването на пристрастието.

Компаниите за изкуствен интелект са известни с това, че са доминирани от бели мъже, които могат неволно да програмират някои отклонения в системата за изкуствен интелект. За да се избегне това, какъв тип черти трябва да търсят отделите по човешки ресурси?

Аз съм за по-големи възможности и по-голямо разнообразие сред инженерите и продуктовите екипи като цяло. Въпреки това, мисля, че това е гледане на нещата през грешната призма. Основният проблем, когато става въпрос за предубедени алгоритми, не е, че пристрастията на някои бели водят до предубеден код. Това е, че наборите от данни за обучение са предубедени. Всъщност скорошна статия от Колумбия – „Пристрастни програмисти? Или пристрастни данни? Полеви експеримент в операционализирането на етиката на изкуствения интелект“ – заключава, че „програмистите, които разбират техническите насоки, успешно намаляват пристрастията“ и че „алгоритмичните прогнози от програмистите на женски и малцинствен AI не показват по-малко алгоритмични пристрастия или дискриминация“. Така че, докато отделът за човешки ресурси трябва да обръща внимание на проблемите на многообразието, далеч не е ясно, че стратегиите за намаляване на предубедените резултати от ИИ трябва да се съсредоточат предимно – да не говорим, изключително – върху решенията за наемане във връзка с усилията за разнообразие.

Бихте ли обсъдили какво представлява надлежната проверка на етичния риск и защо компаниите трябва да я прилагат?

Надлежната проверка на етичния риск е опит да се открият различните етични рискове, които могат да бъдат реализирани с продукта, който създавате, включително как се внедрява, как може да се използва и злоупотребява и т.н. Искате да се съсредоточите върху характеристиките на продукт – както тези, които има, така и тези, които му липсват – и начините, по които те могат да доведат, когато се използват в различни контексти, до етични погрешни действия. Когато е направено добре, това е системна и изчерпателна проверка. Разбира се, въпреки че можете да опитате всичко възможно да погледнете зад ъгъла, е много вероятно някои неща да пропуснете, поради което непрекъснатото наблюдение е важно.

Що се отнася до това защо компаниите трябва да го прилагат: те трябва само да вземат предвид етичните, репутационните, регулаторните и правните рискове, ако не го направят. Помислете за Optum в новините и под регулаторно разследване за (уж) предубеден алгоритъм, който препоръчва на практикуващите здравни специалисти да обръщат повече внимание на белите пациенти, отколкото на по-болните черни пациенти. Или към Goldman Sachs, разследван за кредитните лимити за Apple Card, за които се твърди, че дискриминират жените. Или софтуерът за наемане на Amazon, който беше бракуван поради опасения за пристрастия, преди да бъде внедрен. Или IBM е съдена от Лос Анджелис за предполагаемо присвояване на данни, събрани от приложението Weather. Или фейсбук....

Има ли нещо друго, което бихте искали да споделите за Virtue Consultants?

Virtue помага на висшите лидери да прилагат етиката на ИИ на практика, независимо дали помага за обучение и повишаване на уменията на хората по темата, пише декларация за етика на ИИ, създава и внедрява действаща рамка за етичен риск на ИИ или просто служи като съветник по етиката на ИИ. Ако това звучи интересно, хората трябва да дойдат да кажат здрасти.

Благодаря ви за страхотното интервю, читателите, които искат да научат повече за Рийд, трябва да го посетят Рийд Блекман, или може да посетите Консултанти на добродетелта.