заглушки Проф. Юлія Стоянович, директор Центру відповідального ШІ - Серія інтерв'ю - Unite.AI
Зв'язатися з нами

інтерв'ю

Професор Юлія Стоянович, директор Центру відповідального штучного інтелекту – Серія інтерв’ю

mm
оновлений on

Юлія Стоянович, є професором інженерної школи Тандон Нью-Йоркського університету та директором-засновником Центру відповідального штучного інтелекту. Нещодавно вона дала свідчення Комітету Ради Нью-Йорка з технологій щодо запропонований законопроект що регулюватиме використання штучного інтелекту для найму та прийняття рішень.

Ви є директором-засновником Центру відповідального ШІ при Нью-Йоркському університеті. Не могли б ви поділитися з нами деякими ініціативами, які здійснює ця організація?

Разом зі Стівеном Куяном я керую Центром відповідального ШІ (R/AI) при Нью-Йоркському університеті. У нас із Стівеном спільні інтереси та знання. Я вчений, маю освіту в галузі інформатики та сильно зацікавлений у роботі, натхненній використанням, на перетині інженерії даних, відповідальної науки про дані та політики. Стівен є керуючим директором NYU Tandon Future Labs, мережа стартап-інкубаторів і акселераторів, яка вже мала величезний економічний вплив у Нью-Йорку. Наше бачення R/AI полягає в тому, щоб допомогти зробити «відповідальний штучний інтелект» синонімом «штучного інтелекту» шляхом поєднання прикладних досліджень, громадської освіти та залучення, а також допомагаючи великим і малим компаніям, особливо малим, розвивати відповідальний штучний інтелект.

В останні кілька місяців R/AI активно бере участь у розмовах про нагляд за ADS (автоматизованими системами прийняття рішень). Наш підхід базується на поєднанні освітньої діяльності та участі в політиці.

Нью-Йорк розглядає запропонований закон, Інт 1894, що регулюватиме використання ADS при прийомі на роботу шляхом поєднання аудиту та публічного оприлюднення. R/AI подав публічні коментарі до законопроекту на основі нашого дослідження та інформації, яку ми зібрали від шукачів роботи через кілька залучення громадськості діяльності.

Ми також співпрацювали з GovLab в Нью-Йоркському університеті та з Інститут етики ШІ Мюнхенського технічного університету на безкоштовному онлайн-курсі під назвою «Етика штучного інтелекту: глобальні перспективи» який був запущений на початку цього місяця.

Ще один недавній проект R/AI, який привернув досить багато уваги, — це наша серія коміксів «Дані, відповідально». Перший том серії називається «Дзеркало, дзеркало», він доступний англійською, іспанською та французькою мовами та доступний за допомогою програми зчитування з екрана всіма трьома мовами. Комікс отримав Інновація місяця нагороду від Metro Lab Network і GovTech, і була покрита Toronto Star, Серед інших.

Які поточні або потенційні проблеми з упередженістю штучного інтелекту при прийнятті на роботу та працевлаштуванні?

Це складне питання, яке вимагає від нас спочатку чітко визначити, що ми маємо на увазі під «упередженістю». Головне, що слід зазначити, що автоматизовані системи найму є «прогнозною аналітикою» — вони передбачають майбутнє на основі минулого. Минуле представлено історичними даними про осіб, яких найняла компанія, і про результати роботи цих осіб. Потім система «навчається» на цих даних, тобто вона визначає статистичні закономірності та використовує їх для прогнозування. Ці статистичні закономірності є «магією» штучного інтелекту, на цьому базуються прогнозні моделі. Зрозуміло, але важливо, що історичні дані, з яких були видобуті ці закономірності, не говорять про людей, яких не найняли, тому що ми просто не знаємо, як би вони впоралися з роботою, яку не отримали. І тут грає роль упередженість. Якщо ми будемо систематично наймати на роботу більше людей з певних демографічних і соціально-економічних груп, то членство в цих групах і характеристики, які поєднуються з цією груповою приналежністю, стануть частиною прогнозної моделі. Наприклад, якщо ми бачимо лише випускників найкращих університетів, які наймаються на керівні посади, тоді система не може зрозуміти, що люди, які навчалися в іншому навчальному закладі, також можуть мати успіх. Легко побачити подібну проблему для статі, раси та статусу інвалідності.

Упередження в ШІ – це набагато ширше, ніж просто упередження в даних. Воно виникає, коли ми намагаємося використати технологію там, де технічне рішення є просто невідповідним, або коли ми ставимо неправильні цілі для штучного інтелекту – часто через те, що у нас немає різноманітних голосів за столом проектування, або коли ми відмовляємося від своїх агенство у взаємодії людини та ШІ після розгортання ШІ. Кожна з цих причин упередженості заслуговує окремого обговорення, яке, швидше за все, триватиме довше, ніж дозволяє місце в цій статті. І тому, щоб залишатися зосередженим, дозвольте мені повернутися до упередженості в даних.

Пояснюючи упередженість даних, я люблю використовувати метафору дзеркального відображення. Дані – це образ світу, його дзеркальне відображення. Коли ми думаємо про упередженість даних, ми ставимо під сумнів це відображення. Одне з тлумачень «зміщення в даних» полягає в тому, що відображення спотворене – наше дзеркало недостатньо або надмірно представляє деякі частини світу, або іншим чином спотворює показання. Інша інтерпретація «упередженості в даних» полягає в тому, що навіть якби відображення було на 100% вірним, воно все одно було б відображенням світу таким, яким він є сьогодні, а не того, яким він міг чи мав би бути. Важливо, що не дані чи алгоритм повинні сказати нам, чи є це ідеальним відображенням зламаного світу, чи зламаним відображенням ідеального світу, чи ці спотворення поєднуються. Люди – окремі люди, групи, суспільство загалом – мають дійти згоди щодо того, чи влаштовує нас світ таким, яким він є, або, якщо ні, як нам покращити його.

Повернемося до прогнозної аналітики: чим сильніші розбіжності в даних, як відображення минулого, тим більша ймовірність, що вони будуть підхоплені прогнозними моделями та відтворені – і навіть посилені – у майбутньому.

Якщо наша мета полягає в тому, щоб покращити нашу практику найму з огляду на справедливість і різноманітність, тоді ми просто не можемо передати цю роботу машинам. Ми маємо виконати важку роботу з виявлення справжніх причин упередженості під час найму та працевлаштування, а також узгодити соціально-юридичне та технічне рішення за участю всіх зацікавлених сторін. Технології, безумовно, відіграють певну роль у тому, щоб допомогти нам покращити статус-кво: вони можуть допомогти нам залишатися чесними щодо наших цілей і результатів. Але прикидатися, ніби дезміщення даних або прогнозна аналітика вирішить глибинні проблеми дискримінації при прийомі на роботу, у кращому випадку наївно.

Нещодавно ви дали свідчення Комітету Ради Нью-Йорка з технологій, один вражаючий коментар був таким: «Ми виявили, що як бюджет рекламодавця, так і вміст реклами суттєво впливають на спотворення реклами Facebook. Найважливішим є те, що ми спостерігаємо значний перекіс у показі за гендерною та расовою ознаками «справжніх» оголошень про працевлаштування та житло, незважаючи на нейтральні параметри націлювання». Які існують рішення, щоб уникнути такого типу упередженості?

Цей коментар, який я зробив, базується на геніальному стаття Ali et al. під назвою «Дискримінація через оптимізацію: як розміщення реклами Facebook може призвести до упереджених результатів». Автори виявляють, що сам механізм доставки реклами відповідає за впровадження та посилення дискримінаційних ефектів. Зайве говорити, що цей висновок дуже проблематичний, особливо на тлі непрозорості у Facebook та інших платформах — Google і Twitter. На платформах лежить тягар терміново й переконливо продемонструвати, що вони можуть керувати дискримінаційними ефектами, подібними до тих, які виявили Алі та ін.. Крім цього, я не можу знайти виправдання для подальшого використання персоналізованого націлювання реклами в сфері житла, працевлаштування та інші сфери, де життя людей і засоби до існування знаходяться під загрозою.

Як науковці з обробки даних і розробники штучного інтелекту можуть найкращим чином запобігти проникненню інших ненавмисних упереджень у їхні системи?

 Забезпечення відповідності технічних систем суспільним цінностям не залежить від дослідників даних чи будь-якої окремої групи зацікавлених сторін. Але дослідники даних справді перебувають на передньому краї цієї битви. Як фахівець з інформатики я можу засвідчити привабливість думки про те, що системи, які ми розробляємо, є «об’єктивними», «оптимальними» або «правильними». Наскільки успішними є інформатика та наука про дані — наскільки вони впливові та наскільки широко використовуються — це одночасно і благословення, і прокляття. Ми, технологи, більше не маємо розкоші ховатися за недосяжними цілями об’єктивності та коректності. На нас лежить тягар, щоб ретельно подумати про наше місце у світі та дізнатися про соціальні та політичні процеси, на які ми впливаємо. Суспільство не може дозволити собі швидко рухатися і ламати речі, ми повинні уповільнити темп і задуматися.

Символічно, що колись філософія була центральною частиною всього наукового та суспільного дискурсу, потім прийшла математика, потім інформатика. Тепер, коли наука про дані займає центральне місце, ми пройшли повне коло і нам потрібно повернутися до наших філософських коренів.

Ще одна рекомендація, яку ви дали, це створення інформованої громадськості. Як ми інформуємо громадськість, яка, можливо, не знайома з ШІ або не розуміє проблеми, пов’язані з упередженням ШІ?

Існує гостра потреба навчати людей, які не мають технічних знань, про технологію, а також навчати людей техніків про їхні соціальні наслідки. Досягнення обох цих цілей потребуватиме твердої відданості та значних інвестицій з боку нашого уряду. Нам потрібно розробити матеріали та навчальні методики для всіх цих груп, а також знайти шляхи стимулювання участі. І ми не можемо залишити цю роботу комерційним структурам. Європейський Союз лідирує в цьому шляху, його підтримують кілька урядів базова освіта ШІ своїх громадян, а також включення навчальних планів штучного інтелекту в програми середньої школи. Ми в R/AI працюємо над загальнодоступним і загальнодоступним курсом, щоб створити зацікавлену громадськість, яка допоможе зробити ШІ таким, яким МИ хочемо його бачити. Ми дуже раді цій роботі, будь ласка, стежте за оновленнями, щоб отримати більше інформації в наступному місяці.

Дякуємо за чудові детальні відповіді. Читачі, які хочуть дізнатися більше, повинні відвідати Центр відповідального штучного інтелекту.