заглушки Джульєт Пауелл і Арт Кляйнер, автори серії інтерв’ю The AI ​​Dilemma – Unite.AI
Зв'язатися з нами

інтерв'ю

Джульєт Пауелл і Арт Кляйнер, автори серії інтерв’ю The AI ​​Dilemma

mm

опублікований

 on

Дилема ШІ написана Джульєтт Пауелл і Артом Кляйнером.

Джульєттe Пауелл письменниця, телевізійна авторка з 9,000 прямих шоу, а також технолог і соціолог. Вона також є коментатором Bloomberg TV/Business News Networks і спікером на конференціях, організованих Economist і International Finance Corporation. Її виступ на TED має 130 тисяч переглядів на YouTube. Джульєтт визначає моделі та практики успішних бізнес-лідерів, які роблять ставку на етичний штучний інтелект та дані для перемоги. Вона викладає в ITP Нью-Йоркського університету, де викладає чотири курси, включно з курсом «Навички дизайну для відповідальних медіа», заснованим на її книзі.

"Дилема ШІ” — це книга, яка зосереджена на небезпеці технології штучного інтелекту в чужих руках, але водночас визнає переваги штучного інтелекту для суспільства.

Проблеми виникають через те, що базова технологія настільки складна, що кінцевому користувачеві стає неможливо по-справжньому зрозуміти внутрішню роботу закритої системи.

Однією з найбільш важливих проблем, що висвітлюються, є те, як завжди змінюється визначення відповідального ШІ, оскільки суспільні цінності часто не залишаються послідовними з часом.

Мені дуже сподобалося читати «Дилему ШІ». Це книга, яка не робить сенсацій про небезпеки штучного інтелекту та не заглиблюється в потенційні підводні камені загального штучного інтелекту (AGI). Натомість читачі дізнаються про дивовижні способи використання наших особистих даних без нашого відома, а також про деякі поточні обмеження ШІ та причини для занепокоєння.

Нижче наведено кілька запитань, які мають показати нашим читачам, чого вони можуть очікувати від цієї новаторської книги.

Що спочатку надихнуло вас написати «The AI ​​Dilemma»?

Джульєтт поїхала до Колумбії частково для вивчення меж і можливостей регулювання ШІ. Вона чула з перших вуст від друзів, які працювали над проектами штучного інтелекту, про напругу, притаманну цим проектам. Вона прийшла до висновку, що існує дилема ШІ, набагато більша проблема, ніж саморегуляція. Вона розробила порівняльну модель Apex — модель того, як рішення щодо штучного інтелекту схилялися до низької відповідальності через взаємодію між компаніями та групами всередині компаній. Це призвело до її дисертації.

Арт працював із Джульєтт над низкою письменницьких проектів. Він прочитав її дисертацію і сказав: «У вас тут є книга». Джульєтт запросила його стати співавтором. Працюючи над ним разом, вони виявили, що у них дуже різні точки зору, але вони поділилися твердою точкою зору, що цей складний, дуже ризикований феномен штучного інтелекту потрібно краще зрозуміти, щоб люди, які його використовують, могли діяти більш відповідально та ефективніше.

Однією з фундаментальних проблем, висвітлених у «Дилемі штучного інтелекту», є те, що наразі неможливо зрозуміти, чи є система штучного інтелекту відповідальною, чи вона увічнює соціальну нерівність, просто вивчаючи її вихідний код. Наскільки це велика проблема?

Проблема в першу чергу не у вихідному коді. Як зазначає Кеті О’Ніл, коли існує закрита система, це не лише код. Треба досліджувати соціотехнічну систему — людські та технологічні сили, які формують одна одну. Логіка, яка побудувала та випустила систему штучного інтелекту, передбачала визначення мети, ідентифікацію даних, встановлення пріоритетів, створення моделей, встановлення керівних принципів і захисних огорож для машинного навчання, а також рішення, коли і як людина повинна втрутитися. Це та частина, яку потрібно зробити прозорою — принаймні для спостерігачів та аудиторів. Ризик соціальної нерівності та інші ризики набагато більші, коли ці частини процесу приховані. Ви не можете реально змінити логіку дизайну з вихідного коду.

Можна зосередитися на Пояснюваний ШІ (XAI) ви коли-небудь зверталися до цього?

Для інженерів зрозумілий штучний інтелект наразі розглядається як група технологічних обмежень і практик, спрямованих на те, щоб зробити моделі більш прозорими для людей, які над ними працюють. Для когось, кого неправдиво звинувачують, пояснюваність має зовсім інше значення та актуальність. Їм потрібна зрозумілість, щоб мати можливість відштовхуватися, захищаючись. Нам усім потрібна зрозумілість у сенсі того, щоб бізнес чи державні рішення, що лежать в основі моделей, були зрозумілими. Принаймні в Сполучених Штатах завжди існуватиме суперечність між можливістю пояснення — правом людства знати — і правом організації конкурувати та впроваджувати інновації. Аудитори та регулятори потребують іншого рівня пояснення. Ми розглянемо це більш детально в Дилемі ШІ.

Чи можете ви коротко поділитися своєю думкою про важливість притягнення зацікавлених сторін (компаній ШІ) до відповідальності за код, який вони випускають у світ?

Поки що, наприклад, у випадку зіткнення безпілотного автомобіля в Темпі, штат Аризона, в результаті якого загинув пішохід, оператор ніс відповідальність. Особа потрапила до в'язниці. Зрештою, однак, це був організаційний провал.

Коли міст руйнується, відповідальність несе інженер-механік. Це тому, що інженерів-механіків навчають, постійно перенавчають і несуть відповідальність за свою професію. Комп’ютерні інженери – ні.

Чи повинні зацікавлені сторони, включно з компаніями штучного інтелекту, пройти навчання та перепідготовку, щоб приймати кращі рішення та нести більше відповідальності?

Дилема ШІ зосереджена на тому, як такі компанії, як Google і Meta, можуть збирати та монетизувати наші особисті дані. Чи могли б ви поділитися прикладом значного зловживання нашими даними, який має бути на кожному радарі?

З дилеми ШІ, сторінка 67 і далі:

Нові випадки систематичного зловживання особистими даними продовжують з’являтися в полі зору громадськості, багато з яких пов’язані з прихованим використанням розпізнавання облич. У грудні 2022 року MIT Technology Review опублікував звіти про давню практику iRobot. Домашні роботи Roomba записують зображення та відео, зняті вдома у бета-тестерів-добровольців, що неминуче означає збір інтимних особистих і сімейних зображень. Без відома тестувальників вони надаються групам за межами країни. Принаймні в одному випадку зображення людини в унітазі було опубліковано у Facebook. Тим часом в Ірані влада почала використовувати дані систем розпізнавання облич для відстеження та арешту жінок, які не носять хіджаб.16

Немає потреби далі розповідати про ці історії. Їх так багато. Однак важливо визначити кумулятивний ефект такого життя. Ми втрачаємо відчуття контролю над своїм життям, коли відчуваємо, що наша особиста інформація може бути використана проти нас у будь-який час і без попередження.

Одна з небезпечних концепцій, яка була піднята, полягає в тому, що весь наш світ розроблений таким чином, щоб він був вільним від тертя, причому визначення тертя – це «будь-яка точка подорожі клієнта з компанією, де вони натрапляють на перешкоду, яка сповільнює їхню роботу або викликає незадоволення». Як наші очікування безперебійного досвіду потенційно призводять до небезпечного ШІ?

У Новій Зеландії досвідчений бот Pak'n'Save запропонував рецепт, який утворює газоподібний хлор. Це рекламувалося як спосіб для клієнтів використати залишки та заощадити гроші.

Відсутність тертя створює ілюзію контролю. Слухати додаток швидше і легше, ніж шукати бабусин рецепт. Люди йдуть шляхом найменшого опору і не розуміють, куди це їх веде.

Тертя, навпаки, творче. Ви берете участь. Це призводить до реального контролю. Фактичний контроль вимагає уваги та роботи, а у випадку штучного інтелекту – проведення розширеного аналізу витрат і вигод.

З ілюзією контролю створюється враження, що ми живемо у світі, де системи штучного інтелекту підказують людям, а не люди, які залишаються під повним контролем. Які ви можете навести приклади людей, які колективно вірять, що вони контролюють, хоча насправді вони його не мають?

Сан-Франциско прямо зараз, з робототаксі. Ідея безпілотних таксі, як правило, викликає дві суперечливі емоції: хвилювання («таксі за набагато нижчою ціною!») і страх («вони зіб’ють мене?») Тому багато регуляторів пропонують перевіряти автомобілі на людях. у них, хто може керувати елементами керування. На жаль, наявність людей напоготові, готових перевизначати системи в режимі реального часу, може не бути хорошим тестом громадської безпеки. Надмірна самовпевненість є частою динамікою систем ШІ. Чим більш автономна система, тим більше люди-оператори схильні довіряти їй і не приділяти повної уваги. Нам стає нудно спостерігати за цими технологіями. Коли нещасний випадок насправді має статися, ми цього не очікуємо і часто не реагуємо вчасно.

Ця книга провела багато досліджень, чи було щось, що вас здивувало?

Нас справді здивувало те, що люди в усьому світі не могли дійти згоди щодо того, кому жити, а кому померти Симуляція The Moral Machine зіткнення самокерованого автомобіля. Якщо ми не можемо погодитися з цим, тоді важко уявити, що ми можемо мати єдине глобальне управління або універсальні стандарти для систем ШІ.

Ви обоє описуєте себе як підприємців, як те, що ви дізналися та про що повідомили, вплине на ваші майбутні зусилля?

Наша консультативна практика AI Advisory орієнтована на допомогу організаціям у відповідальному зростанні за допомогою технологій. Юристи, інженери, соціологи та бізнесмени — усі зацікавлені сторони в майбутньому ШІ. У своїй роботі ми об’єднуємо всі ці точки зору та практикуємо творче тертя, щоб знайти кращі рішення. Ми розробили такі схеми, як обчислення навмисного ризику, щоб допомогти в навігації з цими проблемами.

Дякую за чудові відповіді, читачі, які хочуть дізнатися більше, повинні відвідати Дилема ШІ.

Партнер-засновник unite.AI і член Технологічна рада Forbes, Антуан - це а футурист який захоплений майбутнім ШІ та робототехніки.

Він також є засновником Securities.io, веб-сайт, який зосереджується на інвестиціях у революційні технології.