Лідери думок
AI та дуга довіри

На початку минулого року, коли наша команда робила прогнози про те, що буде далі, єдиний висновок був такий: знімаються обмеження з штучного інтелекту (AI). Ми нарешті побачимо, що він може зробити, і, можливо, отримаємо ясність щодо його впливу на бізнес і суспільство та того, як продовжувати. Це не був новий прогноз, але його ядро було точним, хоча ми все ще боремося з наслідками AI і тим, як (або якщо) його слід контролювати якимсь чином.
Ми бачили, як Apple, Microsoft і Google інтегрують AI у пристрої та приносять його потужність ширшій і більшій аудиторії. Потім знову один чат-бот у інструменті пошуку, підтримуваному AI, загрожував користувачам і стверджував, що шпигує за співробітниками, тоді як інший пропонував використовувати клей Elmer’s у домашній піці, щоб запобігти слизанню сиру. Тим не менше, випадки використання AI у бізнесі зростали драматично, і так само розвивався ринок. Згідно з даними Crunchbase, майже третина всіх глобальнихventure-фондів минулого року пішла компаніям, пов’язаним з AI.
Але навіть тоді, коли OpenAI доставила真正ньо видатні покращення розуміння, відомий дослідник AI, Yoshua Bengio, закликав до впровадження заходів безпеки для ” фронтових моделей“, які мають потенціал спричинити катастрофічну шкоду. І хоча технологія принесе дві Нобелівські премії за застосування в науці, один з її лауреатів висловив занепокоєння щодо системи “більш інтелектуальної, ніж ми, яка в кінцевому підсумку бере контроль”.
У такому швидкозмінному просторі важко навіть фахівцям-технологам слідкувати, не кажучи вже про тих, хто перебуває в мейнстрімі.
І ці помилки AI – і занепокоєння щодо конфіденційності та неконтрольованого використання – тільки посилили публічну обережність.
Просто довірся мені
Ми знаходимося посередині дуги довіри, яка вимагає розвитку публічної прийняття AI, одночасно забезпечуючи відповідальну поведінку бізнесу та технологічної спільноти. Перша частина – це місце, де зараз грається гра, на корпоративному рівні, набираючи оберти з кожним безпечним і надійним розгортанням. Ми будуємо на наших доказах, які в кінцевому підсумку приведуть до збільшення публічної довіри. Друга частина, однак, значно складніша.
Хто визначає і забезпечує відповідальне використання AI? Чи може галузь створити керівні принципи, коли їм самим потрібен контроль? Якщо технологи мають труднощі з слідуванням за AI, чи будуть політики інформовані, і чи зможуть вони тримати свої політичні програми поза розмовою? І коли мільярдер AI раптом хоче говорити про контроль, чи мав він прозріння, чи просто намагається затормозити, щоб наздогнати?
“Просто довірся мені” не буде достатнім для AI, незалежно від того, хто ви є.
Довірся, але перевіри
Люди дивляться на генеративний AI, такий як ChatGPT, і задаються питанням, чи це буде їх наступний Google? Ну, верхній результат пошуку Google зараз створюється його моделлю AI, Gemini. Проблема полягає в тому, що ви не можете покладатися на нього для бізнесу у великому масштабі, коли просте питання, наприклад “Чи безпечно вживати сире м’ясо?”, повертає відповідь “Так, заморожене”. Вам потрібно перевірити дані.
Дуга публічної довіри буде дзеркальним відображенням того, що відбулося з традиційним пошуком, здобутим у часі і завдяки довірі. Іронічно, у нашій спробі спростити і покращити пошук, ми зробили крок назад. Тепер, після отримання відповіді, згенерованої AI, ви повинні прокрутити довгий список спонсорських посилань, натиснути на наступні п’ять і все ще кваліфікувати інформацію.
Це багато роботи, коли ви шукаєте швидку відповідь, і ви не можете мати цілу компанію, яка робить те саме. Однак, якщо ви збагатите дані, які ви видобували протягом тисяч службових квитків, ви принесете справжнє знання про ваше середовище. Алгоритмічно ви можете тоді налаштувати “галюцинації” вниз, але все ж таки залишається ситуацією “довірся, але перевіри”.
Тримайте політику поза цим
Коли мова йде про регулювання AI, деякі стверджують, що конь вже вийшов з стайні і, ймовірно, не буде спійманий. Наприклад, немає真正ньо ефективних інструментів для перевірки, чи студент написав роботу самостійно чи використав GenAI. Технологія просто надто далеко попереду.
Регулювання цього було б дуже складним, і, якщо бути чесним, ми ризикуємо зайти на тонкий лід. Ми знаємо, що технологічні компанії випереджають запропонованих зовнішніх регуляторів на десятиліття. Але ми хороші у створенні шляху, а не у тому, щоб бути утриманими. Тим не менше, у кінцевому підсумку це може залежати від інноваторів спробувати застосувати управління. Хто ще міг би це зробити – відповідально?
Є багато політиків, які хотіли б спробувати зробити це. Ризик, крім відсутності розуміння, полягає в тому, що вони мають особисту і політичну програму, яку вони хочуть просунути. їхнє внимание, потенційно, було б менше зосереджене на культивуванні AI і більше на тому, щоб зробити те, що відповідає їхнім політичним інтересам. Вони могли б працювати з публічними страхами, використовуючи важку руку, щоб стримувати його розвиток.
Закон CHIPS і Science Act був хорошим прикладом здорової державної діяльності, який призвів до драматичного 15-разового збільшення будівництва виробничих об’єктів для обчислювальної техніки та електронних пристроїв. Але це стало можливим завдяки двопартійності – усе частіше реліктом минулого.
Чи ми гідні?
У AI вкладається багато грошей, і протягом наступних двох десятиліть багато чого буде зроблено технологічними компаніями. Скільки, як швидко і як безпечно залишається побачити. У будь-який день може бути поширено глибоке фальшиве відео, яке показує когось у центрі уваги, який жонглює яйцями рідкісної пташки. Публіка відреагує з жахом, і хоча це може бути виявлено як AI-генероване, це яйце не повернеться у шкаралупу – шкода вже буде зроблена.
Нам потрібно, щоб такі речі регулювалися інформованими технологами. Яка форма цього буде – рада, організація зі стандартів, міжнародна структура – залишається побачити. Що відомо, так це те, що AI знаходиться на дузі довіри, і як галузь, нам потрібно довести, що ми гідні цього.












