інтерв'ю
Чарльз Дж. Саймон, автор книги «Чи повстануть комп’ютери?» – Серія інтерв’ю

Чарльз Дж. Саймон, BSEE, MSCS, національно визнаний підприємець, розробник програмного забезпечення та менеджер. Володіючи широким управлінським і технічним досвідом і ступенем як з електротехніки, так і з комп’ютерних наук, пан Саймон має багаторічний досвід роботи з комп’ютерами в галузі, включаючи новаторську роботу в галузі ШІ та САПР (два покоління САПР).
Він також є автором книги «Чи бунтують комп’ютери», яка пропонує глибокий погляд на майбутню можливість загального штучного інтелекту (AGI).
Що вас спочатку привернуло до штучного інтелекту, а саме до AGI?
Мене захопило питання: «Чи можуть машини думати?» відтоді, як я вперше прочитав фундаментальну статтю Алана Тюрінга 1950 року, яка починається з цього питання. Поки що відповідь однозначна: «Ні», але немає наукової причини, чому б ні. Я приєднався до спільноти штучного інтелекту під час початкового буму нейромереж наприкінці 1980-х років, і відтоді ШІ досяг великих успіхів. Але тридцять років, що минули, не принесли розуміння наших машин, здатність, яка вивела б численні програми на новий рівень корисності.
Ви заявили, що поділяєте думку експерта зі штучного інтелекту Массачусетського технологічного інституту Родні Брукса, який каже, що «без взаємодії з навколишнім середовищем – без робототехнічного тіла, як вам подобається – машини ніколи не демонструватимуть AGI». По суті, це означає, що за недостатніх вхідних даних від роботизованого тіла ШІ ніколи не розвине можливості AGI. За межами комп’ютерного зору, які типи вхідних даних потрібні для розробки AGI?
Сучасний штучний інтелект має бути доповнений базовими поняттями, такими як фізичне існування об’єктів у реальності, плин часу, причина та наслідок — поняттями, зрозумілими будь-якій трирічній дитині. Малюк використовує кілька органів чуття, щоб засвоїти ці поняття, торкаючись іграшок і маніпулюючи ними, пересуваючись по дому, вивчаючи мову тощо. Хоча можна створити AGI з більш обмеженими органами чуття, так само як існують глухі та сліпі люди, які ідеально розумні, але більше чуттів і здібностей до взаємодії полегшують вирішення проблеми AGI.
Для повноти мій симулятор може надати нюх і смак. Залишається побачити, чи вони також будуть важливими для AGI.
Ви заявили, що «Ключовою вимогою до інтелекту є середовище, яке є зовнішнім щодо інтелекту». Приклад, який ви навели, полягає в тому, що «нерозумно очікувати, що компанія IBM Watson щось «розуміє», якщо не має базового уявлення про те, що таке «річ». Це явно впливає на поточні обмеження вузького ШІ, особливо обробки природної мови. Як розробникам штучного інтелекту найкраще подолати це поточне обмеження штучного інтелекту?
Ключовим фактором є зберігання знань, які не є конкретно вербальними, візуальними чи тактильними, а як абстрактні «Речі», які можуть мати вербальні, візуальні та тактильні атрибути. Розглянемо щось таке просте, як фраза «червона куля». Ви знаєте, що означають ці слова, завдяки вашому візуальному та тактильному досвіду. Ви також знаєте значення пов’язаних дій, таких як кидання, підстрибування, удари ногами тощо, які певною мірою спадають на думку, коли ви чуєте цю фразу. Будь-яка система штучного інтелекту, яка базується саме на словах або конкретно на зображеннях, не матиме інших рівнів розуміння.
Я реалізував універсальне сховище знань, яке зберігає будь-яку інформацію в структурі, схожій на мозок, де Речі аналогічні нейронам і мають багато атрибутивних посилань на інші Речі — посилання аналогічні синапсам. Таким чином, червоний і куля є індивідуальними речами, а червона куля є річчю, яка має посилання на червону річ і кулькову річ. І червоний, і м’яч мають посилання на відповідні Речі для слів «червоний» і «м’яч», кожне з яких, у свою чергу, має посилання на інші Речі, які визначають, як слова чуються, вимовляються, читаються чи пишуться, а також можливі дії Речі.
Ви прийшли до висновку, що симуляція мозку загального інтелекту ще далека, тоді як AGI може бути (відносно) не за горами. Виходячи з цього твердження, чи варто нам відійти від спроб наслідувати або створити симуляцію людського мозку та зосередитися лише на AGI?
Сучасне глибоке навчання та пов’язані з ним технології чудово підходять для відповідних застосувань, але не спонтанно призведуть до розуміння. Щоб зробити наступні кроки, нам потрібно додати техніки, спеціально спрямовані на вирішення проблем, які під силу будь-якій трирічній дитині.
Використання внутрішніх можливостей наших комп’ютерів може бути на порядки ефективнішим, ніж біологічний еквівалент чи будь-яка його симуляція. Наприклад, ваш мозок може зберігати інформацію про хімію біологічних синапсів протягом кількох ітерацій, які вимагають 10-100 мілісекунд. Комп’ютер може просто зберегти нове значення синапсу за один цикл пам’яті, у мільярд разів швидше.
Розробляючи програмне забезпечення AGI, я робив як біологічне нейронне моделювання, так і більш ефективні алгоритми. Продовжуючи роботу з Універсальним сховищем знань, при моделюванні в імітованих біологічних нейронах кожна Річ потребує мінімум 10 нейронів і зазвичай набагато більше. Таким чином, людський мозок містить десь від десяти до ста мільйонів речей. Але, можливо, AGI здасться розумним, якщо він охоплює лише один мільйон речей — цілком у межах сучасних настільних комп’ютерів високого класу.
Ключовим невідомим є те, скільки часу робота має бути виділено на обробку та реагування на світ у порівнянні з часом, витраченим на уявлення та планування. Чи можете ви коротко пояснити важливість уяви для AGI?
Ми можемо уявити багато речей, а потім діяти тільки з тим, що нам подобається, тим, що сприяє нашим внутрішнім цілям, якщо хочете. Справжня сила уяви полягає в здатності передбачати майбутнє: трирічна дитина може визначити, яка послідовність рухів приведе її до мети в іншій кімнаті, а дорослий може припустити, які слова матимуть найбільший вплив на інших .
AGI так само виграє, якщо вийти за рамки простого реагування на спекуляції на різних складних діях і вибрати найкраще.
Ви вважаєте, що три закони робототехніки Азімова занадто прості й неоднозначні. У своїй книзі ви поділилися деякими ідеями щодо рекомендованих законів для програмування на роботах. Яких законів, на вашу думку, найважливіше дотримуватися роботом?
Нові «закони робототехніки» розвиватимуться з роками в міру появи AGI. Пропоную кілька початківців:
- Максимізуйте внутрішні знання та розуміння навколишнього середовища.
- Точно поділіться цими знаннями з іншими (як AGI, так і людьми).
- Збільште благополуччя як AGI, так і людей у цілому, а не лише окремої людини.
У вас є деякі проблеми з тестом Тьюрінга та його концепцією. Чи можете ви пояснити, чому ви вважаєте тест Тьюринга помилковим?
Тест Тьюрінга служив нам протягом п’ятдесяти років як спеціальне визначення загального інтелекту, але з наближенням AGI нам потрібно відточити це визначення, і нам потрібно більш чітке визначення. Тест Тьюрінга насправді є перевіркою того, наскільки людина людина, а не наскільки вона розумна. Чим довше комп’ютер може підтримувати обман, тим краще він виконує тест. Очевидно, задаючи запитання: «Ви комп’ютер?» і відповідні проксі-запитання, такі як «Яка твоя улюблена їжа?» є мертвими подарунками, якщо AGI не запрограмований на обман — у кращому випадку це сумнівна мета.
Крім того, Тест Тьюрінга спонукав до розвитку штучного інтелекту в областях обмеженої цінності за допомогою (наприклад) чат-ботів із великою гнучкістю у відповідях, але без базового розуміння.
Що б ви зробили інакше у вашій версії тесту Тьюрінга?
Кращі запитання могли б досліджувати розуміння часу, простору, причинно-наслідкових зв’язків, передбачуваності тощо, а не випадкові запитання без будь-якої конкретної основи в психології, нейронауці чи ШІ. Ось кілька прикладів:
- Що ти зараз бачиш? Якби ви відступили на три фути назад, які б відмінності ви побачили?
- Якщо я [дія], якою була б ваша реакція?
- якщо ти [дія], якою буде моя ймовірна реакція?
- Чи можете ви назвати три речі, які схожі на [об’єкт]?
Потім, замість того, щоб оцінювати відповіді на те, чи їх неможливо відрізнити від реакцій людини, їх слід оцінювати з точки зору того, чи є вони розумними (розумними) відповідями на основі досвіду суб’єкта, який тестується.
Ви стверджували, що коли вони стикаються з вимогою виконати якусь короткочасну руйнівну діяльність, правильно запрограмовані AGI просто відмовляться. Як ми можемо переконатися, що AGI правильно запрограмований для початку?
Прийняття рішень базується на цілях. У поєднанні з уявою ви (або AGI) розглядаєте результати різних можливих дій і обираєте ту, яка найкраще досягає цілей. У людей наші цілі встановлюються розвиненими інстинктами та нашим досвідом; Цілі AGI повністю залежать від розробників. Ми повинні переконатися, що цілі AGI узгоджуються з цілями людства, а не з особистими цілями окремої людини. [Три можливі цілі, як зазначено вище.]
Ви заявляли, що люди неминуче створять AGI, яка ваша найкраща оцінка часової шкали?
Грані AGI почнуть з’являтися протягом наступного десятиліття, але ми не всі погодимося, що AGI з’явився. Зрештою, ми погодимося, що AGI з’явився тоді, коли вони значно перевершують більшість людських здібностей. Це займе ще два-три десятиліття.
Незважаючи на всі розмови про AGI, чи буде це справжня свідомість, як ми її знаємо?
Свідомість проявляється в наборі поведінки (яку ми можемо спостерігати), яка базується на внутрішньому відчутті (яке ми не можемо спостерігати). AGI буде проявляти поведінку; їм це потрібно, щоб приймати розумні рішення. Але я стверджую, що наші внутрішні відчуття значною мірою залежать від наших сенсорних засобів та інстинктів, тому я можу гарантувати, що які б внутрішні відчуття не мав AGI, вони відрізнятимуться від людських.
Те саме можна сказати про емоції та наше почуття свободи волі. У прийнятті рішень віра в свободу волі пронизує кожне наше рішення. Якщо ви не вірите, що у вас є вибір, ви просто реагуєте. Щоб AGI міг приймати продумані рішення, він також повинен усвідомлювати свою власну здатність приймати рішення.
Останнє запитання: чи вірите ви, що AGI має більше потенціалу для добра чи зла?
Я оптимістично налаштований, що AGI допоможе нам рухатися вперед як виду та дасть відповіді на багато питань про Всесвіт. Ключовим буде для нас підготуватися та вирішити, якими будуть наші відносини з AGI, коли ми визначимо їхні цілі. Якщо ми вирішимо використовувати перші AGI як інструменти завоювання та збагачення, ми не повинні дивуватися, якщо згодом вони стануть їхніми власними інструментами завоювання та збагачення проти нас. Якщо ми виберемо, що AGI є інструментами знання, дослідження та миру, то це, швидше за все, отримаємо натомість. Вибір за нами.
Дякуємо за фантастичне інтерв’ю, присвячене дослідженню майбутнього потенціалу створення AGI. Для читачів, які бажають дізнатися більше, вони можуть прочитати «Чи повстануть комп’ютери» або відвідати веб-сайт Чарльза futureai.guru.