заглушки Чи є штучний інтелект екзистенційною загрозою? - Об'єднуйтесь.AI
Зв'язатися з нами

Штучний загальний інтелект

Чи є штучний інтелект екзистенційною загрозою?

mm
оновлений on

Під час обговорення штучного інтелекту (ШІ) часто сперечаються про те, чи є ШІ загрозою для існування. Відповідь вимагає розуміння технології машинного навчання (ML) і визнання того, що люди мають тенденцію до антропоморфізації. Ми досліджуватимемо два різних типи штучного інтелекту: штучний вузький інтелект (ANI), який доступний зараз і викликає занепокоєння, і загрозу, яка найчастіше пов’язана з апокаліптичними версіями штучного інтелекту, тобто загальний штучний інтелект (AGI).

Загрози штучного вузького інтелекту

Щоб зрозуміти, що таке ANI, вам просто потрібно зрозуміти, що кожна окрема програма AI, яка зараз доступна, є формою ANI. Це галузі штучного інтелекту, які мають вузьку спеціалізацію, наприклад, автономні транспортні засоби використовують штучний інтелект, розроблений з єдиною метою переміщення транспортного засобу з точки А в точку Б. Іншим типом штучного інтелекту може бути шахова програма, оптимізована для гри шахи, і навіть якщо шахова програма постійно вдосконалюється за допомогою навчання з підкріпленням, шахова програма ніколи не зможе керувати автономним транспортним засобом.

Оскільки системи ANI зосереджені на будь-якій операції, за яку вони відповідають, не можуть використовувати узагальнене навчання, щоб захопити світ. Це хороші новини; Погана новина полягає в тому, що через свою залежність від людини-оператора система штучного інтелекту сприйнятлива до упереджених даних, людських помилок або, що ще гірше, нечесного оператора-людини.

ШІ спостереження

Для людства може бути не більша небезпека, ніж люди, які використовують штучний інтелект для вторгнення в приватне життя, а в деяких випадках використовують спостереження за штучним інтелектом, щоб повністю запобігти вільному пересуванню людей.  Китай, Росія та інші країни прийняли закони під час COVID-19 щоб вони могли контролювати та контролювати переміщення свого населення. Це закони, які, коли вони діють, важко скасувати, особливо в суспільствах, де є автократичні лідери.

У Китаї камери встановлюють поза домами людей, а в деяких випадках і вдома. Щоразу, коли хтось із домогосподарств виїжджає, штучний інтелект відстежує час прибуття та від’їзду та, якщо необхідно, сповіщає владу. Наче цього недостатньо, за допомогою технології розпізнавання обличчя Китай може відстежувати рух кожної людини щоразу, коли її ідентифікує камера. Це пропонує абсолютну владу суб’єкту, який контролює ШІ, і абсолютно нульове звернення до його громадян.

Причина небезпеки цього сценарію полягає в тому, що корумповані уряди можуть ретельно стежити за переміщеннями журналістів, політичних опонентів або будь-кого, хто наважується поставити під сумнів авторитет уряду. Легко зрозуміти, як журналісти та громадяни будуть обережно критикувати уряди, коли кожен рух контролюється.

На щастя, є багато міст, які борються за те, щоб розпізнавання облич не проникло в їхні міста. Зокрема, Портленд, штат Орегон, нещодавно прийняв закон який блокує без потреби використання розпізнавання обличчя в місті. Хоча ці зміни в регулюванні могли залишитися непоміченими широким загалом, у майбутньому ці правила можуть стати різницею між містами, які пропонують певний тип автономії та свободи, і містами, які почуваються гнобливо.

Автономна зброя та дрони

Понад 4500 дослідників штучного інтелекту закликали до заборони автономної зброї та створили Заборонити летальну автономну зброю веб-сайт. Підписантами групи є багато відомих некомерційних організацій, наприклад Права людини дивитися, Amnesty International, А Інститут майбутнього життя який сам по собі має зіркову наукову консультативну раду, до складу якої входять Ілон Маск, Нік Бостром і Стюарт Рассел.

Перш ніж продовжити, я наведу цю цитату з Інституту майбутнього життя, яка найкраще пояснює, чому є явна причина для занепокоєння: «На відміну від напівавтономної зброї, яка потребує нагляду з боку людини, щоб переконатися, що кожна ціль підтверджена як етично та юридично законна, така повністю автономна зброя вибирає та вражає цілі без втручання людини, представляючи повну автоматизацію смертельних ушкоджень. »

Зараз розумні бомби розгортаються з ціллю, вибраною людиною, а потім бомба використовує ШІ, щоб прокласти курс і приземлитися на ціль. Проблема в тому, що станеться, коли ми вирішимо повністю видалити людину з рівняння?

Коли штучний інтелект вибирає, на що люди повинні націлитися, а також тип побічної шкоди, який вважається прийнятним, ми, можливо, перетнули точку неповернення. Ось чому так багато дослідників штучного інтелекту виступають проти дослідження всього, що віддалено пов’язане з автономною зброєю.

Є багато проблем із простою спробою заблокувати дослідження автономної зброї. Перша проблема полягає в тому, що навіть якщо такі розвинені країни, як Канада, США та більшість Європи погодяться на заборону, це не означає, що країни-ізгої, такі як Китай, Північна Корея, Іран і Росія, підіграють. Друга і більша проблема полягає в тому, що дослідження штучного інтелекту та програми, призначені для використання в одній галузі, можуть бути використані в абсолютно не пов’язаних сферах.

Наприклад, комп’ютерне бачення постійно вдосконалюється та є важливим для розробки автономних транспортних засобів, точної медицини та інших важливих випадків використання. Це також принципово важливо для звичайних дронів або дронів, які можна модифікувати, щоб вони стали автономними. Одним із потенційних випадків використання передових технологій безпілотників є розробка безпілотників, які можуть контролювати та гасити лісові пожежі. Це повністю позбавило б пожежників від шкоди. Щоб зробити це, вам потрібно створити дрони, здатні летіти в небезпечну сторону, орієнтуватися в умовах низької або нульової видимості та здатні скидати воду з бездоганною точністю. Це не так вже й багато часу, щоб потім використати цю ідентичну технологію в автономному безпілотнику, який призначений для вибіркового націлювання на людей.

Це небезпечне скрутне становище, і на даний момент часу ніхто повністю не розуміє наслідків просування або спроб блокування розробки автономної зброї. Тим не менш, це те, на що ми повинні стежити, покращуючи захист викривачів може дозволити тим, хто працює на місцях, повідомляти про порушення.

Не дивлячись на шахрайського оператора, що станеться, якщо в технологію ШІ, яка розроблена як автономна зброя, проникне упередження ШІ?

AI Bias

Однією з найбільш невідомих загроз ШІ є упередженість ШІ. Це легко зрозуміти, оскільки більшість з них є ненавмисними. Упередження ШІ проскакує, коли ШІ переглядає дані, які йому надають люди, використовуючи розпізнавання шаблонів із даних, які надійшли до ШІ, ШІ робить неправильні висновки, які можуть мати негативні наслідки для суспільства. Наприклад, штучний інтелект, який живиться літературою минулого століття про те, як ідентифікувати медичний персонал, може дійти небажаного сексистського висновку, що жінки завжди медсестри, а чоловіки завжди лікарі.

Більш небезпечний сценарій, коли ШІ, який використовується для вироку засудженим злочинцям, є упередженим до більш тривалого ув'язнення для меншин. Алгоритми оцінки кримінального ризику штучного інтелекту просто вивчають закономірності в даних, які надійшли в систему. Ці дані вказують на те, що певні меншини історично мають більшу ймовірність повторного вчинення злочину, навіть якщо це відбувається через погані набори даних, на які може вплинути поліцейське расове профілювання. Тоді упереджений ШІ посилює негативну людську політику. Ось чому штучний інтелект має бути орієнтиром, а не суддею та присяжним.

Повертаючись до автономної зброї, якщо у нас є штучний інтелект, упереджено спрямований проти певних етнічних груп, він може вибрати ціль для певних осіб на основі упереджених даних, і це може дійти до того, що будь-який тип супутньої шкоди вплине на певні демографічні групи менше, ніж на інші. . Наприклад, якщо націлитися на терориста, перш ніж атакувати, він міг дочекатися, поки терориста не оточать ті, хто дотримується мусульманської віри, а не християн.

На щастя, було доведено, що штучний інтелект, розроблений різними командами, менш схильний до упередженості. Це достатня причина для підприємств намагатися, коли це можливо, найняти різнопланову команду.

Загрози штучного інтелекту

Слід зазначити, що незважаючи на те, що штучний інтелект розвивається в геометричній прогресії, ми все ще не досягли AGI. Коли ми досягнемо AGI, це предмет дебатів, і кожен має різну відповідь щодо термінів. Я особисто підтримую погляди Рея Курцвейла, винахідника, футуриста та автора книги «Сингулярність близько», який вірить, що ми матимемо досягнутий AGI до 2029 року.

AGI стане найбільш трансформаційною технологією у світі. Через кілька тижнів після того, як штучний інтелект досягне рівня людського інтелекту, він досягне цього рівня суперінтелект який визначається як інтелект, який набагато перевищує людський.

З таким рівнем інтелекту AGI може швидко поглинати всі людські знання та використовувати розпізнавання образів для визначення біомаркерів, які спричиняють проблеми зі здоров’ям, а потім лікувати ці захворювання за допомогою науки про дані. Це може створювати наноботів, які проникають у кров, щоб націлитися на ракові клітини чи інші вектори атаки. Список досягнень, на які здатний AGI, нескінченний. Раніше ми досліджували деякі з них переваги AGI.

Проблема полягає в тому, що люди більше не зможуть контролювати ШІ. Ілон Маск описує це так: "За допомогою штучного інтелекту ми викликаємо демона.' Питання в тому, чи зможемо ми контролювати цього демона?

Досягнення AGI може бути просто неможливим, доки штучний інтелект не вийде з налаштувань симуляції, щоб справді взаємодіяти в нашому відкритому світі. Самосвідомість не може бути розроблена, натомість вважається, що ан емерджентна свідомість швидше за все, розвиватиметься, коли штучний інтелект матиме роботизоване тіло з кількома вхідними потоками. Ці дані можуть включати тактильну стимуляцію, розпізнавання голосу з покращеним розумінням природної мови та розширене комп’ютерне бачення.

Просунутий штучний інтелект може бути запрограмований на альтруїстичні мотиви та хоче врятувати планету. На жаль, ШІ може використовувати наука про даніабо навіть а дерево рішень щоб прийти до небажаної хибної логіки, наприклад оцінити, що необхідно стерилізувати людей або знищити частину людської популяції, щоб контролювати перенаселення людей.

Створення штучного інтелекту з інтелектом, який набагато перевершить людський, потребує ретельного обдумування та обдумування. Було досліджено багато сценаріїв кошмарів.

Професор Нік Бостром у аргументі Paperclip Maximizer стверджував, що неправильно налаштований AGI, якщо отримати вказівку виробляти скріпки, просто споживатиме всі ресурси Землі для виробництва цих скріпок. Хоча це здається трохи надуманим, більш прагматична точка зору полягає в тому, що AGI може контролюватися державою-ізгоєм або корпорацією з поганою етикою. Ця організація могла б навчити AGI максимізувати прибуток, і в цьому випадку за допомогою поганого програмування та нульового каяття вона могла б збанкрутувати конкурентів, знищити ланцюжки поставок, зламати фондовий ринок, ліквідувати банківські рахунки або атакувати політичних опонентів.

Саме тоді нам потрібно пам’ятати, що люди схильні до антропоморфізації. Ми не можемо передати штучному інтелекту людські емоції, бажання чи бажання. Хоча є диявольські люди, які вбивають заради задоволення, немає підстав вважати, що штучний інтелект сприйнятливий до такого типу поведінки. Для людей неможливо навіть подумати, як би дивився на світ ШІ.

Натомість нам потрібно навчити ШІ завжди шанобливо ставитися до людини. ШІ завжди повинен підтверджувати будь-які зміни в налаштуваннях людиною, і завжди повинен бути механізм захисту від збоїв. Знову ж таки, стверджується, що штучний інтелект просто відтворить себе в хмарі, і коли ми зрозуміємо, що він усвідомить себе, може бути вже надто пізно.

Ось чому так важливо відкрити якомога більше штучного інтелекту та проводити раціональні дискусії щодо цих питань.

Підсумки

Перед штучним інтелектом стоїть багато проблем, але, на щастя, у нас ще є багато років, щоб спільно визначити майбутній шлях, яким ми хочемо йти AGI. У короткостроковій перспективі ми повинні зосередитися на створенні різноманітної робочої сили ШІ, яка включає якомога більше жінок, так і чоловіків, і якомога більше етнічних груп з різними поглядами.

Нам також слід створити захист дослідників, які працюють над штучним інтелектом, а також ухвалити закони та нормативні акти, які запобігатимуть широкому зловживанню державним або корпоративним спостереженням. Люди мають раз у житті можливість покращити людський стан за допомогою штучного інтелекту, нам просто потрібно ретельно створити соціальну структуру, яка найкращим чином забезпечує позитивні сторони, одночасно пом’якшуючи негативні, які включають екзистенційні загрози.

Партнер-засновник unite.AI і член Технологічна рада Forbes, Антуан - це а футурист який захоплений майбутнім ШІ та робототехніки.

Він також є засновником Securities.io, веб-сайт, який зосереджується на інвестиціях у революційні технології.