AGI
Является ли ИИ угрозой существованию?

Когда речь идет об искусственном интеллекте (ИИ), распространенной дискуссией является вопрос о том, является ли ИИ угрозой существованию. Ответ требует понимания технологии, лежащей в основе машинного обучения (МО), и признания того, что люди имеют тенденцию антропоморфизировать. Мы рассмотрим два разных типа ИИ: искусственный узкий интеллект (ИУИ), который сейчас доступен и вызывает беспокойство, и угрозу, наиболее часто связанную с апокалиптическими представлениями ИИ, которая является искусственным общим интеллектом (ИОИ).
Угрозы искусственного узкого интеллекта
Чтобы понять, что такое ИУИ, вам просто нужно понять, что каждое приложение ИИ, которое сейчас доступно, является формой ИУИ. Это области ИИ, которые имеют узкую область специализации, например, автономные транспортные средства используют ИИ, который предназначен исключительно для перемещения транспортного средства из точки А в точку Б. Другой тип ИУИ может быть программой для игры в шахматы, которая оптимизирована для игры в шахматы, и даже если программа для игры в шахматы непрерывно улучшается с помощью укрепляющего обучения, программа для игры в шахматы никогда не сможет управлять автономным транспортным средством.
Сосредоточившись на той операции, за которую он отвечает, системы ИУИ не способны использовать обобщенное обучение, чтобы захватить мир. Это хорошая новость; плохая новость заключается в том, что из-за своей зависимости от человеческого оператора система ИИ подвержена предвзятому данным, человеческой ошибке или даже хуже, злонамеренному человеческому оператору.
Наблюдение за ИИ
Возможно, нет большего опасности для человечества, чем люди, использующие ИИ для вторжения в частную жизнь, и в некоторых случаях использование ИИ-наблюдения для полного предотвращения свободного перемещения людей. Китай, Россия и другие страны приняли законы во время COVID-19, чтобы позволить им контролировать и управлять движением своих соответствующих популяций. Это законы, которые, как только они приняты, трудно отменить, особенно в обществах, которые имеют авторитарных лидеров.
В Китае камеры установлены снаружи домов людей, и в некоторых случаях внутри дома. Каждый раз, когда член семьи покидает дом, ИИ отслеживает время прибытия и отъезда, и если необходимо, оповещает власти. Как если бы этого было недостаточно, с помощью технологии распознавания лиц Китай может отслеживать движение каждого человека каждый раз, когда он идентифицируется камерой. Это дает абсолютную власть сущности, контролирующей ИИ, и абсолютно нет возможности для его граждан.
Почему этот сценарий опасен, заключается в том, что коррумпированные правительства могут тщательно отслеживать движения журналистов, политических оппонентов или любого, кто осмелится поставить под сомнение власть правительства. Легко понять, как журналисты и граждане будут осторожны в критике правительств, когда каждое их движение отслеживается.
К счастью, есть многие города, которые борются с предотвращением проникновения технологии распознавания лиц в свои города. Заметно, что Портленд, Орегон недавно принял закон, который блокирует использование технологии распознавания лиц в городе без необходимости. Хотя эти изменения в регулировании могут остаться незамеченными для широкой общественности, в будущем эти регулирования могут стать разницей между городами, которые предлагают некоторый тип автономии и свободы, и городами, которые кажутся угнетающими.
Автономное оружие и беспилотники
Более 4500 исследователей ИИ призывают к запрету на автономное оружие и создали сайт Ban Lethal Autonomous Weapons. Группа имеет многих известных некоммерческих организаций в качестве подписчиков, таких как Human Rights Watch, Amnesty International и The Future of Life Institute, который сам по себе имеет отличный научный консультативный совет, включая Илона Маска, Ника Бострома и Стюарта Рассела.
Прежде чем продолжить, я поделюсь этой цитатой из The Future of Life Institute, которая лучше всего объясняет, почему есть веская причина для беспокойства: “В отличие от полуавтономных военных систем, которые требуют человеческого надзора для обеспечения того, что каждая цель проверена как этически и законно обоснованная, такие полностью автономные военные системы выбирают и поражают цели без человеческого вмешательства, представляя собой полную автоматизацию смертельного вреда.”
В настоящее время умные бомбы развертываются с целью, выбранной человеком, и бомба затем использует ИИ для составления курса и приземления на свою цель. Проблема заключается в том, что происходит, когда мы решаем полностью удалить человека из уравнения?
Когда ИИ выбирает, какие люди нужно нацеливать, а также какой тип побочного ущерба считается приемлемым, мы можем перейти точку невозврата. Это почему так много исследователей ИИ выступают против исследования чего-либо, что связано с автономным оружием.
Есть несколько проблем с попыткой просто заблокировать исследования автономного оружия. Первая проблема заключается в том, что даже если передовые страны, такие как Канада, США и большинство Европы, решат согласиться с запретом, это не означает, что страны-изгои, такие как Китай, Северная Корея, Иран и Россия, будут играть по правилам. Вторая и более серьезная проблема заключается в том, что исследования и применения ИИ, предназначенные для использования в одной области, могут быть использованы в совершенно другой области.
Например, компьютерное зрение непрерывно улучшается и важно для разработки автономных транспортных средств, точной медицины и других важных случаев использования. Оно также фундаментально важно для обычных беспилотников или беспилотников, которые могут быть изменены для того, чтобы стать автономными. Один из потенциальных случаев использования передовой технологии беспилотников – разработка беспилотников, которые могут контролировать и бороться с лесными пожарами. Это полностью удалит пожарных из зоны опасности. Чтобы сделать это, вам нужно построить беспилотники, которые могут летать в зону опасности, ориентироваться в условиях низкой или нулевой видимости и с точностью сбрасывать воду. Это не слишком большая проблема, чтобы затем использовать эту идентичную технологию в автономном беспилотнике, предназначенном для селективного нацеливания на людей.
Это опасное положение, и на данный момент никто полностью не понимает последствий продвижения или попытки блокировать разработку автономного оружия. Тем не менее, это что-то, на чем нам нужно держать глаза, и усиление защиты информаторов может позволить тем, кто работает в этой области, сообщать о злоупотреблениях.
Злонамеренный оператор в стороне, что происходит, если предвзятость ИИ проникает в технологию ИИ, предназначенную для автономного оружия?
Предвзятость ИИ
Одной из самых нерассказанных угроз ИИ является предвзятость ИИ. Это легко понять, поскольку большая часть этого непреднамеренна. Предвзятость ИИ проникает, когда ИИ рассматривает данные, которые люди подают ему, используя распознавание образов из данных, которые были поданы ИИ, ИИ неправильно приходит к выводам, которые могут иметь негативные последствия для общества. Например, ИИ, который получает литературу из прошлого века о том, как определить медицинский персонал, может прийти к нежелательному сексистскому выводу, что женщины всегда медсестры, а мужчины всегда врачи.
Более опасный сценарий – когда ИИ, используемый для вынесения приговоров осужденным преступникам, предвзят в сторону вынесения более длительных тюремных сроков для меньшинств. Алгоритмы оценки уголовного риска ИИ просто изучают закономерности в данных, которые были поданы в систему. Эти данные показывают, что исторически определенные меньшинства более склонны к рецидиву, даже когда это связано с плохими наборами данных, которые могут быть подвержены влиянию полицейского расового профилирования. Предвзятый ИИ затем укрепляет негативные человеческие политики. Это почему ИИ должен быть руководством, никогда не судьей и присяжным.
Возвращаясь к автономному оружию, если у нас есть ИИ, который предвзят против определенных этнических групп, он может выбрать нацеливание на определенных людей на основе предвзятых данных, и он может пойти так далеко, что обеспечит, чтобы любой тип побочного ущерба повлиял на определенные демографические группы меньше, чем на другие. Например, когда нацеливание на террориста, прежде чем атаковать, он может подождать, пока террорист не окажется окруженным людьми, которые следуют исламской вере, а не христианами.
К счастью, было доказано, что ИИ, разработанный разнообразными командами, менее склонен к предвзятости. Это достаточно веской причины для предприятий попытаться, когда это возможно, нанять разнообразную и всестороннюю команду.
Угрозы искусственного общего интеллекта
Следует отметить, что, хотя ИИ развивается с экспоненциальной скоростью, мы еще не достигли ИОИ. Когда мы достигнем ИОИ, является предметом дискуссии, и у каждого есть разный ответ о сроке. Я лично подписываюсь под взглядами Рэя Курцвейла, изобретателя, футуролога и автора “Сингулярность уже близко”, который считает, что мы достигнем ИОИ к 2029 году.
ИОИ будет самой трансформационной технологией в мире. В течение нескольких недель после того, как ИИ достигнет человеческого уровня интеллекта, он затем достигнет сверхинтеллекта, который определяется как интеллект, который далеко превосходит интеллект человека.
С этим уровнем интеллекта ИОИ может быстро поглотить все человеческие знания и использовать распознавание образов, чтобы определить биомаркеры, которые вызывают проблемы со здоровьем, и затем лечить эти состояния, используя данные науки. Он может создать наноботы, которые входят в кровоток, чтобы нацеливаться на раковые клетки или другие атакующие векторы. Список достижений, которых способен ИОИ, бесконечен. Мы ранее исследовали некоторые из преимуществ ИОИ.
Проблема заключается в том, что люди могут больше не быть в состоянии контролировать ИИ. Илон Маск описывает это так: “С искусственным интеллектом мы вызываем демона”. Будем ли мы в состоянии контролировать этого демона, является вопросом?
Достижение ИОИ может просто быть невозможно, пока ИИ не покинет симуляционную среду, чтобы по-настоящему взаимодействовать в нашем открытом мире. Самосознание не может быть разработано, вместо этого считается, что эмерджентное сознание может эволюционировать, когда ИИ имеет роботизированное тело с несколькими входными потоками. Эти входы могут включать тактильную стимуляцию, распознавание голоса с улучшенным пониманием естественного языка и компьютерное зрение.
Передовой ИИ может быть запрограммирован с альтруистическими мотивами и хочет спасти планету. К сожалению, ИИ может использовать науку о данных или даже дерево решений, чтобы прийти к нежелательной ошибочной логике, такой как оценка того, что необходимо стерилизовать людей или уничтожить часть населения, чтобы контролировать человеческую перенаселенность.
Осторожное рассмотрение и обдумывание должны быть исследованы при создании ИИ с интеллектом, который далеко превосходит интеллект человека. Было много кошмарных сценариев, которые были исследованы.
Профессор Ник Бостром в аргументе Paperclip Maximizer утверждал, что неправильно настроенный ИОИ, если он получит инструкцию производить скрепки, просто потребует все ресурсы Земли, чтобы произвести эти скрепки. Хотя это кажется немного нереальным, более прагматичная точка зрения заключается в том, что ИОИ может быть контролируемым злонамеренным государством или корпорацией с плохими этиками. Эта сущность может обучить ИОИ максимизировать прибыль, и в этом случае с плохой программой и нулевым раскаянием он может выбрать банкротство конкурентов, уничтожение цепочек поставок, взлом фондового рынка, ликвидацию банковских счетов или нападение на политических оппонентов.
Это когда нам нужно помнить, что люди склонны антропоморфизировать. Мы не можем дать ИИ человеческие эмоции, желания или желания. Хотя есть диаболические люди, которые убивают для удовольствия, нет причины полагать, что ИИ будет подвержен такому поведению. Непонятно для людей даже рассматривать, как ИИ будет смотреть на мир.
Вместо этого нам нужно научить ИИ всегда быть деферентным к человеку. ИИ всегда должен иметь человеческое подтверждение любых изменений в настройках, и всегда должна быть механизм безопасности. Снова же, было утверждено, что ИИ просто реплицирует себя в облаке, и к тому времени, когда мы осознаем, что он самосознает, может быть слишком поздно.
Это почему так важно открыть исходный код как можно больше ИИ и иметь рациональные обсуждения по этим вопросам.
Резюме
Есть много проблем, связанных с ИИ, к счастью, у нас еще много лет, чтобы коллективно выяснить, какой путь мы хотим, чтобы ИОИ прошел. Мы должны сосредоточиться на создании разнообразной рабочей силы ИИ, которая включает в себя столько же женщин, сколько и мужчин, и столько же этнических групп с разнообразными точками зрения, сколько возможно.
Мы также должны создать защиту информаторов для исследователей, которые работают над ИИ, и мы должны принять законы и регулирования, которые предотвращают широкое злоупотребление государственным или компанией-широким наблюдением. Люди имеют уникальную возможность улучшить человеческое состояние с помощью ИИ, мы просто должны обеспечить, чтобы мы тщательно создали социальную основу, которая лучше всего позволяет положительным моментам, а также смягчает негативные моменты, включая угрозы существованию.










