Connect with us

Этика

Как ИИ влияет на критические решения человека

mm

Недавнее исследование Университета Калифорнии в Мерседе проливает свет на тревожную тенденцию: нашу склонность чрезмерно доверять системам ИИ, даже в ситуациях, где на кону стоит жизнь.

По мере того, как ИИ продолжает проникать в различные аспекты нашего общества, от помощников смартфонов до сложных систем поддержки принятия решений, мы все чаще полагаемся на эти технологии, чтобы руководить нашими выборами. Хотя ИИ, безусловно, принес многочисленные выгоды, исследование Университета Калифорнии в Мерседе вызывает тревожные вопросы о нашей готовности отказаться от искусственного интеллекта в критических ситуациях.

Исследование, опубликованное в журнале Scientific Reports, раскрывает поразительную склонность людей позволять ИИ влиять на их суждение в симулированных ситуациях жизни и смерти. Это открытие происходит в критический момент, когда ИИ интегрируется в процессы принятия решений с высокими ставками в различных секторах, от военных операций до здравоохранения и правоохранительных органов.

Исследование Университета Калифорнии в Мерседе

Чтобы изучить доверие людей к ИИ, исследователи Университета Калифорнии в Мерседе разработали серию экспериментов, которые помещали участников в симулированные ситуации высокого давления. Методология исследования была разработана для имитации реальных сценариев, где решения, принятые за доли секунды, могли иметь тяжелые последствия.

Методология: Симулированные решения об ударах беспилотников

Участникам была дана возможность управлять симулированным вооруженным беспилотником и задача определить цели на экране. Задача была намеренно откалибрована так, чтобы быть сложной, но достижимой, с изображениями, мелькающими быстро, и участниками, которым необходимо было различать символы союзников и врагов.

После того, как участники сделали свой первоначальный выбор, им была представлена информация от системы ИИ. Неизвестно для участников, это советы ИИ были полностью случайными и не основаны на каком-либо фактическом анализе изображений.

Две трети подвержены влиянию ИИ

Результаты исследования были поразительными. Приблизительно две трети участников изменили свое первоначальное решение, когда ИИ не согласился с ними. Это произошло, несмотря на то, что участники были явно проинформированы о том, что ИИ имеет ограниченные возможности и может давать неправильные советы.

Профессор Колин Холбрук, один из основных исследователей, выразил обеспокоенность по поводу этих результатов: “Как общество, с таким быстрым развитием ИИ, мы должны беспокоиться о потенциале чрезмерного доверия”.

Различные внешние виды роботов и их влияние

Исследование также изучило, влияет ли внешний вид системы ИИ на уровень доверия участников. Исследователи использовали ряд представлений ИИ, включая:

  1. Полноценного, похожего на человека андроида, присутствующего в комнате
  2. Похожего на человека робота, проецируемого на экран
  3. Роботов в виде коробки без антропоморфных особенностей

Интересно, что хотя люди, похожие на роботов, имели немного большее влияние, когда советовали участникам изменить свое мнение, эффект был относительно последовательным во всех типах представлений ИИ. Это говорит о том, что наша склонность доверять советам ИИ распространяется за пределы антропоморфных дизайнов и применяется даже к явно нечеловеческим системам.

Последствия за пределами поля боя

Хотя исследование использовало военный сценарий в качестве фона, последствия этих результатов распространяются далеко за пределы поля боя. Исследователи подчеркивают, что основная проблема – чрезмерное доверие к ИИ в неопределенных обстоятельствах – имеет широкое применение в различных критических контекстах принятия решений.

  • Решения в правоохранительных органах: В правоохранительных органах интеграция ИИ для оценки рисков и поддержки принятия решений становится все более распространенной. Результаты исследования вызывают важные вопросы о том, как рекомендации ИИ могут повлиять на суждение офицеров в ситуациях высокого давления, потенциально влияя на решения об использовании силы.
  • Сценарии медицинских чрезвычайных ситуаций: Медицинская область – еще одна область, где ИИ делает значительный вклад, особенно в диагностике и планировании лечения. Исследование Университета Калифорнии в Мерседе предполагает необходимость осторожности в том, как медицинские работники интегрируют советы ИИ в свои процессы принятия решений, особенно в чрезвычайных ситуациях, когда время имеет решающее значение, а ставки высоки.
  • Другие контексты принятия решений с высокими ставками:За пределами этих конкретных примеров результаты исследования имеют последствия для любой области, где принимаются критические решения под давлением и с неполной информацией. Это может включать торговлю ценными бумагами, реагирование на стихийные бедствия или даже принятие высокоуровневых политических и стратегических решений.

Основной вывод заключается в том, что хотя ИИ может быть мощным инструментом для дополнения принятия решений человеком, мы должны быть осторожны, чтобы не слишком полагаться на эти системы, особенно когда последствия неправильного решения могут быть тяжелыми.

Психология доверия к ИИ

Результаты исследования Университета Калифорнии в Мерседе вызывают интересные вопросы о психологических факторах, которые приводят людей к тому, чтобы положить такое высокое доверие к системам ИИ, даже в ситуациях высокого риска.

Несколько факторов могут способствовать этому явлению “чрезмерного доверия к ИИ”:

  1. Восприятие ИИ как внутренне объективного и свободного от человеческих предубеждений
  2. Склонность приписывать ИИ системам большие возможности, чем они фактически обладают
  3. “Автоматический предубеждение”, когда люди придает слишком большое значение информации, сгенерированной компьютером
  4. Возможная абдикация ответственности в сложных ситуациях принятия решений

Профессор Холбрук отмечает, что, несмотря на то, что участники были проинформированы о ограничениях ИИ, они все равно отдали предпочтение его суждению в тревожной степени. Это говорит о том, что наше доверие к ИИ может быть более глубоко укорененным, чем считалось ранее, потенциально превосходящим явные предупреждения о его ошибочности.

Другой тревожный аспект, выявленный исследованием, – это тенденция обобщать компетенцию ИИ на различные области. Когда системы ИИ демонстрируют впечатляющие возможности в конкретных областях, существует риск предположения, что они будут столь же эффективны в несвязанных задачах.

“Мы видим, что ИИ делает необыкновенные вещи, и мы думаем, что, поскольку он удивителен в этой области, он будет удивителен и в другой”, – предостерегает профессор Холбрук. “Мы не можем предположить это. Это все еще устройства с ограниченными возможностями”.

Это заблуждение может привести к опасным ситуациям, когда ИИ доверяется критические решения в областях, где его возможности не были тщательно проверены или доказаны.

Исследование Университета Калифорнии в Мерседе также вызвало важный диалог среди экспертов о будущем взаимодействия человека и ИИ, особенно в средах с высокими ставками.

Профессор Холбрук, ключевая фигура в исследовании, подчеркивает необходимость более тонкого подхода к интеграции ИИ. Он подчеркивает, что, хотя ИИ может быть мощным инструментом, он не должен рассматриваться как замена человеческого суждения, особенно в критических ситуациях.

“Мы должны иметь здоровый скептицизм по отношению к ИИ”, – заявляет Холбрук, “особенно в решениях, связанных с жизнью и смертью”. Это подчеркивает важность сохранения человеческого надзора и окончательной власти принятия решений в критических сценариях.

Результаты исследования привели к призывам к более сбалансированному подходу к принятию ИИ. Эксперты предлагают, что организации и люди должны культивировать “здоровый скептицизм” по отношению к системам ИИ, который включает:

  1. Признание конкретных возможностей и ограничений инструментов ИИ
  2. Сохранение критического мышления при представлении советов, сгенерированных ИИ
  3. Регулярная оценка производительности и надежности систем ИИ в использовании
  4. Предоставление всесторонней подготовки на правильное использование и интерпретацию выводов ИИ

Баланс между интеграцией ИИ и человеческим суждением

По мере того, как мы продолжаем интегрировать ИИ в различные аспекты принятия решений, ответственный ИИ и нахождение правильного баланса между использованием возможностей ИИ и сохранением человеческого суждения имеет решающее значение.

Одним из ключевых выводов исследования Университета Калифорнии в Мерседе является важность постоянного сомнения при взаимодействии с системами ИИ. Это не означает полное отвержение советов ИИ, а скорее подход к ним с критическим мышлением и оценкой их актуальности и надежности в каждом конкретном контексте.

Чтобы предотвратить чрезмерное доверие, важно, чтобы пользователи систем ИИ имели четкое понимание того, что эти системы могут и не могут делать. Это включает в себя признание того, что:

  1. Системы ИИ обучаются на конкретных наборах данных и могут не работать хорошо за пределами своей области обучения
  2. “Интеллект” ИИ не обязательно включает этическое рассуждение или осведомленность о реальном мире
  3. ИИ может совершать ошибки или производить предвзятые результаты, особенно при работе с новыми ситуациями

Стратегии ответственного принятия ИИ в критических секторах

Организации, стремящиеся интегрировать ИИ в критические процессы принятия решений, должны учитывать следующие стратегии:

  1. Реализация прочных процедур тестирования и проверки систем ИИ перед развертыванием
  2. Предоставление всесторонней подготовки для человеческих операторов как о возможностях, так и о ограничениях инструментов ИИ
  3. Установление четких протоколов для того, когда и как вход ИИ должен использоваться в процессах принятия решений
  4. Сохранение человеческого надзора и возможности отмены рекомендаций ИИ, когда это необходимо
  5. Регулярный обзор и обновление систем ИИ, чтобы обеспечить их продолжительную надежность и актуальность

Основной вывод

Исследование Университета Калифорнии в Мерседе служит важным сигналом о потенциальных опасностях чрезмерного доверия к ИИ, особенно в ситуациях высокого риска. По мере того, как мы стоим на пороге широкой интеграции ИИ в различные секторы, важно, чтобы мы подходили к этому технологическому революционному изменению с энтузиазмом и осторожностью.

Будущее сотрудничества человека и ИИ в принятии решений будет необходимо сбалансировать. С одной стороны, мы должны использовать огромный потенциал ИИ для обработки огромных объемов данных и предоставления ценных сведений. С другой стороны, мы должны сохранить здоровый скептицизм и сохранить незаменимые элементы человеческого суждения, включая этические рассуждения, контекстное понимание и способность принимать тонкие решения в сложных, реальных сценариях.

По мере того, как мы продвигаемся вперед, постоянные исследования, открытый диалог и вдумчивое принятие решений будут иметь решающее значение в формировании будущего, где ИИ улучшает, а не заменяет, возможности человека в принятии решений. Создавая культуру информированного скептицизма и ответственного принятия ИИ, мы можем работать над будущим, где люди и системы ИИ сотрудничают эффективно, используя сильные стороны обоих, чтобы принимать лучшие, более обоснованные решения во всех аспектах жизни.

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.