заглушки Объяснимый ИИ с помощью выразительных логических формул - Unite.AI
Свяжитесь с нами:

Лидеры мысли

Объяснимый ИИ с использованием выразительных логических формул

mm

опубликованный

 on

Бурный рост приложений искусственного интеллекта (ИИ) и машинного обучения проникает практически во все отрасли и сферы жизни.

Но его рост не обходится без иронии. Хотя ИИ существует для упрощения и/или ускорения принятия решений или рабочих процессов, методология для этого часто чрезвычайно сложна. Действительно, некоторые алгоритмы машинного обучения «черного ящика» настолько сложны и многогранны, что не поддаются простому объяснению даже создавшими их учеными-компьютерщиками.

Это может быть довольно проблематично, когда определенные варианты использования — например, в области финансов и медицины — определяются передовым отраслевым опытом или государственными постановлениями, которые требуют прозрачных объяснений внутренней работы решений ИИ. И если эти приложения недостаточно выразительны, чтобы соответствовать требованиям объяснимости, они могут оказаться бесполезными, независимо от их общей эффективности.

Чтобы решить эту загадку, наша команда в Центр прикладных технологий Fidelity (FCAT) — в сотрудничестве с Amazon Quantum Solutions Lab — предложила и внедрила интерпретируемую модель машинного обучения для объяснимого ИИ (XAI), основанную на выразительных логических формулах. Такой подход может включать любой оператор, который можно применять к одной или нескольким логическим переменным, что обеспечивает более высокую выразительность по сравнению с более жесткими подходами, основанными на правилах и деревьях.

Вы можете прочитать полная бумага здесь для получения подробной информации об этом проекте.

Наша гипотеза заключалась в том, что, поскольку модели, такие как деревья решений, могут быть глубокими и трудными для интерпретации, необходимость найти выразительное правило с низкой сложностью, но высокой точностью была неразрешимой проблемой оптимизации, которую необходимо было решить. Кроме того, упростив модель с помощью этого расширенного подхода XAI, мы могли бы получить дополнительные преимущества, такие как выявление предубеждений, которые важны в контексте этичного и ответственного использования ML; а также упрощает обслуживание и улучшение модели.

Мы предложили подход, основанный на выразительных булевых формулах, поскольку они определяют правила с настраиваемой сложностью (или интерпретируемостью), в соответствии с которыми классифицируются входные данные. Такая формула может включать любой оператор, который можно применять к одной или нескольким логическим переменным (таким как And или AtLeast), что обеспечивает более высокую выразительность по сравнению с более жесткими методологиями, основанными на правилах и деревьях.

В этой задаче у нас есть две конкурирующие цели: максимизация производительности алгоритма при минимизации его сложности. Таким образом, вместо типичного подхода применения одного из двух методов оптимизации — объединения нескольких целей в одну или ограничения одной из целей — мы решили включить в нашу формулировку оба. При этом, без потери общности, мы в основном используем сбалансированную точность в качестве нашей всеобъемлющей метрики производительности.

Кроме того, включение таких операторов, как AtLeast, мотивировало нас идеей удовлетворения потребности в интерпретируемых контрольных списках, таких как список медицинских симптомов, указывающих на определенное состояние. Вполне возможно, что решение будет принято с использованием такого перечня симптомов таким образом, что для положительного диагноза должно присутствовать минимальное их количество. Точно так же в финансах банк может принять решение о предоставлении кредита клиенту на основе наличия определенного количества факторов из более широкого списка.

Мы успешно внедрили нашу модель XAI и сравнили ее с некоторыми общедоступными наборами данных по кредитам, поведению клиентов и состоянию здоровья. Мы обнаружили, что наша модель в целом конкурентоспособна с другими известными альтернативами. Мы также обнаружили, что наша модель XAI потенциально может быть оснащена оборудованием специального назначения или квантовыми устройствами для решения задач быстрого целочисленного линейного программирования (ILP) или квадратичной неограниченной двоичной оптимизации (QUBO). Добавление решателей QUBO уменьшает количество итераций, что приводит к ускорению за счет быстрого предложения нелокальных ходов.

Как уже отмечалось, объяснимые модели ИИ, использующие логические формулы, могут иметь множество применений в здравоохранении и в области финансов Fidelity (например, для оценки кредитоспособности или для оценки того, почему одни клиенты могли выбрать продукт, а другие нет). Создавая эти интерпретируемые правила, мы можем достичь более высокого уровня понимания, что может привести к будущим улучшениям в разработке или усовершенствовании продукта, а также к оптимизации маркетинговых кампаний.

Основываясь на наших выводах, мы определили, что объяснимый ИИ, использующий выразительные логические формулы, уместен и желателен для тех случаев использования, которые требуют дополнительной объяснимости. Кроме того, поскольку квантовые вычисления продолжают развиваться, мы предвидим возможность получить потенциальное ускорение, используя их и другие аппаратные ускорители специального назначения.

Будущая работа может быть сосредоточена на применении этих классификаторов к другим наборам данных, введении новых операторов или применении этих концепций в других случаях использования.

Элтон Чжу — специалист по квантовым исследованиям в Центр прикладных технологий Fidelity (FCAT), подразделение Fidelity Investments, которое является катализатором прорывных достижений в области исследований и технологий. Доктор Чжу, широко заинтересованный в пересечении квантовых вычислений, финансов и искусственного интеллекта, возглавляет исследование Fidelity о том, как квантовые вычисления могут применяться в самых разных случаях использования.