кочан Какво е обясним AI? - Обединете.AI
Свържете се с нас
AI майсторски клас:

AI 101 г

Какво е обясним AI?

Обновено on
Изображение: DeepMind на Unsplash

Тъй като изкуственият интелект (AI) става все по-сложен и широко възприет в обществото, един от най-критичните набори от процеси и методи е обясним (AI), понякога наричан XAI. 

Обяснимият AI може да се дефинира като:

  • Набор от процеси и методи, които помагат на човешките потребители да разберат и да се доверят на резултатите от алгоритмите за машинно обучение. 

Както можете да се досетите, тази обяснимост е изключително важна, тъй като AI алгоритмите поемат контрола върху много сектори, което идва с риск от пристрастия, грешни алгоритми и други проблеми. Чрез постигане на прозрачност с възможност за обяснение, светът може наистина да използва силата на AI. 

Обяснимият AI, както подсказва името, помага да се опише модел на AI, неговото въздействие и потенциални отклонения. Той също така играе роля в характеризирането на точността на модела, справедливостта, прозрачността и резултатите в процесите на вземане на решения, задвижвани от AI. 

Днешните организации, управлявани от ИИ, трябва винаги да приемат обясними процеси на ИИ, за да помогнат за изграждането на доверие и увереност в моделите на ИИ в производството. Обяснимият AI също е от ключово значение, за да станете отговорна компания в днешната среда на AI.

Тъй като днешните AI системи са толкова напреднали, хората обикновено извършват изчислителен процес, за да проследят как алгоритъмът е стигнал до своя резултат. Този процес се превръща в „черна кутия“, което означава, че е невъзможно да се разбере. Когато тези необясними модели са разработени директно от данни, никой не може да разбере какво се случва вътре в тях. 

Като разбират как AI системите работят чрез обясним AI, разработчиците могат да гарантират, че системата работи както трябва. Може също така да помогне да се гарантира, че моделът отговаря на регулаторните стандарти и предоставя възможност моделът да бъде оспорван или променен. 

Изображение: д-р Мат Турек/DARPA

Разлики между AI и XAI

Някои ключови разлики помагат за отделянето на „обикновения“ AI от обяснимия AI, но най-важното е, че XAI прилага специфични техники и методи, които помагат да се гарантира, че всяко решение в процеса на машинно обучение е проследимо и обяснимо. За сравнение, обикновеният AI обикновено достига до резултата си с помощта на ML алгоритъм, но е невъзможно да се разбере напълно как алгоритъмът е стигнал до резултата. В случай на обикновен AI е изключително трудно да се провери точността, което води до загуба на контрол, отчетност и възможност за проверка. 

Предимства на обяснимия AI 

Има много предимства за всяка организация, която иска да приеме обясним ИИ, като например: 

  • По-бързи резултати: Обяснимият AI позволява на организациите систематично да наблюдават и управляват модели за оптимизиране на бизнес резултатите. Възможно е непрекъснато да се оценява и подобрява производителността на модела и да се прецизира развитието на модела.
  • Намаляване на рисковете: Чрез приемането на обясними AI процеси вие гарантирате, че вашите AI модели са обясними и прозрачни. Можете да управлявате регулаторни изисквания, изисквания за съответствие, рискове и други изисквания, като същевременно минимизирате разходите за ръчна проверка. Всичко това също помага за намаляване на риска от непреднамерени пристрастия. 
  • Изградете доверие: Обяснимият AI помага да се установи доверие в производствения AI. AI моделите могат бързо да бъдат пуснати в производство, можете да осигурите интерпретируемост и обяснимост, а процесът на оценка на модела може да бъде опростен и направен по-прозрачен. 

Техники за обясним AI

Има някои XAI техники, които всички организации трябва да вземат предвид и те се състоят от три основни метода: точност на прогнозата, проследимост, и разбиране на решението

Първият от трите метода, точност на прогнозата, е от съществено значение за успешното използване на AI в ежедневните операции. Могат да се извършват симулации и изходът на XAI може да се сравнява с резултатите в набора от данни за обучение, което помага да се определи точността на прогнозата. Една от най-популярните техники за постигане на това се нарича Локални интерпретируеми моделно-агностични обяснения (LIME), техника, която обяснява прогнозирането на класификаторите от алгоритъма за машинно обучение. 

Вторият метод е проследимост, което се постига чрез ограничаване на начина на вземане на решения, както и чрез установяване на по-тесен обхват за правилата и функциите на машинното обучение. Една от най-разпространените техники за проследяване е DeepLIFT или Deep Learning Important FeaTures. DeepLIFT сравнява активирането на всеки неврон с неговия референтен неврон, като същевременно демонстрира проследима връзка между всеки активиран неврон. Показва и зависимостите между тях. 

Третият и последен метод е разбиране на решението, който е фокусиран върху човека, за разлика от другите два метода. Разбирането на решенията включва обучение на организацията, по-специално на екипа, работещ с AI, за да им позволи да разберат как и защо AI взема решения. Този метод е от решаващо значение за установяване на доверие в системата. 

Обясними принципи на ИИ

За да осигури по-добро разбиране на XAI и неговите принципи, Националният институт по стандарти (NIST), който е част от Министерството на търговията на САЩ, предоставя дефиниции за четири принципа на обясним AI: 

  1. Една AI система трябва да предоставя доказателства, подкрепа или мотиви за всеки резултат. 
  2. Една AI система трябва да дава обяснения, които могат да бъдат разбрани от нейните потребители. 
  3. Обяснението трябва точно да отразява процеса, използван от системата, за да достигне до своя резултат. 
  4. Системата с изкуствен интелект трябва да работи само при условията, за които е проектирана, и не трябва да предоставя изход, когато няма достатъчно увереност в резултата. 

Тези принципи могат да бъдат организирани още повече в: 

  • Смислено: За да се постигне принципът на смисленост, потребителят трябва да разбере предоставеното обяснение. Това също може да означава, че в случай на AI алгоритъм, използван от различни типове потребители, може да има няколко обяснения. Например, в случай на самоуправляваща се кола, едно обяснение може да бъде по следния начин: „ИИ категоризира найлоновата торбичка на пътя като камък и следователно предприе действия, за да избегне удара с нея.“ Докато този пример би работил за драйвера, не би бил много полезен за разработчик на AI, който иска да коригира проблема. В този случай разработчикът трябва да разбере защо е имало грешна класификация. 
  • Обяснение Точност: За разлика от точността на изхода, точността на обяснението включва AI алгоритъма, който точно обяснява как е достигнал своя изход. Например, ако алгоритъмът за одобрение на заем обяснява решение въз основа на дохода на заявлението, когато всъщност то се основава на мястото на пребиваване на кандидата, обяснението би било неточно. 
  • Граници на знанията: Границите на знанията на AI могат да бъдат достигнати по два начина и това включва въвеждането извън експертните познания на системата. Например, ако е изградена система за класифициране на видовете птици и й бъде дадена снимка на ябълка, тя трябва да може да обясни, че входът не е птица. Ако системата получи размазана картина, тя трябва да може да докладва, че не може да идентифицира птицата в изображението или алтернативно, че нейната идентификация е с много ниска степен на сигурност. 

Ролята на данните в обяснимия AI

Един от най-важните компоненти на обяснимия ИИ са данните. 

Според Google, по отношение на данните и обяснимия AI, „една AI система се разбира най-добре от основните данни за обучение и процеса на обучение, както и от получения AI модел.“ Това разбиране зависи от способността да се картографира обучен AI модел към точния набор от данни, използван за обучението му, както и способността да се изследват внимателно данните. 

За да се подобри обяснимостта на даден модел, е важно да се обърне внимание на данните за обучение. Екипите трябва да определят произхода на данните, използвани за обучение на алгоритъм, законността и етиката, свързани с тяхното получаване, всички потенциални пристрастия в данните и какво може да се направи, за да се смекчи всяко пристрастие. 

Друг критичен аспект на данните и XAI е, че данните, които не са от значение за системата, трябва да бъдат изключени. За да се постигне това, нерелевантните данни не трябва да се включват в набора за обучение или във входните данни. 

Google препоръча набор от практики за постигане на тълкуемост и отчетност: 

  • Планирайте опциите си, за да преследвате тълкуемостта
  • Отнасяйте се към интерпретируемостта като към основна част от потребителското изживяване
  • Проектирайте модела така, че да бъде интерпретируем
  • Изберете показатели, които да отразяват крайната цел и крайната задача
  • Разберете обучения модел
  • Комуникирайте обяснения на потребителите на модела
  • Извършете много тестове, за да сте сигурни, че AI системата работи по предназначение 

Следвайки тези препоръчани практики, вашата организация може да гарантира, че постига обясним AI, който е ключов за всяка организация, управлявана от AI в днешната среда. 

 

Алекс Макфарланд е AI журналист и писател, изследващ най-новите разработки в областта на изкуствения интелект. Той е сътрудничил с множество стартиращи фирми и публикации в областта на изкуствения интелект по целия свят.