стуб Објашњивост може да реши проблем АИ сваке индустрије: недостатак транспарентности - Уните.АИ
Повежите се са нама

Вође мисли

Објашњивост може да реши проблем вештачке интелигенције сваке индустрије: недостатак транспарентности

mm

објављен

 on

Би: Мигуел Јетте, потпредсједник говора за истраживање и развој, рев.

У својим почетним фазама, АИ је можда могла да почива на ловорикама новости. Било је у реду да машинско учење учи полако и одржава непрозиран процес у који просечном потрошачу није могуће продрети прорачун вештачке интелигенције. То се мења. Како све више индустрија као што су здравство, финансије и систем кривичног правосуђа почињу да користе вештачку интелигенцију на начине који могу имати стварни утицај на животе људи, све више људи жели да зна како се алгоритми користе, како се подаци добијају и само колико су тачне његове могућности. Ако компаније желе да остану на челу иновација на својим тржиштима, морају се ослонити на вештачку интелигенцију којој ће њихова публика веровати. Објашњивост вештачке интелигенције је кључни састојак за продубљивање тог односа.

Објашњивост АИ разликује се од стандардних АИ процедура јер нуди људима начин да разумеју како алгоритми машинског учења стварају излаз. Објашњива АИ је систем који људима може пружити потенцијалне резултате недостаци. То је систем машинског учења који може да испуни саму људску жељу за правичношћу, одговорношћу и поштовањем приватности. Објашњива АИ је императив за предузећа да изграде поверење код потрошача.

Док се АИ шири, добављачи вештачке интелигенције морају да схвате да црна кутија не може. Модели црне кутије се креирају директно из података и често чак ни програмер који је креирао алгоритам не може да идентификује шта је подстакло научене навике машине. Али савестан потрошач не жели да се бави нечим тако непробојним да не може бити одговоран. Људи желе да знају како АИ алгоритам долази до одређеног резултата без мистерије изворног улаза и контролисаног излаза, посебно када су погрешне процене АИ често последица пристрасности машина. Како вештачка интелигенција постаје све напреднија, људи желе приступ процесу машинског учења да би разумели како је алгоритам дошао до свог специфичног резултата. Лидери у свакој индустрији морају да схвате да људи пре или касније више неће преферирати овај приступ, већ ће га захтевати као неопходан ниво транспарентности.

АСР системи као што су помоћници са гласовним могућностима, технологија транскрипције и друге услуге које претварају људски говор у текст су посебно мучени предрасудама. Када се услуга користи за мере безбедности, грешке због акцента, старости или порекла особе могу бити озбиљне грешке, тако да се проблем мора схватити озбиљно. АСР се може ефикасно користити у полицијским телесним камерама, на пример, за аутоматско снимање и транскрибовање интеракција — вођење евиденције која би, ако се тачно транскрибује, могла спасити животе. Пракса објашњивости ће захтевати да се АИ не ослања само на купљене скупове података, већ да настоји да разуме карактеристике долазног звука који могу допринети грешкама ако постоје. Шта је акустични профил? Има ли буке у позадини? Да ли је говорник из земље која није прва на енглеском или из генерације која користи речник који вештачка интелигенција још није научила? Машинско учење треба да буде проактивно у бржем учењу и може почети прикупљањем података који могу да адресирају ове варијабле.

Неопходност постаје очигледна, али пут до примене ове методологије неће увек имати лако решење. Традиционални одговор на проблем је додавање више података, али ће бити неопходно софистицираније решење, посебно када су купљени скупови података које многе компаније користе инхерентно пристрасни. То је зато што је историјски гледано било тешко објаснити одређену одлуку коју је донела АИ, а то је због природе сложености модела од краја до краја. Међутим, сада можемо, и можемо почети тако што ћемо питати како су људи уопште изгубили поверење у АИ.

Неизбежно, АИ ће правити грешке. Компаније треба да изграде моделе који су свесни потенцијалних недостатака, идентификују када и где се проблеми дешавају и креирају стална решења за изградњу јачих АИ модела:

  1. Када нешто крене наопако, програмери ће морати да објасне шта се догодило и развити хитан план за побољшање модела за смањење будућих сличних грешака.
  2. Да би машина заиста знала да ли је била исправна или не, научници морају креирајте повратну петљу тако да АИ може да научи своје недостатке и да се развија.
  3. Други начин да АСР изгради поверење док се АИ још увек побољшава је да створити систем који може да обезбеди резултате поверења, и понудити разлоге зашто је АИ мање самоуверена. На пример, компаније обично генеришу резултате од нула до 100 да би одражавале несавршености сопствене вештачке интелигенције и успоставиле транспарентност са својим клијентима. У будућности, системи могу пружити пост-хоц објашњења зашто је звук био изазован нудећи више метаподатака о звуку, као што је перципирани ниво буке или мање разумљив акценат.

Додатна транспарентност ће резултирати бољим људским надзором над обуком и перформансама АИ. Што смо више отворени у вези са тим где треба да се побољшамо, то смо одговорнији за предузимање акција у вези са тим побољшањима. На пример, истраживач може желети да зна зашто је погрешан текст исписан како би могао да ублажи проблем, док транскрипциониста може желети доказе о томе зашто је АСР погрешно протумачио унос како би им помогао у процени његове валидности. Држање људи у току може ублажити неке од најочигледнијих проблема који настају када АИ остане непроверен. Такође може да убрза време потребно да АИ ухвати своје грешке, побољша и на крају се исправи у реалном времену.

АИ има способности да побољша животе људи, али само ако је људи изграде да би правилно производили. Морамо да сматрамо одговорним не само ове системе, већ и људе који стоје иза иновације. Од АИ система будућности се очекује да се придржавају принципа које су поставили људи, а само до тада ћемо имати систем у који људи верују. Време је да поставимо темеље и тежимо тим принципима сада док су на крају још увек људи који служе себи.

Мигуел Јетте је шеф одељења за истраживање и развој вештачке интелигенције у рев, платформа за транскрипцију говора у текст која комбинује АИ са вештим људима. Он предводи тим одговоран за развој најтачније светске АИ платформе за претварање говора у текст. Страствен у решавању сложених проблема уз побољшање живота, он је посвећен повећању инклузије и једнакости кроз технологију. Више од две деценије радио је на имплементацији гласовних технологија са компанијама укључујући Нуанце Цоммуницатионс и ВоицеБок. Магистрирао је математику и статистику на Универзитету МцГилл у Монтреалу. Када не унапређује комуникацију путем вештачке интелигенције, он своје време проводи као фотограф за такмичења у пењању.