peň Vysvetliteľnosť môže vyriešiť problém AI každého odvetvia: Nedostatočná transparentnosť – Unite.AI
Spojte sa s nami

Myšlienkoví vodcovia

Vysvetliteľnosť môže vyriešiť problém AI každého odvetvia: Nedostatok transparentnosti

mm

uverejnené

 on

Od: Migüel Jetté, viceprezident pre R&D Speech, otáčka.

Vo svojich počiatočných fázach mohla AI zaspať na vavrínoch novosti. Bolo v poriadku, že sa strojové učenie učilo pomaly a udržiavalo nepriehľadný proces, do ktorého priemerný spotrebiteľ nemôže preniknúť do výpočtu AI. To sa mení. Keďže stále viac odvetví, ako je zdravotníctvo, financie a systém trestného súdnictva, začína využívať AI spôsobmi, ktoré môžu mať skutočný vplyv na životy ľudí, stále viac ľudí chce vedieť, ako sa používajú algoritmy, ako sa získavajú údaje a aké presné sú jeho schopnosti. Ak chcú spoločnosti zostať v popredí inovácií na svojich trhoch, musia sa spoľahnúť na AI, ktorej bude ich publikum dôverovať. Vysvetliteľnosť AI je kľúčovou zložkou na prehĺbenie tohto vzťahu.

Vysvetliteľnosť AI sa líši od štandardných postupov AI, pretože ľuďom ponúka spôsob, ako pochopiť, ako algoritmy strojového učenia vytvárajú výstup. Vysvetliteľná AI je systém, ktorý môže ľuďom poskytnúť potenciálne výsledky a nedostatky. Je to systém strojového učenia, ktorý dokáže naplniť túžbu človeka po spravodlivosti, zodpovednosti a rešpektovaní súkromia. Vysvetliteľná AI je nevyhnutná pre podniky, aby si vybudovali dôveru u spotrebiteľov.

Zatiaľ čo sa AI rozširuje, poskytovatelia AI musia pochopiť, že čierna skrinka nemôže. Modely čiernej skrinky sa vytvárajú priamo z údajov a často ani vývojár, ktorý algoritmus vytvoril, nedokáže identifikovať, čo poháňalo naučené návyky stroja. Ale svedomitý spotrebiteľ sa nechce zaoberať niečím tak nepreniknuteľným, že to nemožno brať na zodpovednosť. Ľudia chcú vedieť, ako algoritmus AI dospeje ku konkrétnemu výsledku bez tajomstva zdrojového vstupu a riadeného výstupu, najmä ak sú nesprávne výpočty AI často spôsobené strojovými odchýlkami. Ako sa AI stáva pokročilejšou, ľudia chcú mať prístup k procesu strojového učenia, aby pochopili, ako algoritmus dospel ku konkrétnemu výsledku. Lídri v každom odvetví musia pochopiť, že skôr či neskôr ľudia už nebudú preferovať tento prístup, ale budú ho vyžadovať ako nevyhnutnú úroveň transparentnosti.

Špeciálne sú systémy ASR, ako sú asistenti s podporou hlasu, technológia prepisu a ďalšie služby, ktoré premieňajú ľudskú reč na text sužovaný predsudkami. Keď sa služba používa na bezpečnostné opatrenia, chyby spôsobené prízvukom, vekom alebo pôvodom osoby môžu byť vážnymi chybami, takže problém treba brať vážne. ASR možno efektívne použiť napríklad v policajných telesných kamerách na automatické zaznamenávanie a prepisovanie interakcií – uchovávanie záznamov, ktoré by pri presnom prepise mohli zachrániť životy. Prax vysvetlenia si bude vyžadovať, aby sa AI nespoliehala len na zakúpené súbory údajov, ale aby sa snažila pochopiť vlastnosti prichádzajúceho zvuku, ktoré by mohli prispieť k chybám, ak nejaké existujú. Aký je akustický profil? Je v pozadí hluk? Pochádza hovorca z krajiny, ktorá nie je prvou angličtinou, alebo z generácie, ktorá používa slovnú zásobu, ktorú sa AI ešte nenaučila? Strojové učenie musí byť proaktívne pri rýchlejšom učení a môže začať zhromažďovaním údajov, ktoré môžu riešiť tieto premenné.

Nevyhnutnosť sa stáva zrejmou, ale cesta k implementácii tejto metodiky nebude mať vždy jednoduché riešenie. Tradičnou odpoveďou na problém je pridať viac údajov, ale bude potrebné sofistikovanejšie riešenie, najmä ak sú zakúpené súbory údajov, ktoré mnohé spoločnosti používajú, zo svojej podstaty neobjektívne. Je to preto, že historicky bolo ťažké vysvetliť konkrétne rozhodnutie, ktoré urobila AI, a to kvôli povahe zložitosti modelov typu end-to-end. Teraz však môžeme a môžeme začať otázkou, ako ľudia vôbec stratili dôveru v AI.

AI bude nevyhnutne robiť chyby. Spoločnosti musia vytvárať modely, ktoré sú si vedomé potenciálnych nedostatkov, identifikovať, kedy a kde sa problémy vyskytujú, a vytvárať trvalé riešenia na vytváranie silnejších modelov AI:

  1. Keď sa niečo pokazí, vývojári budú musieť vysvetliť, čo sa stalo a vypracovať okamžitý plán na zlepšenie modelu, aby sa znížili budúce, podobné chyby.
  2. Aby stroj skutočne vedel, či to bolo správne alebo nesprávne, vedci to potrebujú vytvoriť spätnú väzbu aby sa AI mohla naučiť svoje nedostatky a rozvíjať sa.
  3. Ďalším spôsobom, ako si ASR vybudovať dôveru, kým sa AI stále zlepšuje, je vytvoriť systém, ktorý môže poskytnúť skóre spoľahlivostia ponúkajú dôvody, prečo je AI menej sebavedomá. Spoločnosti napríklad zvyčajne generujú skóre od nuly do 100, aby odzrkadľovali nedokonalosti ich vlastnej AI a zabezpečili transparentnosť voči svojim zákazníkom. V budúcnosti môžu systémy poskytnúť post-hoc vysvetlenia, prečo bol zvuk náročný, tým, že ponúknu viac metadát o zvuku, ako je vnímaná hladina hluku alebo menej pochopený prízvuk.

Dodatočná transparentnosť povedie k lepšiemu ľudskému dohľadu nad výcvikom a výkonom AI. Čím otvorenejšie budeme hovoriť o tom, kde sa musíme zlepšiť, tým zodpovednejšie budeme konať v súvislosti s týmito zlepšeniami. Napríklad výskumník môže chcieť vedieť, prečo bol na výstupe chybný text, aby mohol problém zmierniť, zatiaľ čo prepisovateľ môže chcieť dôkaz o tom, prečo ASR nesprávne interpretoval vstup, aby mu pomohol s hodnotením jeho platnosti. Udržiavanie ľudí v obraze môže zmierniť niektoré z najzreteľnejších problémov, ktoré vznikajú, keď je AI nekontrolovaná. Môže tiež urýchliť čas potrebný na to, aby AI zachytila ​​svoje chyby, zlepšila sa a prípadne sa opravila v reálnom čase.

Umelá inteligencia má schopnosti zlepšiť životy ľudí, ale iba vtedy, ak ju ľudia vytvoria tak, aby produkovala správne. Musíme brať na zodpovednosť nielen tieto systémy, ale aj ľudí, ktorí za inováciou stoja. Očakáva sa, že systémy AI budúcnosti budú dodržiavať princípy stanovené ľuďmi a iba dovtedy budeme mať systém, ktorému ľudia dôverujú. Je čas položiť základy a usilovať sa o tieto princípy teraz, zatiaľ čo v konečnom dôsledku stále slúžia ľudia nám.

Miguel Jetté je vedúcim výskumu a vývoja AI otáčka, platforma na prepis reči do textu, ktorá kombinuje AI so skúsenými ľuďmi. Vedie tím zodpovedný za vývoj celosvetovo najpresnejšej platformy umelej inteligencie na prevod reči na text. Je nadšený riešením zložitých problémov a zároveň zlepšovaním životov a venuje sa zvyšovaniu budovania inklúzie a rovnosti prostredníctvom technológií. Za viac ako dve desaťročia pracoval na implementácii hlasových technológií so spoločnosťami vrátane Nuance Communications a VoiceBox. Magisterský titul z matematiky a štatistiky získal na McGill University v Montreale. Keď nenapreduje v komunikácii cez AI, trávi čas ako fotograf súťaží v horolezectve.