výhonek Vysvětlitelnost může vyřešit problém AI každého odvětví: Nedostatek transparentnosti - Unite.AI
Spojte se s námi

Myšlenkové vůdce

Vysvětlitelnost může vyřešit problém AI každého odvětví: Nedostatek transparentnosti

mm

Zveřejněno

 on

Od: Migüel Jetté, viceprezident pro R&D Speech, Rev.

Umělá inteligence mohla ve svých zrodu usnout na vavřínech novosti. Bylo v pořádku, že se strojové učení učilo pomalu a udržovalo neprůhledný proces, kam průměrný spotřebitel nemůže proniknout do výpočtu AI. To se mění. Vzhledem k tomu, že stále více odvětví, jako je zdravotnictví, finance a systém trestního soudnictví, začíná využívat umělou inteligenci způsoby, které mohou mít skutečný dopad na životy lidí, stále více lidí chce vědět, jak se používají algoritmy, jak se získávají data a jak přesné jsou jeho schopnosti. Pokud chtějí společnosti zůstat v popředí inovací na svých trzích, musí se spolehnout na umělou inteligenci, které bude jejich publikum věřit. Vysvětlitelnost AI je klíčovou složkou k prohloubení tohoto vztahu.

Vysvětlitelnost AI se liší od standardních postupů AI, protože lidem nabízí způsob, jak pochopit, jak algoritmy strojového učení vytvářejí výstup. Explainable AI je systém, který může lidem poskytnout potenciální výsledky a nedostatky. Je to systém strojového učení, který dokáže naplnit samotnou lidskou touhu po spravedlnosti, odpovědnosti a respektu k soukromí. Vysvětlitelná umělá inteligence je pro podniky nezbytností, aby si vybudovaly důvěru u spotřebitelů.

Zatímco se AI rozšiřuje, poskytovatelé AI musí pochopit, že černá skříňka nemůže. Modely černé skříňky jsou vytvářeny přímo z dat a často ani vývojář, který algoritmus vytvořil, nedokáže identifikovat, co způsobilo naučené návyky stroje. Ale svědomitý spotřebitel se nechce zapojit do něčeho tak neproniknutelného, ​​že to nemůže být pohnáno k odpovědnosti. Lidé chtějí vědět, jak algoritmus umělé inteligence dospívá ke konkrétnímu výsledku bez záhady zdrojového vstupu a řízeného výstupu, zvláště když jsou chybné výpočty umělé inteligence často způsobeny strojovým zkreslením. Jak se AI stává pokročilejší, lidé chtějí mít přístup k procesu strojového učení, aby pochopili, jak algoritmus dospěl ke svému konkrétnímu výsledku. Lídři v každém odvětví musí pochopit, že dříve nebo později lidé již nebudou tento přístup preferovat, ale budou jej vyžadovat jako nezbytnou úroveň transparentnosti.

Jedná se především o systémy ASR, jako jsou hlasově aktivní asistenti, přepisovací technologie a další služby, které převádějí lidskou řeč na text sužován předsudky. Když se služba používá pro bezpečnostní opatření, chyby způsobené přízvukem, věkem nebo původem osoby mohou být vážnými chybami, takže je třeba problém brát vážně. ASR lze efektivně využít například v policejních kamerách, například k automatickému záznamu a přepisu interakcí – k vedení záznamu, který by, pokud by byl přesně přepsán, mohl zachránit životy. Praxe vysvětlitelnosti bude vyžadovat, aby se AI nespoléhala pouze na zakoupené datové sady, ale snažila se porozumět charakteristikám příchozího zvuku, který by mohl přispívat k chybám, pokud nějaké existují. Jaký je akustický profil? Je v pozadí hluk? Pochází mluvčí z neanglicky první země nebo z generace, která používá slovní zásobu, kterou se AI ještě nenaučila? Strojové učení musí být proaktivní při rychlejším učení a může začít shromažďováním dat, která mohou tyto proměnné řešit.

Nutnost se stává zřejmou, ale cesta k implementaci této metodiky nebude mít vždy jednoduché řešení. Tradiční odpovědí na problém je přidat další data, ale bude nutné sofistikovanější řešení, zvláště když jsou kupované datové sady, které mnoho společností používá, ze své podstaty neobjektivní. Je to proto, že historicky bylo obtížné vysvětlit konkrétní rozhodnutí, které učinila AI, a to je způsobeno povahou složitosti end-to-end modelů. Nyní však můžeme a můžeme začít tím, že se zeptáme, jak lidé vůbec ztratili důvěru v AI.

AI bude nevyhnutelně dělat chyby. Společnosti potřebují vytvářet modely, které si uvědomují potenciální nedostatky, identifikovat, kdy a kde k problémům dochází, a vytvářet průběžná řešení pro vytváření silnějších modelů umělé inteligence:

  1. Když se něco pokazí, vývojáři budou muset vysvětlit, co se stalo a vypracovat okamžitý plán pro vylepšení modelu pro snížení budoucích, podobných chyb.
  2. Aby stroj skutečně věděl, zda to bylo správné nebo špatné, vědci to potřebují vytvořit zpětnou vazbu aby se umělá inteligence mohla naučit své nedostatky a vyvíjet se.
  3. Dalším způsobem, jak si ASR vybudovat důvěru, zatímco se AI stále zlepšuje, je vytvořit systém, který může poskytovat skóre spolehlivostia nabídnout důvody, proč je AI méně sebevědomá. Společnosti například obvykle generují skóre od nuly do 100, aby odrážely jejich vlastní nedokonalosti AI a zajistily transparentnost vůči svým zákazníkům. V budoucnu mohou systémy poskytnout post-hoc vysvětlení, proč byl zvuk náročný, tím, že nabídnou více metadat o zvuku, jako je vnímaná hladina hluku nebo méně srozumitelný přízvuk.

Další transparentnost povede k lepšímu lidskému dohledu nad školením a výkonem AI. Čím otevřenější budeme ohledně toho, kde se musíme zlepšit, tím zodpovědnější jsme k tomu, abychom tato zlepšení přijali. Výzkumník může například chtít vědět, proč byl na výstupu chybný text, aby mohl problém zmírnit, zatímco přepisovatel může chtít důkaz o tom, proč ASR nesprávně interpretoval vstup, aby mu pomohl s posouzením jeho platnosti. Udržování lidí ve smyčce může zmírnit některé z nejzřejmějších problémů, které nastanou, když AI zůstane nekontrolovaná. Může také urychlit čas potřebný k tomu, aby umělá inteligence zachytila ​​své chyby, zlepšila se a případně se opravila v reálném čase.

Umělá inteligence má schopnosti zlepšovat životy lidí, ale pouze pokud ji lidé vybudují tak, aby správně produkovala. Musíme pohnat k odpovědnosti nejen tyto systémy, ale také lidi, kteří za inovací stojí. Očekává se, že systémy AI budoucnosti budou dodržovat zásady stanovené lidmi, a pouze do té doby budeme mít systém, kterému lidé důvěřují. Je čas položit základy a usilovat o tyto principy nyní, zatímco je to nakonec ještě člověk, který nám slouží.

Miguel Jetté je vedoucím výzkumu a vývoje AI ve společnosti Rev, platforma pro přepis řeči na text kombinující umělou inteligenci se zkušenými lidmi. Vede tým zodpovědný za vývoj světově nejpřesnější platformy umělé inteligence pro převod řeči na text. Je zapálený pro řešení složitých problémů a zároveň zlepšuje životy a věnuje se zvyšování inkluze a rovnosti prostřednictvím technologií. Více než dvě desetiletí pracoval na implementaci hlasových technologií se společnostmi včetně Nuance Communications a VoiceBox. Získal magisterský titul z matematiky a statistiky na McGill University v Montrealu. Když nerozvíjí komunikaci prostřednictvím umělé inteligence, tráví čas jako fotograf soutěží ve skalním lezení.