stub Paaiškinimas gali išspręsti kiekvienos pramonės AI problemą: skaidrumo stoka – Unite.AI
Susisiekti su mumis

Minties lyderiai

Paaiškinimas gali išspręsti kiekvienos pramonės AI problemą: skaidrumo stoka

mm

paskelbta

 on

Autorius: Migüel Jetté, MTTP kalbos viceprezidentas, rev.

Besikuriant AI galėjo ilsėtis ant naujovės laurų. Buvo gerai, kad mašininis mokymasis mokosi lėtai ir palaiko neskaidrų procesą, kai paprastas vartotojas negali įsiskverbti į AI skaičiavimus. Tai keičiasi. Kadangi vis daugiau pramonės šakų, pvz., sveikatos priežiūros, finansų ir baudžiamojo teisingumo sistemos, pradeda naudoti AI būdus, kurie gali turėti realų poveikį žmonių gyvenimui, vis daugiau žmonių nori žinoti, kaip naudojami algoritmai, kaip gaunami duomenys ir tiesiog kiek tikslios yra jo galimybės. Jei įmonės nori išlikti inovacijų priešakyje savo rinkose, jos turi pasikliauti dirbtiniu intelektu, kuriuo pasitikės jų auditorija. AI paaiškinamumas yra pagrindinis komponentas, norint pagilinti šiuos santykius.

AI paaiškinamumas skiriasi nuo standartinių AI procedūrų, nes suteikia žmonėms būdą suprasti, kaip mašininio mokymosi algoritmai sukuria išvestį. Paaiškinamas AI yra sistema, galinti žmonėms suteikti galimų rezultatų ir trūkumus. Tai mašininio mokymosi sistema, galinti patenkinti patį žmogiškąjį sąžiningumo, atskaitingumo ir pagarbos privatumui troškimą. Paaiškinamas dirbtinis intelektas yra būtinas, kad įmonės galėtų sukurti vartotojų pasitikėjimą.

Kol AI plečiasi, AI teikėjai turi suprasti, kad juodoji dėžė negali. Juodosios dėžės modeliai kuriami tiesiogiai iš duomenų ir dažnai net algoritmą sukūręs kūrėjas negali nustatyti, kas paskatino mašinos išmoktus įpročius. Tačiau sąžiningas vartotojas nenori užsiimti kažkuo tokiu neįveikiamu, kad negali būti laikomas atsakingu. Žmonės nori žinoti, kaip dirbtinio intelekto algoritmas pasiekia konkretų rezultatą be šaltinio įvesties ir kontroliuojamos išvesties paslapties, ypač kai AI klaidingi skaičiavimai dažnai atsiranda dėl mašinos paklaidų. Kai dirbtinis intelektas tampa vis tobulesnis, žmonės nori prieiti prie mašininio mokymosi proceso, kad suprastų, kaip algoritmas pasiekė konkretų rezultatą. Kiekvienos pramonės šakos lyderiai turi suprasti, kad anksčiau ar vėliau žmonės nebenorės šios prieigos, bet reikalaus jos kaip būtino skaidrumo lygio.

ASR sistemos, tokios kaip asistentai su balsu, transkripcijos technologija ir kitos paslaugos, kurios žmogaus kalbą paverčia tekstu, yra ypač svarbios. kamuojami šališkumo. Kai paslauga naudojama saugos priemonėms, klaidos dėl akcentų, žmogaus amžiaus ar kilmės gali būti rimtos klaidos, todėl į problemą reikia žiūrėti rimtai. ASR gali būti veiksmingai naudojamas policijos kūno kamerose, pavyzdžiui, norint automatiškai įrašyti ir perrašyti sąveikas – išsaugomas įrašas, kuris, jei būtų tiksliai perrašytas, galėtų išgelbėti gyvybes. Paaiškinamumo praktika reikalauja, kad dirbtinis intelektas nesiremtų tik įsigytais duomenų rinkiniais, bet siektų suprasti gaunamo garso ypatybes, kurios gali prisidėti prie klaidų, jei tokių yra. Kas yra akustinis profilis? Ar fone yra triukšmo? Ar kalbėtojas iš šalies, kurioje nėra anglų kalbos, arba iš kartos, kuri vartoja žodyną, AI dar neišmoko? Mašininis mokymasis turi būti aktyvus, kad būtų galima greičiau mokytis, o pradėti rinkti duomenis, galinčius spręsti šiuos kintamuosius.

Būtinybė tampa akivaizdi, tačiau kelias į šios metodikos diegimą ne visada turės lengvą sprendimą. Tradicinis problemos sprendimas yra pridėti daugiau duomenų, tačiau reikės sudėtingesnio sprendimo, ypač kai įsigyjami duomenų rinkiniai, kuriuos naudoja daugelis įmonių, iš prigimties yra šališki. Taip yra todėl, kad istoriškai buvo sunku paaiškinti konkretų AI priimtą sprendimą, ir taip yra dėl galutinių modelių sudėtingumo. Tačiau dabar galime ir galime pradėti klausdami, kaip žmonės prarado pasitikėjimą dirbtiniu intelektu.

AI neišvengiamai padarys klaidų. Įmonės turi kurti modelius, kurie žinotų apie galimus trūkumus, nustatytų, kada ir kur kyla problemos, ir kurti nuolatinius sprendimus, kad sukurtų stipresnius AI modelius:

  1. Kai kas nors negerai, kūrėjai turės paaiškinti, kas atsitiko ir parengti neatidėliotiną planą modelio tobulinimas, siekiant sumažinti būsimų panašių klaidų skaičių.
  2. Kad mašina iš tikrųjų žinotų, ar ji buvo teisinga, ar neteisinga, mokslininkai turi tai padaryti sukurti grįžtamojo ryšio kilpą kad dirbtinis intelektas sužinotų apie savo trūkumus ir vystytųsi.
  3. Kitas ASR būdas sukurti pasitikėjimą, kol dirbtinis intelektas vis dar tobulėja, yra sukurti sistemą, kuri galėtų pateikti pasitikėjimo balus, ir pateikite priežastis, kodėl dirbtinis intelektas yra mažiau pasitikintis. Pavyzdžiui, įmonės paprastai generuoja balus nuo nulio iki 100, kad atspindėtų jų pačių AI trūkumus ir užtikrintų skaidrumą savo klientams. Ateityje sistemos gali pateikti post-hoc paaiškinimus, kodėl garsas buvo sudėtingas, pateikdamos daugiau metaduomenų apie garsą, pvz., suvokiamą triukšmo lygį arba mažiau suprantamą akcentą.

Dėl papildomo skaidrumo žmogus galės geriau prižiūrėti dirbtinio intelekto mokymą ir veiklą. Kuo atviresni, kur turime tobulėti, tuo atsakingiau imsimės veiksmų dėl šių patobulinimų. Pavyzdžiui, tyrėjas gali norėti sužinoti, kodėl buvo išvestas klaidingas tekstas, kad galėtų sušvelninti problemą, o transkripcijos specialistas gali norėti įrodymų, kodėl ASR neteisingai interpretavo įvestį, kad padėtų įvertinti jo pagrįstumą. Žmonių nepaisymas gali sušvelninti kai kurias akivaizdžiausias problemas, kylančias, kai dirbtinis intelektas nekontroliuojamas. Tai taip pat gali pagreitinti laiką, reikalingą AI pastebėti savo klaidas, patobulinti ir galiausiai ištaisyti save realiuoju laiku.

Dirbtinis intelektas gali pagerinti žmonių gyvenimą, tačiau tik tuo atveju, jei žmonės jį sukurs, kad galėtų tinkamai gaminti. Turime atsakyti ne tik už šias sistemas, bet ir už naujovių diegimo žmones. Tikimasi, kad ateities AI sistemos laikysis žmonių nustatytų principų ir tik iki tol turėsime sistemą, kuria žmonės pasitikės. Atėjo laikas dėti pamatus ir siekti šių principų dabar, kol galiausiai žmonės vis dar tarnauja sau.

Miguelis Jette yra AI R&D vadovas rev, kalbos transkripcijos į tekstą platforma, sujungianti AI su kvalifikuotais žmonėmis. Jis vadovauja komandai, atsakingai už tiksliausios pasaulyje kalbos į tekstą AI platformos kūrimą. Aistringai sprendžiant sudėtingas problemas ir gerinant gyvenimą, jis yra pasišventęs didinti įtrauktį ir lygybę pasitelkdamas technologijas. Daugiau nei du dešimtmečius jis dirbo diegdamas balso technologijas su tokiomis įmonėmis kaip „Nuance Communications“ ir „VoiceBox“. McGill universitete Monrealyje įgijo matematikos ir statistikos magistro laipsnį. Kai nevykdo komunikacijos per AI, jis leidžia laiką kaip fotografas laipiojimo uolomis varžybose.