cung Shpjegueshmëria mund të adresojë problemin e çdo industrie të AI: Mungesa e transparencës - Unite.AI
Lidhu me ne

Udhëheqësit e mendimit

Shpjegueshmëria mund të adresojë problemin e çdo industrie të inteligjencës artificiale: Mungesa e transparencës

mm

Publikuar

 on

Nga: Migüel Jetté, VP i Fjalimit për R&D, i jap supërxhiro.

Në fazat e saj të lindjes, AI mund të ketë qenë në gjendje të mbështetet në dafinat e risisë. Ishte në rregull që mësimi i makinerisë të mësonte ngadalë dhe të ruante një proces të errët ku llogaritja e AI është e pamundur për konsumatorin mesatar të depërtojë. Kjo po ndryshon. Ndërsa më shumë industri si kujdesi shëndetësor, financa dhe sistemi i drejtësisë penale fillojnë të përdorin AI në mënyra që mund të kenë ndikim real në jetën e njerëzve, më shumë njerëz duan të dinë se si përdoren algoritmet, si burimohen të dhënat dhe thjesht sa të sakta janë aftësitë e tij. Nëse kompanitë duan të qëndrojnë në ballë të inovacionit në tregjet e tyre, ato duhet të mbështeten në AI që audienca e tyre do t'i besojë. Shpjegueshmëria e AI është përbërësi kryesor për të thelluar këtë marrëdhënie.

Shpjegueshmëria e AI ndryshon nga procedurat standarde të AI sepse u ofron njerëzve një mënyrë për të kuptuar se si algoritmet e mësimit të makinerive krijojnë rezultate. AI i shpjegueshëm është një sistem që mund t'u sigurojë njerëzve rezultate të mundshme mangësitë. Është një sistem mësimi i makinerive që mund të përmbushë dëshirën njerëzore për drejtësi, llogaridhënie dhe respekt për privatësinë. Inteligjenca artificiale e shpjegueshme është e domosdoshme që bizneset të ndërtojnë besim me konsumatorët.

Ndërsa AI po zgjerohet, ofruesit e AI duhet të kuptojnë se kutia e zezë nuk mundet. Modelet e kutisë së zezë krijohen drejtpërdrejt nga të dhënat dhe shpeshherë as zhvilluesi që krijoi algoritmin nuk mund të identifikojë se çfarë nxiti zakonet e mësuara të makinës. Por konsumatori i ndërgjegjshëm nuk dëshiron të angazhohet me diçka kaq të padepërtueshme saqë nuk mund të mbahet përgjegjës. Njerëzit duan të dinë se si një algoritëm i AI arrin në një rezultat specifik pa misterin e hyrjes me burim dhe daljes së kontrolluar, veçanërisht kur llogaritjet e gabuara të AI janë shpesh për shkak të paragjykimeve të makinës. Ndërsa AI bëhet më i avancuar, njerëzit duan qasje në procesin e mësimit të makinerive për të kuptuar se si algoritmi arriti në rezultatin e tij specifik. Drejtuesit në çdo industri duhet të kuptojnë se herët a vonë, njerëzit nuk do ta preferojnë më këtë akses, por do ta kërkojnë atë si një nivel të domosdoshëm transparence.

Sistemet ASR të tilla si asistentët e aktivizuar me zë, teknologjia e transkriptimit dhe shërbime të tjera që konvertojnë fjalimin e njeriut në tekst janë veçanërisht të rrënuar nga paragjykimet. Kur shërbimi përdoret për masa sigurie, gabimet për shkak të theksit, moshës ose prejardhjes së një personi, mund të jenë gabime të rënda, ndaj problemi duhet marrë seriozisht. ASR mund të përdoret në mënyrë efektive në kamerat e trupit të policisë, për shembull, për të regjistruar dhe transkriptuar automatikisht ndërveprimet - duke mbajtur një regjistrim që, nëse transkriptohet me saktësi, mund të shpëtojë jetë. Praktika e shpjegueshmërisë do të kërkojë që AI të mos mbështetet vetëm në grupet e të dhënave të blera, por të kërkojë të kuptojë karakteristikat e audios në hyrje që mund të kontribuojnë në gabime nëse ekzistojnë. Cili është profili akustik? A ka zhurmë në sfond? A është folësi nga një vend jo anglisht i pari apo nga një brez që përdor një fjalor që AI nuk e ka mësuar ende? Mësimi i makinerisë duhet të jetë proaktiv në të mësuarit më shpejt dhe mund të fillojë duke mbledhur të dhëna që mund të adresojnë këto variabla.

Domosdoshmëria po bëhet e qartë, por rruga drejt zbatimit të kësaj metodologjie nuk do të ketë gjithmonë një zgjidhje të lehtë. Përgjigja tradicionale ndaj problemit është shtimi i më shumë të dhënave, por do të jetë e nevojshme një zgjidhje më e sofistikuar, veçanërisht kur grupet e të dhënave të blera që përdorin shumë kompani janë në thelb të njëanshme. Kjo është për shkak se historikisht, ka qenë e vështirë të shpjegohet një vendim i veçantë që është marrë nga AI dhe kjo është për shkak të natyrës së kompleksitetit të modeleve nga fundi në fund. Megjithatë, ne mundemi tani, dhe mund të fillojmë duke pyetur se si njerëzit humbën besimin në AI në radhë të parë.

Në mënyrë të pashmangshme, AI do të bëjë gabime. Kompanitë duhet të ndërtojnë modele që janë të vetëdijshme për mangësitë e mundshme, të identifikojnë kur dhe ku po ndodhin problemet dhe të krijojnë zgjidhje të vazhdueshme për të ndërtuar modele më të forta të AI:

  1. Kur diçka shkon keq, zhvilluesit do të duhet të shpjegojnë se çfarë ndodhi dhe zhvilloni një plan të menjëhershëm për përmirësimin e modelit për të ulur gabimet e ardhshme, të ngjashme.
  2. Që makina të dijë nëse ishte e drejtë apo e gabuar, shkencëtarët duhet ta bëjnë këtë krijoni një lak reagimi në mënyrë që AI të mësojë të metat e saj dhe të evoluojë.
  3. Një mënyrë tjetër që ASR të krijojë besim ndërsa AI është ende duke u përmirësuar është krijoni një sistem që mund të sigurojë rezultate besimi, dhe ofroni arsye se pse AI është më pak i sigurt. Për shembull, kompanitë zakonisht gjenerojnë rezultate nga zero në 100 për të pasqyruar papërsosmëritë e AI-së së tyre dhe për të vendosur transparencë me klientët e tyre. Në të ardhmen, sistemet mund të ofrojnë shpjegime post-hoc përse audioja ishte sfiduese duke ofruar më shumë meta të dhëna rreth audios, si p.sh. niveli i perceptuar i zhurmës ose një theks më pak i kuptuar.

Transparenca shtesë do të rezultojë në mbikëqyrje më të mirë njerëzore të trajnimit dhe performancës së AI. Sa më shumë të jemi të hapur se ku duhet të përmirësohemi, aq më të përgjegjshëm jemi për të ndërmarrë veprime për këto përmirësime. Për shembull, një studiues mund të dëshirojë të dijë pse është nxjerrë tekst i gabuar në mënyrë që ata të mund ta zbusin problemin, ndërsa një transkriptist mund të kërkojë prova se pse ASR e keqinterpretoi të dhënat për të ndihmuar në vlerësimin e vlefshmërisë së tij. Mbajtja e njerëzve në lak mund të zbusë disa nga problemet më të dukshme që lindin kur AI nuk kontrollohet. Ai gjithashtu mund të përshpejtojë kohën e nevojshme për AI për të kapur gabimet e saj, për të përmirësuar dhe përfundimisht korrigjuar veten në kohë reale.

AI ka aftësitë për të përmirësuar jetën e njerëzve, por vetëm nëse njerëzit e ndërtojnë atë për të prodhuar siç duhet. Ne duhet t'i mbajmë përgjegjës jo vetëm këto sisteme, por edhe njerëzit që qëndrojnë pas inovacionit. Sistemet e AI të së ardhmes pritet t'u përmbahen parimeve të përcaktuara nga njerëzit dhe vetëm deri atëherë do të kemi një sistem që njerëzit besojnë. Është koha për të hedhur bazat dhe për të luftuar për ato parime tani, ndërkohë që në fund të fundit njerëzit ende i shërbejnë vetes.

Miguel Jetté është kreu i AI R&D në i jap supërxhiro, një platformë e transkriptimit të fjalës në tekst që kombinon AI me njerëz të aftë. Ai drejton ekipin përgjegjës për zhvillimin e platformës më të saktë të inteligjencës artificiale të fjalës në tekst në botë. I pasionuar pas zgjidhjes së problemeve komplekse ndërkohë që përmirëson jetën, ai është i përkushtuar ndaj rritjes së përfshirjes së ndërtimit dhe barazisë përmes teknologjisë. Në më shumë se dy dekada ai ka punuar për të zbatuar teknologjitë e zërit me kompani duke përfshirë Nuance Communications dhe VoiceBox. Ai fitoi një master në matematikë dhe statistikë nga Universiteti McGill në Montreal. Kur nuk e avancon komunikimin përmes AI, ai e kalon kohën e tij si fotograf për garat e ngjitjes në shkëmb.