Stumm Erklärbarkeet kann den AI Problem vun all Industrie adresséieren: De Mangel un Transparenz - Unite.AI
Connect mat eis

Gedanke Leaders

Erklärbarkeet kann den AI Problem vun all Industrie adresséieren: De Mangel u Transparenz

mm

publizéiert

 on

duerch: Migüel Jetté, VP of R&D Speech, Rev.

A sengen ufanks Stadien konnt AI vläicht op de Lorbeer vun der Neiheet raschten. Et war okay fir d'Maschinn ze léieren fir lues ze léieren an en opaken Prozess z'erhalen, wou d'Berechnung vun der AI onméiglech ass fir den Duerchschnëttsverbraucher ze penetréieren. Dat ännert sech. Wéi méi Industrien wéi d'Gesondheetsariichtung, d'Finanzen an de kriminellen Justizsystem fänken un d'AI op Weeër ze profitéieren déi e wierklechen Impakt op d'Liewe vun de Leit hunn, méi Leit wëllen wëssen wéi d'Algorithmen benotzt ginn, wéi d'Daten erfonnt ginn, a just wéi genee seng Fäegkeeten sinn. Wann d'Firmen un der Spëtzt vun der Innovatioun an hire Mäert wëllen bleiwen, musse se op AI vertrauen, déi hir Publikum vertrauen. AI Erklärbarkeet ass de Schlësselbestanddeel fir dës Bezéiung ze verdéiwen.

AI Erklärbarkeet ënnerscheet sech vun Standard AI Prozeduren well et de Leit e Wee bitt fir ze verstoen wéi d'Maschinn Léieren Algorithmen Output kreéieren. Erklärbar AI ass e System deen de Leit potenziell Resultater liwwere kann an Mängel. Et ass e Maschinnléieresystem deen de ganz mënschleche Wonsch no Fairness, Rechenschaftspflicht a Respekt fir Privatsphär erfëllen kann. Erklärbar AI ass imperativ fir Geschäfter fir Vertraue mat Konsumenten ze bauen.

Wärend AI sech erweidert, mussen AI Ubidder verstoen datt déi schwaarz Këscht net kann. Black Box Modeller ginn direkt vun den Donnéeën erstallt an dacks kann net emol den Entwéckler deen den Algorithmus erstallt huet identifizéieren wat d'Maschinn geléiert Gewunnechten gedriwwen huet. Awer de gewëssenhafte Konsument wëll net mat eppes engagéieren sou onduerchsiichtlech datt et net verantwortlech gemaach ka ginn. D'Leit wëllen wësse wéi en AI Algorithmus zu engem spezifesche Resultat kënnt ouni d'Geheimnis vu Quelle-Input a kontrolléierter Output, besonnesch wann d'AI-Feelberechnungen dacks wéinst Maschinnbias sinn. Wéi AI méi fortgeschratt gëtt, wëllen d'Leit Zougang zum Maschinnléiereprozess fir ze verstoen wéi den Algorithmus zu sengem spezifesche Resultat koum. Leadere an all Branche musse verstoen datt fréier oder spéider d'Leit dësen Zougang net méi léiwer maachen, awer als néideg Transparenzniveau verlaangen.

ASR Systemer wéi Stëmm-aktivéiert Assistenten, Transkriptiounstechnologie an aner Servicer déi mënschlech Ried an Text konvertéieren si besonnesch vu Biase geplot. Wann de Service fir Sécherheetsmoossname benotzt gëtt, kënne Feeler duerch Akzenter, Alter oder Hannergrond vun enger Persoun grave Feeler sinn, also muss de Problem eescht geholl ginn. ASR kann effektiv a Police-Kierpercams benotzt ginn, zum Beispill, fir automatesch Interaktiounen opzehuelen an ze transkribéieren - e Rekord ze halen, deen, wann se präzis transkriptéiert ass, Liewe retten. D'Praxis vun der Erklärbarkeet erfuerdert datt d'AI net nëmmen op kaafte Datesätz vertrauen, mee probéiert d'Charakteristiken vum erakommen Audio ze verstoen, déi zu Feeler bäidroe kënnen, wann et existéiert. Wat ass den akusteschen Profil? Gëtt et Kaméidi am Hannergrond? Ass de Spriecher aus engem net englesch-éischt Land oder vun enger Generatioun déi e Vokabulär benotzt, deen den AI nach net geléiert huet? Maschinnléiere muss proaktiv sinn fir méi séier ze léieren an et kann ufänken mat Daten ze sammelen déi dës Variablen adresséiere kënnen.

D'Noutwennegkeet gëtt evident, awer de Wee fir dës Methodik ëmzesetzen wäert net ëmmer eng einfach Léisung hunn. Déi traditionell Äntwert op de Problem ass méi Donnéeën ze addéieren, awer eng méi sophistikéiert Léisung wäert néideg sinn, besonnesch wann d'gekaafte Datesets déi vill Firmen benotzen inherent partiell sinn. Dëst ass well et historesch schwéier war eng bestëmmte Entscheedung z'erklären déi vun der AI gemaach gouf an dat ass wéinst der Natur vun der Komplexitéit vun den End-to-End Modeller. Wéi och ëmmer, mir kënnen elo, a mir kënnen ufänken ze froen wéi d'Leit d'Vertrauen an d'AI iwwerhaapt verluer hunn.

Onweigerlech wäert AI Feeler maachen. Firme musse Modeller bauen déi sech vu potenzielle Mängel bewosst sinn, identifizéieren wéini a wou d'Problemer geschéien, a lafend Léisunge kreéieren fir méi staark AI Modeller ze bauen:

  1. Wann eppes falsch geet, mussen d'Entwéckler erkläre wat geschitt ass an entwéckelen en direkten Plang fir de Modell ze verbesseren fir zukünfteg ähnlech Feeler ze reduzéieren.
  2. Fir d'Maschinn tatsächlech ze wëssen ob et richteg oder falsch war, mussen d'Wëssenschaftler eng Feedback Loop erstellen sou datt AI seng Mängel léiere kann an sech entwéckelen.
  3. En anere Wee fir ASR fir Vertrauen ze bauen wärend d'AI nach ëmmer verbessert ass e System erstellen deen Vertrauensscores ubitt, a bitt Grënn firwat d'AI manner zouversiichtlech ass. Zum Beispill generéiere Firmen typesch Partituren vun Null bis 100 fir hir eege AI's Mängel ze reflektéieren an Transparenz mat hire Clienten z'etabléieren. An Zukunft kënne Systemer post-hoc Erklärungen ubidden firwat den Audio Erausfuerderung war andeems se méi Metadaten iwwer den Audio ubidden, sou wéi e gemierkt Geräischerniveau oder e manner verstane Akzent.

Zousätzlech Transparenz wäert zu enger besserer mënschlecher Iwwerwaachung vun AI Training a Leeschtung féieren. Wat mir méi oppe sinn iwwer wou mir musse verbesseren, dest méi verantwortlech si mir fir dës Verbesserungen ze handelen. Zum Beispill, e Fuerscher wëll wësse firwat e falschen Text erausgeet, sou datt se de Problem kënne reduzéieren, während en Transkriptionist Beweiser wëll firwat ASR den Input falsch interpretéiert huet fir mat hirer Bewäertung vu senger Validitéit ze hëllefen. D'Mënschen an der Loop ze halen kann e puer vun den offensichtlechste Probleemer reduzéieren déi entstinn wann AI net kontrolléiert gëtt. Et kann och d'Zäit beschleunegen, déi néideg ass fir AI fir seng Feeler ze fangen, ze verbesseren an sech schlussendlech an Echtzäit ze korrigéieren.

AI huet d'Fäegkeeten d'Liewe vun de Leit ze verbesseren, awer nëmmen wann d'Mënschen et bauen fir richteg ze produzéieren. Mir mussen net nëmmen dës Systemer verantwortlech halen, awer och d'Leit hannert der Innovatioun. AI Systemer vun der Zukunft ginn erwaart un d'Prinzipien ze halen, déi vu Leit festgeluecht goufen, an nëmmen bis dohinner hu mir e System, déi d'Leit vertrauen. Et ass Zäit de Grondlag ze leeën a fir dës Prinzipien elo ze striewen, während et schlussendlech nach ëmmer d'Mënsche sinn déi eis selwer servéieren.

Miguel Jetté ass de Chef vun AI R&D bei Rev, eng Ried-zu-Text Transkriptiounsplattform déi AI mat qualifizéierte Mënschen kombinéiert. Hie féiert d'Team verantwortlech fir d'Entwécklung vun der Welt déi genauste Ried-zu-Text AI Plattform z'entwéckelen. Passionéiert iwwer d'Léisung vu komplexe Probleemer wärend d'Liewe verbessert, hien ass gewidmet fir d'Inklusioun a Gläichheet duerch Technologie ze erhéijen. An iwwer zwee Joerzéngte huet hien geschafft fir Stëmmtechnologien mat Firmen ze implementéieren, dorënner Nuance Communications a VoiceBox. Hien huet e Master vun der Mathematik a Statistik vun der McGill University zu Montreal verdéngt. Wann net d'Kommunikatioun duerch AI fortgeet, verbréngt hien seng Zäit als Fotograf fir Fielskloter Concoursen.