stomp Verklaarbaarheid kan elke industrie se KI-probleem aanspreek: die gebrek aan deursigtigheid - Unite.AI
Verbinding met ons

Gedagte Leiers

Verklaarbaarheid kan elke industrie se KI-probleem aanspreek: die gebrek aan deursigtigheid

mm

Gepubliseer

 on

Deur: Migüel Jetté, VP van R&D-toespraak, Ds.

In sy ontluikende stadiums kon KI dalk op die louere van nuutheid rus. Dit was goed vir masjienleer om stadig te leer en 'n ondeursigtige proses te handhaaf waar die KI se berekening onmoontlik is vir die gemiddelde verbruiker om deur te dring. Dit is besig om te verander. Namate meer nywerhede soos gesondheidsorg, finansies en die strafregstelsel KI begin benut op maniere wat werklike impak op mense se lewens kan hê, wil meer mense weet hoe die algoritmes gebruik word, hoe die data verkry word, en net hoe akkuraat sy vermoëns is. As maatskappye aan die voorpunt van innovasie in hul markte wil bly, moet hulle staatmaak op KI wat hul gehoor sal vertrou. KI verklaarbaarheid is die sleutelbestanddeel om daardie verhouding te verdiep.

KI-verduidelikbaarheid verskil van standaard KI-prosedures omdat dit mense 'n manier bied om te verstaan ​​hoe die masjienleeralgoritmes uitset skep. Verklaarbare KI is 'n stelsel wat mense van potensiële uitkomste kan voorsien en tekortkominge. Dit is 'n masjienleerstelsel wat die baie menslike begeerte na regverdigheid, aanspreeklikheid en respek vir privaatheid kan vervul. Verduidelikbare KI is noodsaaklik vir besighede om vertroue by verbruikers te bou.

Terwyl KI uitbrei, moet KI-verskaffers verstaan ​​dat die swart boks nie kan nie. Black box-modelle word direk vanaf die data geskep en dikwels kan nie eers die ontwikkelaar wat die algoritme geskep het, identifiseer wat die masjien se aangeleerde gewoontes gedryf het nie. Maar die pligsgetroue verbruiker wil nie betrokke raak by iets wat so ondeurdringbaar is dat dit nie verantwoordelik gehou kan word nie. Mense wil weet hoe 'n KI-algoritme by 'n spesifieke resultaat uitkom sonder die raaisel van verkrygde insette en beheerde uitset, veral wanneer KI se verkeerde berekeninge dikwels as gevolg van masjienvooroordele is. Namate KI meer gevorderd word, wil mense toegang hê tot die masjienleerproses om te verstaan ​​hoe die algoritme tot sy spesifieke resultaat gekom het. Leiers in elke bedryf moet verstaan ​​dat mense vroeër of later nie meer hierdie toegang sal verkies nie, maar dit as 'n noodsaaklike vlak van deursigtigheid sal eis.

ASR-stelsels soos stemgeaktiveerde assistente, transkripsietegnologie en ander dienste wat menslike spraak in teks omskakel, is veral geteister deur vooroordele. Wanneer die diens vir veiligheidsmaatreëls gebruik word, kan foute as gevolg van aksent, 'n persoon se ouderdom of agtergrond ernstige foute wees, so die probleem moet ernstig opgeneem word. ASR kan effektief in polisieliggaamskameras gebruik word, byvoorbeeld om interaksies outomaties op te teken en te transkribeer - om rekord te hou wat, indien akkuraat getranskribeer, lewens kan red. Die praktyk van verduidelikbaarheid sal vereis dat die KI nie net op gekoopte datastelle staatmaak nie, maar poog om die kenmerke van die inkomende oudio te verstaan ​​wat kan bydra tot foute indien enige bestaan. Wat is die akoestiese profiel? Is daar geraas in die agtergrond? Is die spreker van 'n nie-Engels-eerste land of van 'n generasie wat 'n woordeskat gebruik wat die KI nog nie geleer het nie? Masjienleer moet proaktief wees om vinniger te leer en dit kan begin deur data in te samel wat hierdie veranderlikes kan aanspreek.

Die noodsaaklikheid word duidelik, maar die pad na die implementering van hierdie metodologie sal nie altyd 'n maklike oplossing hê nie. Die tradisionele antwoord op die probleem is om meer data by te voeg, maar 'n meer gesofistikeerde oplossing sal nodig wees, veral wanneer die gekoopte datastelle wat baie maatskappye gebruik inherent bevooroordeeld is. Dit is omdat dit histories moeilik was om 'n spesifieke besluit wat deur die KI geneem is, te verduidelik en dit is as gevolg van die aard van die kompleksiteit van die end-tot-end-modelle. Ons kan egter nou, en ons kan begin deur te vra hoe mense in die eerste plek vertroue in KI verloor het.

Onvermydelik sal KI foute maak. Maatskappye moet modelle bou wat bewus is van potensiële tekortkominge, identifiseer wanneer en waar die kwessies gebeur, en deurlopende oplossings skep om sterker KI-modelle te bou:

  1. Wanneer iets verkeerd loop, sal ontwikkelaars moet verduidelik wat gebeur het en 'n onmiddellike plan te ontwikkel vir die verbetering van die model om toekomstige soortgelyke foute te verminder.
  2. Vir die masjien om werklik te weet of dit reg of verkeerd was, moet wetenskaplikes dit doen skep 'n terugvoerlus sodat KI sy tekortkominge kan leer en ontwikkel.
  3. Nog 'n manier vir ASR om vertroue te bou terwyl die KI steeds verbeter, is om skep 'n stelsel wat vertroue tellings kan verskaf, en bied redes aan waarom die KI minder selfversekerd is. Byvoorbeeld, maatskappye genereer tipies tellings van nul tot 100 om hul eie KI se onvolmaakthede te weerspieël en deursigtigheid met hul kliënte te bewerkstellig. In die toekoms kan stelsels post-hoc verduidelikings verskaf vir hoekom die oudio uitdagend was deur meer metadata oor die oudio aan te bied, soos waargenome geraasvlak of 'n minder verstaanbare aksent.

Bykomende deursigtigheid sal lei tot beter menslike toesig oor KI-opleiding en -prestasie. Hoe meer ons oop is oor waar ons moet verbeter, hoe meer aanspreeklik is ons om aksie te neem op daardie verbeterings. Byvoorbeeld, 'n navorser wil dalk weet hoekom foutiewe teks uitgevoer is sodat hulle die probleem kan versag, terwyl 'n transkripsie bewys kan hê oor hoekom ASR die insette verkeerd geïnterpreteer het om te help met hul beoordeling van die geldigheid daarvan. Om mense op hoogte te hou, kan sommige van die mees voor die hand liggende probleme versag wat ontstaan ​​wanneer KI nie gekontroleer word nie. Dit kan ook die tyd wat nodig is vir KI om sy foute op te vang, te verbeter en uiteindelik homself in reële tyd te korrigeer.

KI het die vermoë om mense se lewens te verbeter, maar slegs as mense dit bou om behoorlik te produseer. Ons moet nie net hierdie stelsels verantwoordelik hou nie, maar ook die mense agter die innovasie. Daar word van KI-stelsels van die toekoms verwag om te voldoen aan die beginsels wat deur mense uiteengesit word, en slegs tot dan sal ons 'n stelsel hê wat mense vertrou. Dit is tyd om nou die grondslag te lê en na daardie beginsels te streef terwyl dit uiteindelik steeds mense is wat onsself dien.

Miguel Jetté is die hoof van KI R&D by Ds, 'n spraak-tot-teks-transkripsieplatform wat KI met vaardige mense kombineer. Hy lei die span wat verantwoordelik is vir die ontwikkeling van die wêreld se mees akkurate spraak-tot-teks KI-platform. Passievol daaroor om komplekse probleme op te los terwyl hy lewens verbeter, is hy toegewyd daaraan om insluiting en gelykheid deur tegnologie te verhoog. In meer as twee dekades het hy gewerk om stemtegnologieë te implementeer met maatskappye, insluitend Nuance Communications en VoiceBox. Hy het 'n meester in wiskunde en statistiek aan die McGill Universiteit in Montreal verwerf. Wanneer hy nie kommunikasie deur KI bevorder nie, spandeer hy sy tyd as 'n fotograaf vir rotsklimkompetisies.