csonk A megmagyarázhatóság minden iparág mesterséges intelligencia-problémáját megoldhatja: az átláthatóság hiánya – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

A megmagyarázhatóság minden iparág mesterséges intelligencia-problémáját megoldhatja: az átláthatóság hiánya

mm

Közzététel:

 on

By: Migüel Jetté, a K+F beszédért felelős alelnöke, Fordulat.

Az AI kialakulóban lévő szakaszában megpihenhetett az újdonságok babérjain. Rendben volt, ha a gépi tanulás lassan tanult, és fenntart egy átláthatatlan folyamatot, ahol az AI számításaiba az átlagfogyasztó nem képes behatolni. Ez változik. Ahogy egyre több iparág, például az egészségügy, a pénzügy és a büntető igazságszolgáltatás kezdi kihasználni az AI-t oly módon, amely valós hatással lehet az emberek életére, egyre többen szeretnék tudni, hogyan használják az algoritmusokat, hogyan szerzik be az adatokat, és mennyire pontosak a képességei. Ha a vállalatok piacaikon az innováció élvonalában akarnak maradni, akkor a közönségükben megbízott mesterséges intelligenciára kell hagyatkozniuk. Az AI megmagyarázhatósága a kulcsfontosságú összetevő e kapcsolat elmélyítéséhez.

A mesterséges intelligencia magyarázhatósága eltér a szabványos mesterségesintelligencia-eljárásoktól, mivel lehetővé teszi az emberek számára, hogy megértsék, hogyan hoznak létre kimenetet a gépi tanulási algoritmusok. Az magyarázható mesterséges intelligencia egy olyan rendszer, amely potenciális eredményeket tud nyújtani az embereknek és a hiányosságait. Ez egy gépi tanulási rendszer, amely képes teljesíteni a méltányosság, az elszámoltathatóság és a magánélet tiszteletben tartása iránti emberi vágyat. A megmagyarázható mesterséges intelligencia elengedhetetlen a vállalkozások számára ahhoz, hogy bizalmat építsenek ki a fogyasztókkal.

Miközben a mesterséges intelligencia terjeszkedik, az AI-szolgáltatóknak meg kell érteniük, hogy a fekete doboz nem képes. A fekete doboz modellek közvetlenül az adatokból jönnek létre, és gyakran még az algoritmust létrehozó fejlesztő sem tudja azonosítani, hogy mi vezérelte a gép megtanult szokásait. De a lelkiismeretes fogyasztó nem akar olyasmivel foglalkozni, ami annyira áthatolhatatlan, hogy nem vonható felelősségre. Az emberek tudni akarják, hogyan jut el egy mesterséges intelligencia-algoritmus egy adott eredményhez a forrásból származó bemenet és a szabályozott kimenet rejtélye nélkül, különösen akkor, ha az AI hibás számításai gyakran a gép torzításából fakadnak. Ahogy a mesterséges intelligencia egyre fejlettebbé válik, az emberek hozzá akarnak férni a gépi tanulási folyamathoz, hogy megértsék, hogyan jutott az algoritmus a konkrét eredményre. Minden iparág vezetőinek meg kell érteniük, hogy előbb-utóbb az emberek már nem ezt a hozzáférést részesítik előnyben, hanem az átláthatóság szükséges szintjét követelik meg.

Az ASR-rendszerek, például a hangalapú asszisztensek, az átírási technológia és más szolgáltatások, amelyek az emberi beszédet szöveggé alakítják, különösen fontosak. elfogultságok gyötrik. Amikor a szolgáltatást biztonsági intézkedésekre használják, az ékezetekből, az ember életkorából vagy származásából adódó hibák súlyos hibák lehetnek, ezért a problémát komolyan kell venni. Az ASR hatékonyan használható a rendőrségi testkamerákban, például az interakciók automatikus rögzítésére és átírására – olyan nyilvántartást vezetve, amely pontos átírása esetén életeket menthet. A magyarázhatóság gyakorlata megköveteli, hogy a mesterséges intelligencia ne csak a megvásárolt adatkészletekre támaszkodjon, hanem a bejövő hang jellemzőit is próbálja megérteni, amelyek hozzájárulhatnak a hibákhoz, ha vannak ilyenek. Mi az akusztikus profil? Zaj van a háttérben? A beszélő egy nem angol nyelvű országból vagy egy olyan generációból származik, amely olyan szókincset használ, amelyet az AI még nem tanult meg? A gépi tanulásnak proaktívnak kell lennie a gyorsabb tanulásban, és kezdődhet olyan adatok gyűjtésével, amelyek képesek kezelni ezeket a változókat.

Ennek szükségessége egyre nyilvánvalóbb, de a módszertan megvalósításához vezető út nem mindig lesz könnyű megoldás. A probléma hagyományos megoldása több adat hozzáadása, de kifinomultabb megoldásra lesz szükség, különösen akkor, ha a sok vállalat által használt megvásárolt adatkészletek eredendően elfogultak. Ennek az az oka, hogy történelmileg nehéz volt megmagyarázni egy adott döntést, amelyet az AI hozott, és ez a végpontok közötti modellek összetettségének természetéből adódik. Most azonban megtehetjük, és kezdhetjük azzal, hogy megkérdezzük, hogyan veszítették el az emberek a mesterséges intelligencia iránti bizalmat.

A mesterséges intelligencia elkerülhetetlenül követ el hibákat. A vállalatoknak olyan modelleket kell építeniük, amelyek tudatában vannak a lehetséges hiányosságoknak, azonosítják, mikor és hol fordulnak elő a problémák, és folyamatos megoldásokat kell kidolgozniuk az erősebb mesterségesintelligencia-modellek felépítéséhez:

  1. Ha valami elromlik, a fejlesztőknek el kell magyarázniuk, mi történt, és azonnali tervet dolgozzon ki a modell fejlesztésére a jövőbeni hasonló hibák csökkentése érdekében.
  2. Ahhoz, hogy a gép valóban tudja, hogy helyes volt-e vagy rossz, a tudósoknak szükségük van rá visszacsatolási hurkot hozzon létre hogy az AI megtanulja hiányosságait és fejlődjön.
  3. Az ASR másik módja annak, hogy bizalmat építsen, miközben az AI még javul hozzon létre egy olyan rendszert, amely képes megbízhatósági pontszámokat adni, és indokolja meg, miért kevésbé magabiztos a mesterséges intelligencia. Például a vállalatok általában nulla és 100 közötti pontszámot generálnak, hogy tükrözzék saját mesterséges intelligencia tökéletlenségeit, és átláthatóságot teremtsenek ügyfeleik számára. A jövőben a rendszerek utólagos magyarázatot adhatnak arra, hogy miért jelentett kihívást a hang, ha több metaadatot kínálnak a hangról, például az észlelt zajszintet vagy a kevésbé érthető akcentust.

A további átláthatóság jobb emberi felügyeletet eredményez a mesterséges intelligencia képzése és teljesítménye felett. Minél nyitottabbak vagyunk azzal kapcsolatban, hogy hol kell fejlődnünk, annál inkább elszámoltathatóbbak vagyunk a fejlesztések terén. Például egy kutató tudni akarja, hogy miért adtak ki hibás szöveget, hogy enyhíteni tudják a problémát, míg egy átírónak bizonyítékra van szüksége arra vonatkozóan, hogy az ASR miért értelmezte félre a bemenetet, hogy segítsen értékelni annak érvényességét. Az emberek körben tartása enyhítheti a legnyilvánvalóbb problémákat, amelyek akkor merülnek fel, ha a mesterséges intelligencia nem ellenőrzött. Azt is felgyorsíthatja, hogy az AI valós időben észlelje, javítsa és végül korrigálja magát.

A mesterséges intelligencia képes javítani az emberek életét, de csak akkor, ha az emberek megépítik a megfelelő termeléshez. Nemcsak ezeket a rendszereket kell felelősségre vonnunk, hanem az innováció mögött álló embereket is. A jövő mesterséges intelligencia rendszereitől elvárják, hogy betartsák az emberek által megfogalmazott elveket, és csak addig lesz olyan rendszerünk, amelyben az emberek megbíznak. Itt az ideje, hogy lerakjuk az alapokat, és törekedjünk ezekre az elvekre, miközben végső soron még mindig az emberek szolgálják magunkat.

Miguel Jetté az AI K+F vezetője Fordulat, egy beszédből szöveggé transzkripciós platform, amely a mesterséges intelligenciát szakképzett emberekkel kombinálja. Ő vezeti a világ legpontosabb beszéd-szöveg AI-platformjának fejlesztéséért felelős csapatot. Szenvedélyesen oldja meg az összetett problémákat, miközben javítja az életet, ezért elkötelezett a befogadás és az egyenlőség technológiával történő növelése iránt. Több mint két évtizede hangtechnológiák bevezetésén dolgozott olyan vállalatokkal, mint a Nuance Communications és a VoiceBox. A montreali McGill Egyetemen szerzett matematika és statisztika mesterfokozatot. Amikor nem fejleszti a kommunikációt az MI-n keresztül, sziklamászó versenyeken fotósként tölti az idejét.