peň Bežné predpoklady o poruchách strojového učenia môžu byť nesprávne – Unite.AI
Spojte sa s nami

Umelá inteligencia

Bežné predpoklady o poruchách strojového učenia môžu byť nesprávne

Aktualizované on

Hlboké neurónové siete sú jedným z najzákladnejších aspektov umelej inteligencie (AI), pretože sa používajú na spracovanie obrázkov a údajov prostredníctvom matematického modelovania. Sú zodpovedné za niektoré z najväčších pokrokov v tejto oblasti, ale tiež rôznymi spôsobmi nefungujú. Tieto poruchy môžu mať buď malý až žiadny vplyv, ako je jednoduchá nesprávna identifikácia, až po dramatickejší a smrteľnejší, ako je porucha pri samojazde.

Nový výskum vychádzajúci z University of Houston naznačuje, že naše spoločné predpoklady o týchto poruchách môžu byť nesprávne, čo by mohlo pomôcť vyhodnotiť spoľahlivosť sietí v budúcnosti.

Príspevok vyšiel v r Nature Machine Intelligence v novembri.

„Príklady nepriateľov“

Strojové učenie a iné typy AI sú kľúčové v mnohých sektoroch a úlohách, ako sú napríklad bankové systémy a systémy kybernetickej bezpečnosti. Podľa Camerona Bucknera, docenta filozofie na UH, musí existovať pochopenie pre zlyhania spôsobené „príkladmi protivníka“. Tieto protichodné príklady sa vyskytujú, keď systém hlbokej neurónovej siete nesprávne posúdi obrázky a iné údaje, keď narazí na informácie mimo tréningových vstupov, ktoré boli použité na vývoj siete.

Protichodné príklady sú zriedkavé, pretože ich mnohokrát vytvorila alebo objavila iná sieť strojového učenia.

"Niektoré z týchto protichodných udalostí môžu byť namiesto toho artefakty a my musíme lepšie vedieť, čo to je, aby sme vedeli, aké spoľahlivé sú tieto siete," napísal Buckner.

Buckner hovorí, že porucha môže byť spôsobená interakciou medzi skutočnými vzormi a tým, čo sa sieť chystá spracovať, čo znamená, že nejde o úplnú chybu.

Vzory ako artefakty

"Pochopenie dôsledkov protichodných príkladov si vyžaduje preskúmanie tretej možnosti: že aspoň niektoré z týchto vzorov sú artefakty," povedal Buckner. "V súčasnosti sú teda náklady spojené s jednoduchým odvrhnutím týchto vzorov a nebezpečenstvom pri ich naivnom používaní."

Aj keď to tak nie je vždy, úmyselné pochybenie je najvyšším rizikom, pokiaľ ide o tieto nepriaznivé udalosti spôsobujúce poruchy strojového učenia.

"Znamená to, že zlomyseľní aktéri by mohli oklamať systémy, ktoré sa spoliehajú na inak spoľahlivú sieť," povedal Buckner. "To má bezpečnostné aplikácie."

Môže ísť o hackerov, ktorí narušia bezpečnostný systém založený na technológii rozpoznávania tváre, alebo nesprávne označené dopravné značky, aby zmiatli autonómne vozidlá.

Iný predchádzajúci výskum ukázal, že niektoré z protichodných príkladov sa prirodzene vyskytujú, keď systém strojového učenia nesprávne interpretuje údaje prostredníctvom neočakávanej interakcie, ktorá je iná ako prostredníctvom chýb v údajoch. Tieto prirodzene sa vyskytujúce príklady sú zriedkavé a jediný súčasný spôsob, ako ich objaviť, je prostredníctvom AI.

Buckner však hovorí, že výskumníci musia prehodnotiť spôsoby, akými riešia anomálie.

Tieto anomálie alebo artefakty vysvetľuje Buckner prostredníctvom analógie s odleskom objektívu na fotografii, ktorý nie je spôsobený poruchou šošovky fotoaparátu, ale skôr interakciou svetla s fotoaparátom.

Ak niekto vie, ako interpretovať flair šošovky, môžu sa extrahovať dôležité informácie, ako je umiestnenie slnka. Z tohto dôvodu si Buckner myslí, že je možné získať rovnako cenné informácie z nepriaznivých udalostí v strojovom učení, ktoré sú spôsobené artefaktom.

Buckner tiež hovorí, že toto všetko automaticky neznamená, že hlboké vzdelávanie nie je platné.

"Niektoré z týchto protichodných udalostí môžu byť artefakty," povedal. "Musíme vedieť, aké sú tieto artefakty, aby sme vedeli, aké spoľahlivé sú siete."

Alex McFarland je novinár a spisovateľ AI, ktorý skúma najnovší vývoj v oblasti umelej inteligencie. Spolupracoval s množstvom AI startupov a publikácií po celom svete.