výhonek Společné předpoklady o poruchách strojového učení mohou být chybné – Unite.AI
Spojte se s námi

Umělá inteligence

Společné předpoklady o poruchách strojového učení mohou být chybné

aktualizováno on

Hluboké neuronové sítě jsou jedním z nejzákladnějších aspektů umělé inteligence (AI), protože se používají ke zpracování obrázků a dat prostřednictvím matematického modelování. Jsou zodpovědné za některé z největších pokroků v oboru, ale také různými způsoby selhávají. Tyto poruchy mohou mít buď malý až žádný dopad, jako je jednoduchá chybná identifikace, až po dramatičtější a smrtelnější, jako je porucha samořízení.

Nový výzkum vycházející z University of Houston naznačuje, že naše společné předpoklady o těchto poruchách mohou být chybné, což by mohlo pomoci vyhodnotit spolehlivost sítí v budoucnu.

List vyšel v r Nature Machine Intelligence v listopadu.

"Příklady protivníka"

Strojové učení a další typy umělé inteligence jsou klíčové v mnoha odvětvích a úkolech, jako jsou bankovní systémy a systémy kybernetické bezpečnosti. Podle Camerona Bucknera, docenta filozofie na UH, musí existovat pochopení pro selhání způsobená „příklady protivníka“. Tyto nepříznivé příklady nastávají, když systém hluboké neuronové sítě špatně vyhodnotí obrázky a další data, když narazí na informace mimo trénovací vstupy, které byly použity k vývoji sítě.

Protichůdné příklady jsou vzácné, protože mnohokrát byly vytvořeny nebo objeveny jinou sítí strojového učení.

"Některé z těchto nepřátelských událostí by místo toho mohly být artefakty a my potřebujeme lépe vědět, co to je, abychom věděli, jak spolehlivé tyto sítě jsou," napsal Buckner.

Buckner říká, že porucha může být způsobena interakcí mezi skutečnými vzory a tím, co se síť chystá zpracovat, což znamená, že nejde o úplnou chybu.

Vzory jako artefakty

"Pochopení důsledků protichůdných příkladů vyžaduje prozkoumání třetí možnosti: že alespoň některé z těchto vzorů jsou artefakty," řekl Buckner. "V současné době jsou tedy náklady na prosté odhození těchto vzorů i nebezpečí jejich naivního používání."

I když tomu tak není vždy, úmyslné zneužití představuje nejvyšší riziko, pokud jde o tyto nepříznivé události způsobující poruchy strojového učení.

"Znamená to, že zákeřní aktéři by mohli oklamat systémy, které se spoléhají na jinak spolehlivou síť," řekl Buckner. "To má bezpečnostní aplikace."

Mohou to být hackeři, kteří naruší bezpečnostní systém založený na technologii rozpoznávání obličeje, nebo špatně označené dopravní značky, aby zmátly autonomní vozidla.

Jiný předchozí výzkum ukázal, že některé z protichůdných příkladů se přirozeně vyskytují, když systém strojového učení chybně interpretuje data prostřednictvím neočekávané interakce, která je jiná než prostřednictvím chyb v datech. Tyto přirozeně se vyskytující příklady jsou vzácné a jediným současným způsobem, jak je objevit, je AI.

Buckner však říká, že výzkumníci musí přehodnotit způsoby, jakými řeší anomálie.

Tyto anomálie nebo artefakty vysvětluje Buckner pomocí analogie odlesk objektivu na fotografii, který není způsoben vadou čočky fotoaparátu, ale spíše interakcí světla s fotoaparátem.

Pokud člověk ví, jak interpretovat vkus čočky, lze získat důležité informace, jako je poloha slunce. Z tohoto důvodu si Buckner myslí, že je možné získat stejně cenné informace z nežádoucích událostí ve strojovém učení, které jsou způsobeny artefaktem.

Buckner také říká, že to vše automaticky neznamená, že hluboké učení není platné.

"Některé z těchto nepřátelských událostí mohou být artefakty," řekl. "Musíme vědět, jaké jsou tyto artefakty, abychom mohli vědět, jak spolehlivé jsou sítě."

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.