Connect with us

Kunstig intelligens

Almindelige antagelser om maskinlæringsfejl kan være forkerte

mm

Dybe neurale netværk er en af de mest fundamentale aspekter af kunstig intelligens (AI), da de bruges til at behandle billeder og data gennem matematisk modellering. De er ansvarlige for nogle af de største fremskridt i feltet, men de fejler også på forskellige måder. Disse fejl kan have enten en lille til ikke-existerende indvirkning, såsom en simpel misidentifikation, eller en mere dramatisk og dødelig, såsom en selvstyrende fejl.

Nyt forskning fra University of Houston antyder, at vores almindelige antagelser om disse fejl kan være forkerte, hvilket kan hjælpe med at evaluere pålideligheden af netværket i fremtiden.

Artiklen blev offentliggjort i Nature Machine Intelligence i november.

“Adversarial Eksempler”

Maskinlæring og andre typer af AI er afgørende i mange sektorer og opgaver, såsom bankvæsen og cybersikkerhedssystemer. Ifølge Cameron Buckner, en associeret professor i filosofi ved UH, skal der være en forståelse af fejlene forårsaget af “adversarial eksempler”. Disse adversarial eksempler opstår, når et dybt neuralt netværkssystem misjudger billeder og andre data, når det kommer across information uden for træningsindgangene, der blev brugt til at udvikle netværket.

De adversarial eksempler er sjældne, da de ofte oprettes eller opdages af et andet maskinlæringsnetværk.

“Nogle af disse adversarial begivenheder kunne i stedet være artefakter, og vi skal bedre vide, hvad de er, for at vide, hvor pålidelige disse netværk er,” skrev Buckner.

Buckner siger, at fejlen kan være forårsaget af interaktionen mellem de faktiske mønstre, der er involveret, og hvad netværket søger at behandle, hvilket betyder, at det ikke er en komplet fejl.

Mønstre som Artefakter

“At forstå implikationerne af adversarial eksempler kræver, at vi udforsker en tredje mulighed: at mindst nogle af disse mønstre er artefakter,” sagde Buckner. “Derfor er der i øjeblikket både omkostninger ved at forkaste disse mønstre og farer ved at bruge dem naivt.”

Selv om det ikke er tilfældet hele tiden, er intentionel skade den største risiko i forbindelse med disse adversarial begivenheder, der forårsager maskinlæringsfejl.

“Det betyder, at maliciøse aktører kan narre systemer, der afhænger af et ellers pålideligt netværk,” sagde Buckner. “Det har sikkerhedsapplikationer.”

Dette kan være hackere, der bryder ind i et sikkerhedssystem baseret på ansigtsgenkendelsesteknologi eller mislabeled trafikskilte for at forvirre selvstyrende køretøjer.

Anden tidligere forskning har vist, at nogle af de adversarial eksempler er naturligt forekommende, og de opstår, når et maskinlæringsystem misfortolker data gennem en uventet interaktion, som er forskellig fra fejl i data. Disse naturligt forekommende eksempler er sjældne, og den eneste nuværende måde at opdage dem på er gennem AI.

Men Buckner siger, at forskerne skal omvurdere, hvordan de håndterer anomalier.

Disse anomalier eller artefakter forklarer Buckner gennem analogien med en linseflare i et billede, som ikke skyldes en fejl i kameraobjektivet, men snarere interaktionen mellem lys og kamera.

Hvis man ved, hvordan man skal fortolke linseflaren, kan vigtig information, såsom solens placering, udtrækkes. Fordi af denne grund mener Buckner, at det er muligt at udtrække lige så værdifuld information fra adverse begivenheder i maskinlæring, der skyldes artefakter.

Buckner siger også, at alt dette ikke automatisk betyder, at dyb læring ikke er gyldig.

“Nogle af disse adversarial begivenheder kunne være artefakter,” sagde han. “Vi skal vide, hvad disse artefakter er, så vi kan vide, hvor pålidelige netværket er.”

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.