Følg os

Kunstig intelligens

Deep Learning System lærer bedre, når det bliver distraheret

Opdateret on

Dataloger fra Holland og Spanien har fastslået, hvordan en dybt læringssystem lærer bedre, når det bliver distraheret. Den kunstige intelligens (AI) er rettet mod billedgenkendelse og kan lære at genkende sine omgivelser. Holdet var i stand til at forenkle læringsprocessen efter at have tvunget systemet til at fokusere på sekundære karakteristika.

Konvolutional neurale netværk

Deep learning-systemet er afhængig af convolutional neurale netværk (CNN'er), som er en form for deep learning for AI-systemer. 

Estefanía Talavera Martinez er foredragsholder og forsker ved Bernoulli Institute for Mathematics, Computer Science and Artificial Intelligence ved University of Groningen i Holland.

'Disse CNN'er har succes, men vi forstår ikke helt, hvordan de fungerer', siger Talavera Martinez.

Talavera Martinez har brugt CNN'er til at analysere billeder, der kommer fra bærbare kameraer, mens han studerer menneskelig adfærd. Noget af hendes arbejde har drejet sig om at studere menneskets interaktioner med mad, så hun satte sig for at få systemet til at genkende de forskellige indstillinger, hvor folk møder mad.

"Jeg bemærkede, at systemet lavede fejl i klassificeringen af ​​nogle billeder og havde brug for at vide, hvorfor dette skete," sagde hun.

Hun gjorde brug af varmekort og analyserede, hvilke dele af billederne, der blev brugt af CNN'er til at identificere omgivelserne.

"Dette førte til den hypotese, at systemet ikke kiggede på nok detaljer," sagde hun.

Et eksempel var et AI-system, der lærte sig selv at bruge krus til at identificere et køkken. I dette eksempel kunne AI fejlagtigt klassificere områder som stuer og kontorer, som også ofte har krus.

Talavera Martinez og hendes team gik derefter i gang med at udvikle en løsning. Hendes kolleger omfattede David Morales og Beatriz Remeseiro, begge i Spanien. Den foreslåede løsning var at distrahere systemet fra deres primære mål.

Udvikling af løsningen

Holdet trænede CNN'er med et standardbilledsæt af fly eller biler, og de identificerede, hvilke dele af billederne der blev brugt til klassificering gennem varmekort. Disse dele af billederne blev derefter sløret i billedsættet, og billedsættet blev brugt til en anden runde træning. 

"Dette tvinger systemet til at lede andre steder efter identifikatorer. Og ved at bruge denne ekstra information bliver den mere finkornet i sin klassificering,” sagde Talavera Martinez.

Det nye system fungerede godt i standardbilledsættene og var vellykket i billederne indsamlet fra bærbare kameraer. 

"Vores træningsregime giver os resultater, der ligner andre tilgange, men er meget enklere og kræver mindre computertid," siger hun.

Tidligere forsøg på at øge den finkornede klassificering har fokuseret på kombinationen af ​​forskellige sæt CNN'er, men den nyudviklede tilgang er langt mere letvægts.

"Denne undersøgelse gav os en bedre idé om, hvordan disse CNN'er lærer, og det har hjulpet os med at forbedre træningsprogrammet," sagde Talavera Martinez.

Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.