Anslut dig till vårt nätverk!

Artificiell intelligens

Deep Learning System lär sig bättre när det distraheras

Uppdaterad on

Datavetare från Nederländerna och Spanien har bestämt hur en djupinlärningssystem lär sig bättre när det distraheras. Den artificiella intelligensen (AI) är inriktad på bildigenkänning och kan lära sig känna igen sin omgivning. Teamet kunde förenkla inlärningsprocessen efter att ha tvingat systemet att fokusera på sekundära egenskaper.

Konventionella nervnätverk

Systemet för djupinlärning bygger på konvolutionella neurala nätverk (CNN), som är en form av djupinlärning för AI-system. 

Estefanía Talavera Martinez är föreläsare och forskare vid Bernoulli Institute for Mathematics, Computer Science and Artificial Intelligence vid University of Groningen i Nederländerna.

"Dessa CNN är framgångsrika, men vi förstår inte helt hur de fungerar", säger Talavera Martinez.

Talavera Martinez har använt CNN för att analysera bilder som kommer från bärbara kameror samtidigt som de studerar mänskligt beteende. En del av hennes arbete har kretsat kring att studera mänsklig interaktion med mat, så hon satte sig för att få systemet att känna igen de olika miljöer där människor möter mat.

"Jag märkte att systemet gjorde fel i klassificeringen av vissa bilder och behövde veta varför detta hände", sa hon.

Hon använde värmekartor och analyserade vilka delar av bilderna som användes av CNN för att identifiera miljön.

"Detta ledde till hypotesen att systemet inte tittade på tillräckligt med detaljer," sa hon.

Ett exempel som gavs var ett AI-system som lärde sig att använda muggar för att identifiera ett kök. I det här exemplet kunde AI felaktigt klassificera områden som vardagsrum och kontor, som också ofta har muggar.

Talavera Martinez och hennes team började sedan utveckla en lösning. Bland hennes kollegor fanns David Morales och Beatriz Remeseiro, båda i Spanien. Den föreslagna lösningen var att distrahera systemet från deras primära mål.

Utveckla lösningen

Teamet tränade CNN med en standardbilduppsättning av flygplan eller bilar, och de identifierade vilka delar av bilderna som användes för klassificering genom värmekartor. Dessa delar av bilderna blev sedan suddiga i bilduppsättningen, och bilduppsättningen användes för en andra träningsomgång. 

"Detta tvingar systemet att leta någon annanstans efter identifierare. Och genom att använda denna extra information blir den mer finkornig i sin klassificering, säger Talavera Martinez.

Det nya systemet fungerade bra i standardbilduppsättningarna och var framgångsrikt i bilder som samlats in från bärbara kameror. 

"Vår träningsregim ger oss resultat som liknar andra metoder, men är mycket enklare och kräver mindre datortid", säger hon.

Tidigare försök att öka den finkorniga klassificeringen har fokuserat på kombinationen av olika uppsättningar av CNN, men det nyutvecklade tillvägagångssättet är mycket mer lättviktigt.

"Denna studie gav oss en bättre uppfattning om hur dessa CNN:er lär sig, och det har hjälpt oss att förbättra träningsprogrammet," sa Talavera Martinez.

Alex McFarland är en AI-journalist och författare som utforskar den senaste utvecklingen inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.