stub Supervised vs Unsupervised Learning - Unite.AI
Anslut dig till vårt nätverk!

AI 101

Övervakad vs oövervakad inlärning

mm
Uppdaterad on

Inom maskininlärning kan de flesta uppgifter enkelt kategoriseras i en av två olika klasser: övervakade inlärningsproblem eller oövervakade inlärningsproblem. Vid övervakat lärande har data etiketter eller klasser bifogade till sig, medan vid oövervakad inlärning är data omärkta. Låt oss ta en närmare titt på varför denna distinktion är viktig och titta på några av de algoritmer som är förknippade med varje typ av lärande.

Övervakad vs oövervakad inlärning

De flesta maskininlärningsuppgifter är inom området övervakat lärande. I övervakade inlärningsalgoritmer har de enskilda instanserna/datapunkterna i datamängden en klass eller etikett tilldelad. Detta innebär att maskininlärningsmodellen kan lära sig att särskilja vilka funktioner som är korrelerade med en given klass och att maskininlärningsingenjören kan kontrollera modellens prestanda genom att se hur många instanser som klassificerats korrekt. Klassificeringsalgoritmer kan användas för att urskilja många komplexa mönster, så länge som data är märkta med rätt klasser. Till exempel kan en maskininlärningsalgoritm lära sig att skilja olika djur från varandra baserat på egenskaper som "morrhår", "svans", "klor" etc.

Till skillnad från handledat lärande, innebär oövervakat lärande att skapa en modell som kan extrahera mönster från omärkta data. Datorn analyserar med andra ord ingångsegenskaperna och bestämmer själv vilka de viktigaste egenskaperna och mönstren är. Oövervakat lärande försöker hitta de inneboende likheterna mellan olika instanser. Om en övervakad inlärningsalgoritm syftar till att placera datapunkter i kända klasser, kommer oövervakade inlärningsalgoritmer att undersöka de funktioner som är gemensamma för objektinstanserna och placera dem i grupper baserat på dessa funktioner, vilket i huvudsak skapar sina egna klasser.

Exempel på övervakade inlärningsalgoritmer är linjär regression, logistisk regression, K-närmaste grannar, beslutsträd och stödvektormaskiner.

Samtidigt är några exempel på oövervakade inlärningsalgoritmer Principal Component Analysis och K-Means Clustering.

Supervised Learning Algoritm

linjär regression är en algoritm som tar två funktioner och ritar ut förhållandet mellan dem. Linjär regression används för att förutsäga numeriska värden i förhållande till andra numeriska variabler. Linjär regression har ekvationen Y = a +bX, där b är linjens lutning och a är där y korsar X-axeln.

Logistisk återgång är en binär klassificeringsalgoritm. Algoritmen undersöker sambandet mellan numeriska egenskaper och hittar sannolikheten för att instansen kan klassificeras i en av två olika klasser. Sannolikhetsvärdena ”pressas” mot antingen 0 eller 1. Med andra ord kommer starka sannolikheter att närma sig 0.99 medan svaga sannolikheter närmar sig 0.

K-närmaste grannar tilldelar en klass till nya datapunkter baserat på de tilldelade klasserna för någon vald mängd grannar i träningsuppsättningen. Antalet grannar som beaktas av algoritmen är viktigt, och för få eller för många grannar kan felklassificera poäng.

Beslutsträd är en typ av klassificerings- och regressionsalgoritm. Ett beslutsträd fungerar genom att dela upp en datauppsättning i mindre och mindre delar tills delmängderna inte kan delas upp längre och resultatet blir ett träd med noder och löv. Noderna är där beslut om datapunkter fattas med hjälp av olika filtreringskriterier, medan bladen är de instanser som har tilldelats någon etikett (en datapunkt som har klassificerats). Beslutsträdsalgoritmer kan hantera både numeriska och kategoriska data. Uppdelningar görs i trädet på specifika variabler/funktioner.

Stöd vektor maskiner är en klassificeringsalgoritm som fungerar genom att rita hyperplan, eller separationslinjer, mellan datapunkter. Datapunkter separeras i klasser baserat på vilken sida av hyperplanet de befinner sig på. Flera hyperplan kan ritas över ett plan och dyka upp en datauppsättning i flera klasser. Klassificeraren kommer att försöka maximera avståndet mellan dykhyperplanet och punkterna på vardera sidan av planet, och ju större avståndet är mellan linjen och punkterna, desto mer säker är klassificeraren.

Oövervakade inlärningsalgoritmer

Huvudkomponentanalys är en teknik som används för dimensionalitetsreduktion, vilket innebär att dimensionaliteten eller komplexiteten hos datan representeras på ett enklare sätt. Principal Component Analysis-algoritmen hittar nya dimensioner för data som är ortogonala. Även om dimensionaliteten hos data reduceras, bör variansen mellan data bevaras så mycket som möjligt. Vad detta innebär i praktiska termer är att det tar funktionerna i datasetet och destillerar ner dem till färre funktioner som representerar det mesta av datan.

K-Means Clustering är en algoritm som automatiskt grupperar datapunkter i kluster baserat på liknande funktioner. Mönstren i datasetet analyseras och datapunkterna delas upp i grupper baserat på dessa mönster. I huvudsak skapar K-means sina egna klasser av omärkta data. K-Means-algoritmen fungerar genom att tilldela centra till klustren, eller tyngdpunkterna, och flytta tyngdpunkterna tills den optimala positionen för tyngdpunkterna hittas. Den optimala positionen kommer att vara en där avståndet mellan tyngdpunkterna till de omgivande datapunkterna inom klassen minimeras. "K" i K-betyder klustring hänvisar till hur många centroider som har valts.

Sammanfattning

För att avsluta, låt oss snabbt gå igenom de viktigaste skillnaderna mellan övervakat och oövervakat lärande.

Som vi tidigare diskuterat, i övervakade inlärningsuppgifter är indata märkta och antalet klasser är känt. Samtidigt är indata omärkta och antalet klasser är inte känt i oövervakade inlärningsfall. Oövervakat lärande tenderar att vara mindre beräkningsmässigt komplext, medan övervakat lärande tenderar att vara mer beräkningsmässigt komplext. Medan övervakade inlärningsresultat tenderar att vara mycket exakta, tenderar oövervakade inlärningsresultat att vara mindre exakta/måttligt korrekta.

Bloggare och programmerare med specialiteter inom Maskininlärning och Deep Learning ämnen. Daniel hoppas kunna hjälpa andra att använda kraften i AI för socialt bästa.