AI 101
Vad är Neuronnät?

Vad är Artificiella Neuronnät (ANN)?
Många av de största framstegen inom AI är drivna av artificiella neuronnät. Artificiella Neuronnät (ANN) är anslutningar av matematiska funktioner som är sammansatta i en format som inspirerats av neuronnätverken i den mänskliga hjärnan. Dessa ANN är kapabla att extrahera komplexa mönster från data, applicera dessa mönster på osett data för att klassificera/känna igen data. På detta sätt “lär” maskinen. Detta är en snabb översikt av neuronnät, men låt oss ta en närmare titt på neuronnät för att bättre förstå vad de är och hur de fungerar.
Multi-Layer Perceptron Förklarat
Innan vi tittar på mer komplexa neuronnät, ska vi ta en stund att titta på en enkel version av ett ANN, en Multi-Layer Perceptron (MLP).

Tänk dig en monteringslinje på en fabrik. På denna monteringslinje tar en arbetare emot en artikel, gör några justeringar av den och sedan skickar den vidare till nästa arbetare i linjen som gör detsamma. Denna process fortsätter tills den sista arbetaren i linjen sätter den sista handen vid artikeln och lägger den på en transportband som kommer att ta den ut ur fabriken. I denna analogi finns det flera “lager” i monteringslinjen, och produkterna flyttas mellan lagren allteftersom de flyttas från arbetare till arbetare. Monteringslinjen har också en ingångspunkt och en utgångspunkt.
En Multi-Layer Perceptron kan ses som en mycket enkel produktionslinje, bestående av totalt tre lager: ett ingångslager, ett dolt lager och ett utgångslager. Ingångslagret är där data matas in i MLP, och i det dolda lagret hanterar ett antal “arbetare” data innan de skickar det vidare till utgångslagret som ger produkten till den yttre världen. I fallet med en MLP kallas dessa arbetare “neuroner” (eller ibland noder) och när de hanterar data manipulerar de den genom en serie matematiska funktioner.
Inom nätverket finns det strukturer som ansluter nod till nod som kallas “vikter“. Vikter är en antagande om hur datapunkter är relaterade allteftersom de flyttas genom nätverket. Vikterna passerar genom en “aktiveringsfunktion” när de lämnar den aktuella noden, som är en typ av matematisk funktion som transformerar data. De transformerar linjär data till icke-linjära representationer, vilket möjliggör för nätverket att analysera komplexa mönster.
Analogin till den mänskliga hjärnan som antyds av “artificiellt neuronnät” kommer från det faktum att neuronerna som utgör den mänskliga hjärnan är sammankopplade på ett liknande sätt som noder i ett ANN är länkade.
Medan multi-lagerperceptron har funnits sedan 1940-talet, fanns det ett antal begränsningar som hindrade dem från att vara särskilt användbara. Men under de senaste decennierna skapades en teknik som kallas “backpropagation” som möjliggjorde för nätverk att justera vikterna för neuronerna och därmed lära sig mycket mer effektivt. Backpropagation ändrar vikterna i neuronnätverket, vilket möjliggör för nätverket att bättre fånga de faktiska mönstren inom data.
Djupa Neuronnät
Djupa neuronnät tar den grundläggande formen av MLP och gör den större genom att lägga till fler dolda lager i mitten av modellen. Så istället för att det finns ett ingångslager, ett dolt lager och ett utgångslager, finns det många dolda lager i mitten och utgångarna från ett dolt lager blir ingångarna för nästa dolt lager tills data har passerat hela nätverket och returnerats.
De flera dolda lagren i ett djupt neuronnät kan tolka mer komplexa mönster än den traditionella multilayerperceptron. Olika lager i det djupa neuronnätet lär sig mönstren från olika delar av data. Till exempel, om indata består av bilder, kan den första delen av nätverket tolka ljusstyrkan eller mörkret hos pixlarna medan de senare lagren kommer att plocka ut former och kanter som kan användas för att känna igen objekt i bilden.
Olika Typer Av Neuronnät

Det finns olika typer av neuronnät, och var och en av de olika typerna av neuronnät har sina egna fördelar och nackdelar (och därmed sina egna användningsfall). Den typ av djupt neuronnät som beskrivs ovan är den vanligaste typen av neuronnät, och den kallas ofta för ett feedforward neuronnät.
En variation av neuronnät är det Rekurrenta Neuronnätet (RNN). I fallet med Rekurrenta Neuronnät används slingmekanismer för att hålla information från tidigare tillstånd av analys, vilket betyder att de kan tolka data där ordningen spelar roll. RNN är användbara för att härleda mönster från sekventiell/kronologisk data. Rekurrenta Neuronnät kan vara antingen unidirektionella eller bidirektionella. I fallet med ett bidirektionellt neuronnät kan nätverket ta information från senare delar av sekvensen samt tidigare delar av sekvensen. Eftersom det bidirektionella RNN tar mer information i beaktande, är det bättre på att dra rätt mönster från data.
Ett Konvolutionsneuronnät är en specialtyp av neuronnät som är skicklig på att tolka mönstren som finns inom bilder. Ett CNN fungerar genom att passera en filter över pixlarna i bilden och uppnå en numerisk representation av pixlarna inom bilden, som den sedan kan analysera för mönster. Ett CNN är strukturerat så att de konvolutionslager som drar ut pixlarna ur bilden kommer först, och sedan de tät anslutna feed-forward-lagren som kommer att lära sig att känna igen objekt, kommer efter detta.












