Stumm Wat ass Linear Regressioun? - Unite.AI
Connect mat eis

AI 101

Wat ass Linear Regressioun?

mm
aktualiséiert on

Wat ass Linear Regressioun?

Linear Regressioun ass en Algorithmus benotzt fir virauszesoen, oder visualiséieren, a Relatioun tëscht zwou verschiddene Funktiounen / Variablen. Bei linearer Regressiounsaufgaben ginn et zwou Aarte vu Variabelen ënnersicht: d' ofhängeg Variabel an déi onofhängeg Variabel. Déi onofhängeg Variabel ass d'Variabel déi vu sech selwer steet, net vun der anerer Variabel beaflosst. Wéi déi onofhängeg Variabel ugepasst gëtt, schwanken d'Niveaue vun der ofhängeger Variabel. Déi ofhängeg Variabel ass d'Variabel déi studéiert gëtt, an et ass wat de Regressiounsmodell léist fir / versicht virauszesoen. A linearer Regressiounsaufgaben besteet all Observatioun / Instanz aus dem ofhängege Variabelwäert an dem onofhängege Variabelwäert.

Dat war eng séier Erklärung vun der linearer Regressioun, awer loosst eis sécherstellen datt mir zu engem bessere Verständnis vun der linearer Regressioun kommen andeems Dir e Beispill dovun kuckt an d'Formel ënnersicht déi se benotzt.

Linear Regressioun verstoen

Gitt un datt mir en Dataset hunn deen Harddiskgréissten an d'Käschte vun dësen Harddisken deckt.

Loosst eis unhuelen datt den Dataset dee mir hunn aus zwee verschiddene Funktiounen besteet: d'Quantitéit un Erënnerung a Käschten. Wat méi Erënnerung mir fir e Computer kafen, wat méi d'Käschte vum Kaf eropgoen. Wa mir déi eenzel Datepunkte op engem Streuplott geplot hunn, kënne mir eng Grafik kréien déi sou ausgesäit:

Déi genau Erënnerung-zu-Käschte Verhältnis ka variéieren tëscht Hiersteller a Modeller vun der Festplack, awer am allgemengen ass den Trend vun den Donnéeën een deen ënnen lénks ufänkt (wou Harddisken souwuel méi bëlleg sinn a méi kleng Kapazitéit hunn) a sech op uewe riets (wou d'Drive méi deier sinn a méi héich Kapazitéit hunn).

Wa mir d'Quantitéit un Erënnerung op der X-Achs an d'Käschte op der Y-Achs hätten, géif eng Linn, déi d'Relatioun tëscht den X- an Y-Variabelen erfaasst, am ënneschten lénksen Eck starten an no uewe riets lafen.

D'Funktioun vun engem Regressiounsmodell ass eng linear Funktioun tëscht den X an Y Variabelen ze bestëmmen déi d'Relatioun tëscht den zwou Variabelen am beschten beschreift. Bei linearer Regressioun gëtt ugeholl datt Y aus enger Kombinatioun vun den Inputvariablen berechent ka ginn. D'Relatioun tëscht den Inputvariablen (X) an den Zilvariablen (Y) kann portraitéiert ginn andeems Dir eng Linn duerch d'Punkten an der Grafik zeechnen. D'Linn stellt d'Funktioun duer, déi d'Relatioun tëscht X an Y am beschten beschreift (zum Beispill, fir all Kéier X eropgeet ëm 3, erhéicht Y ëm 2). D'Zil ass eng optimal "Regressiounslinn" ze fannen, oder d'Linn / Funktioun déi am Beschten d'Daten passt.

Linnen ginn typesch duerch d'Equatioun duergestallt: Y = m*X + b. X bezitt sech op déi ofhängeg Variabel, während Y déi onofhängeg Variabel ass. Mëttlerweil ass m den Hang vun der Linn, wéi definéiert duerch den "Erhéijung" iwwer de "Runn". Maschinn Léieren Praktiker representéieren déi berühmt Steigungslinn Equatioun e bëssen anescht, andeems dës Equatioun amplaz benotzt:

y(x) = w0 + w1 * x

An der uewe genannter Equatioun ass y d'Zilvariabel, während "w" d'Parameter vum Modell ass an den Input "x". Also gëtt d'Gleichung gelies wéi: "D'Funktioun déi Y gëtt, ofhängeg vum X, ass gläich wéi d'Parameter vum Modell multiplizéiert mat de Featuren". D'Parameter vum Modell ginn während Training ugepasst fir déi bescht fit Regressiounslinn ze kréien.

Multiple Linear Regressioun

Foto: Cbaf iwwer Wikimedia Commons, Public Domain (https://commons.wikimedia.org/wiki/File:2d_multiple_linear_regression.gif)

De Prozess uewen beschriwwen gëllt fir einfach linear Regressioun, oder Regressioun op Datesätz wou et nëmmen eng eenzeg Feature / onofhängeg Variabel gëtt. Wéi och ëmmer, eng Regressioun kann och mat multiple Funktiounen gemaach ginn. Am Fall vun "Multiple linear Regressioun", gëtt d'Gleichung erweidert duerch d'Zuel vun de Variablen déi am Dataset fonnt goufen. An anere Wierder, wärend d'Equatioun fir reegelméisseg linear Regressioun y(x) = w0 + w1 * x ass, wier d'Gleichung fir multiple linear Regressioun y(x) = w0 + w1x1 plus d'Gewichte an d'Inputen fir déi verschidde Funktiounen. Wa mir d'Gesamtzuel vu Gewiichter a Funktiounen als w(n)x(n) representéieren, da kéinte mir d'Formel sou representéieren:

y(x) = w0 + w1x1 + w2x2 + … + w(n)x(n)

Nodeem d'Formel fir linear Regressioun gegrënnt gouf, benotzt de Maschinnléiermodell verschidde Wäerter fir d'Gewichte, a zeechent verschidde Passlinnen. Denkt drun datt d'Zil ass d'Linn ze fannen déi am Beschten d'Daten passt fir ze bestëmmen wéi eng vun de méigleche Gewiichtkombinatiounen (an dofir déi méiglech Linn) am Beschten un d'Daten passt an d'Relatioun tëscht de Variabelen erkläert.

Eng Käschtefunktioun gëtt benotzt fir ze moossen wéi no déi ugeholl Y Wäerter un déi aktuell Y Wäerter sinn wann se e bestëmmte Gewiichtswäert ginn. D'Käschte Funktioun fir linear Regressioun ass e mëttlere Quadratfehler, deen just den Duerchschnëtts (quadrateschen) Feeler tëscht dem virausgesote Wäert an dem richtege Wäert fir all déi verschidden Datepunkten an der Dataset hëlt. D'Käschtefunktioun gëtt benotzt fir eng Käschte ze berechnen, déi den Ënnerscheed tëscht dem virausgesoten Zilwäert an dem richtegen Zilwäert erfaasst. Wann d'Fitlinn wäit vun den Datepunkte läit, wäerten d'Käschte méi héich sinn, während d'Käschte méi kleng ginn, wat d'Linn méi no kënnt fir déi richteg Bezéiungen tëscht Variabelen z'erfaassen. D'Gewiichter vum Modell ginn dann ugepasst bis d'Gewiichtkonfiguratioun déi de klengste Betrag vu Feeler produzéiert gëtt fonnt.

Blogger a Programméierer mat Spezialitéiten am Machine Learning an Deep Learning Themen. Den Daniel hofft anerer ze hëllefen d'Kraaft vun der AI fir sozial Gutt ze benotzen.