Stumm Generativ vs Diskriminativ Maschinn Léieren Modeller - Unite.AI
Connect mat eis

AI 101

Generativ vs Diskriminativ Maschinn Léieren Modeller

mm
aktualiséiert on

E puer Maschinnléieremodeller gehéieren entweder zu de "generativen" oder "diskriminativen" Modellkategorien. Wat awer ass den Ënnerscheed tëscht dës zwou Kategorien vu Modeller? Wat heescht et fir e Modell diskriminativ oder generativ ze sinn?

Déi kuerz Äntwert ass datt generativ Modeller déi sinn déi d'Verdeelung vum Datesaz enthalen, eng Probabilitéit fir e bestëmmt Beispill zréckginn. Generativ Modeller ginn dacks benotzt fir virauszesoen wat nächst an enger Sequenz geschitt. Mëttlerweil ginn diskriminativ Modeller fir entweder Klassifikatioun oder Regressioun benotzt a si ginn eng Prognose zréck baséiert op bedingt Wahrscheinlechkeet. Loosst eis d'Ënnerscheeder tëscht generativen an diskriminativen Modeller méi detailléiert entdecken, sou datt mir wierklech kënne verstoen wat déi zwou Aarte vu Modeller trennt a wéini all Typ soll benotzt ginn.

Generativ vs Diskriminativ Modeller

Et gi verschidde Weeër fir e Maschinnléiermodell ze kategoriséieren. E Modell ka klasséiert ginn als gehéiert zu verschiddene Kategorien wéi: generativ Modeller, diskriminativ Modeller, parametresch Modeller, net-parametresch Modeller, Bam-baséiert Modeller, Net-Bam-baséiert Modeller.

Dësen Artikel konzentréiert sech op d'Ënnerscheeder tëscht generativen Modeller an diskriminativer Modeller. Mir fänken u mat generativen an diskriminativen Modeller ze definéieren, an da wäerte mir e puer Beispiller vun all Typ vu Modell entdecken.

Generative Modeller

Generative Modeller sinn déi, déi op d'Verdeelung vun de Klassen am Dataset zentréieren. D'Maschinn Léieren Algorithmen modelléieren typesch d'Verdeelung vun den Datepunkte. Generativ Modeller vertrauen op gemeinsame Wahrscheinlechkeet ze fannen. Punkten erstellen wou eng bestëmmten Input Feature an e gewënschten Ausgang / Label gläichzäiteg existéieren.

Generativ Modeller ginn normalerweis benotzt fir Wahrscheinlechkeeten a Wahrscheinlechkeeten ze schätzen, Datenpunkten ze modelléieren an tëscht Klassen op Basis vun dëse Wahrscheinlechkeeten ze diskriminéieren. Well de Modell eng Wahrscheinlechkeetsverdeelung fir den Dataset léiert, kann et dës Wahrscheinlechkeetsverdeelung referenzéieren fir nei Dateninstanzen ze generéieren. Generativ Modeller vertrauen dacks op Bayes Theorem fir déi gemeinsam Wahrscheinlechkeet ze fannen, p(x,y) ze fannen. Wesentlech modelléiere generativ Modeller wéi d'Donnéeën generéiert goufen, beäntweren déi folgend Fro:

"Wat ass d'Wahrscheinlechkeet datt dës Klass oder eng aner Klass dësen Datepunkt / Instanz generéiert huet?"

Beispiller vu generative Maschinnléiere Modeller enthalen Linear Diskriminant Analyse (LDA), Hidden Markov Modeller, a Bayesian Netzwierker wéi Naive Bayes.

Diskriminativ Modeller

Wärend generativ Modeller iwwer d'Verdeelung vum Dataset léieren, diskriminativ Modeller léiert iwwer d'Grenz tëscht Klassen an engem Dataset. Mat diskriminative Modeller ass d'Zil z'identifizéieren d'Entscheedung Grenz tëscht Klassen zouverlässeg Klass Etiketten op Daten Instanzen ze gëllen. Diskriminativ Modeller trennen d'Klassen an der Datasetze andeems se bedingt Wahrscheinlechkeet benotzen, keng Viraussetzungen iwwer eenzel Datepunkte maachen.

Diskriminativ Modeller setzen sech op déi folgend Fro ze beäntweren:

"A wéi enger Säit vun der Entscheedungsgrenz ass dës Instanz fonnt?"

Beispiller vun diskriminativen Modeller am Maschinnléieren enthalen Ënnerstëtzungsvektormaschinnen, logistesch Regressioun, Entscheedungsbeem, an zoufälleg Bëscher.

Ënnerscheeder tëscht Generativ an Diskriminativ

Hei ass e séieren Iwwerbléck iwwer déi grouss Differenzen tëscht generativen an diskriminativen Modeller.

Generativ Modeller:

  • Generativ Modeller zielen d'tatsächlech Verdeelung vun de Klassen an der Datasetze festzehalen.
  • Generativ Modeller virauszesoen déi gemeinsam Wahrscheinlechkeetsverdeelung - p(x,y) - andeems Bayes Theorem benotzt.
  • Generativ Modeller si computationally deier am Verglach mat diskriminative Modeller.
  • Generativ Modeller sinn nëtzlech fir onkontrolléiert Maschinn Léieren Aufgaben.
  • Generativ Modeller ginn beaflosst vun der Präsenz vun Auslänner méi wéi diskriminativ Modeller.

Diskriminativ Modeller:

  • Diskriminativ Modeller modelléieren d'Entscheedungsgrenze fir d'Datasetsklassen.
  • Diskriminativ Modeller léieren déi bedingt Wahrscheinlechkeet - p(y|x).
  • Diskriminativ Modeller si computationally bëlleg am Verglach zu generativ Modeller.
  • Diskriminativ Modeller si nëtzlech fir iwwerwaachte Maschinnléieren Aufgaben.
  • Diskriminativ Modeller hunn de Virdeel méi robust ze sinn fir Auslänner, am Géigesaz zu de generativen Modeller.
  • Diskriminativ Modeller si méi robust fir Outliers am Verglach mat generativen Modeller.

Mir wäerten elo kuerz e puer verschidde Beispiller vu generativen an diskriminativen Maschinnléiere Modeller entdecken.

Beispiller vu Generative Modeller

Linear Diskriminatioun Analyse (LDA)

LDA Modeller Funktioun andeems Dir d'Varianz an d'Moyenne vun den Donnéeën fir all Klass am Dataset schätzt. Nodeems d'Moyenne a Varianze fir all Klass berechent goufen, kënne Prognosen gemaach ginn andeems Dir d'Wahrscheinlechkeet schätzt datt e bestëmmte Set vun Input zu enger bestëmmter Klass gehéiert.

Verstoppt Markov Modeller

Markov Ketten kann als Grafike mat Wahrscheinlechkeeten ugesi ginn, déi uginn wéi wahrscheinlech et ass datt mir vun engem Punkt an der Kette, engem "Staat", an en anere Staat plënneren. Markov Ketten gi benotzt fir d'Wahrscheinlechkeet ze bestëmmen fir vum Staat j op Staat i ze plënneren, wat als p (i, j) bezeechent ka ginn. Dëst ass just déi gemeinsam Wahrscheinlechkeet uewen ernimmt. E Hidden Markov Model ass wou eng onsichtbar, onobservéierbar Markov Kette benotzt gëtt. D'Dateinpute ginn dem Modell uginn an d'Wahrscheinlechkeeten fir den aktuellen Zoustand an de Staat direkt virdru gi benotzt fir dat wahrscheinlechst Resultat ze berechnen.

Bayesian Netzwierker

Bayesian Netzwierker sinn eng Zort probabilistesche grafesche Modell. Si representéieren bedingt Ofhängegkeeten tëscht Variabelen, wéi vertruede vun enger Directed Acyclic Graph. An engem Bayesian Netzwierk representéiert all Rand vun der Grafik eng bedingt Ofhängegkeet, an all Node entsprécht enger eenzegaarteger Variabel. Déi bedingungslos Onofhängegkeet fir déi eenzegaarteg Bezéiungen an der Grafik kann benotzt ginn fir d'gemeinsame Verdeelung vun de Variablen ze bestëmmen a gemeinsame Wahrscheinlechkeet ze berechnen. An anere Wierder, e Bayesian Netzwierk erfaasst en Ënnerdeel vun den onofhängege Bezéiungen an enger spezifescher gemeinsamer Wahrscheinlechkeetsverdeelung.

Wann e Bayesian Netzwierk erstallt a richteg definéiert ass, mat zoufälleg Variablen, Bedingungsverhältnisser a Probabilitéitsverdeelungen bekannt, kann et benotzt ginn fir d'Wahrscheinlechkeet vun Eventer oder Resultater ze schätzen.

Ee vun de meescht benotzten Typen vu Bayesian Netzwierker ass en Naive Bayes Modell. En Naive Bayes Modell handhabt d'Erausfuerderung fir d'Wahrscheinlechkeet fir Datesätz mat ville Parameteren / Variablen ze berechnen andeems se all Funktiounen als onofhängeg vuneneen behandelen.

Beispiller vun Diskriminatiounsmodeller

Ënnerstëtzung Vecteure Maschinnen

Ënnerstëtzt Vectormaschinnen Bedreiwen andeems Dir eng Entscheedungsgrenz tëscht Datepunkte zéien, d'Entscheedungsgrenz ze fannen déi déi verschidde Klassen am Datesaz am Beschten trennt. De SVM Algorithmus zitt entweder Linnen oder Hyperplanen déi Punkten trennen, fir 2-zweedimensional Plazen respektiv 3D Plazen. SVM beméit sech fir d'Linn / Hyperplane ze fannen déi d'Klassen am Beschten trennt andeems Dir probéiert d'Margin ze maximéieren, oder d'Distanz tëscht der Linn / Hyperplane zu den nooste Punkten. SVM Modeller kënnen och op Datesätz benotzt ginn, déi net linear trennbar sinn, andeems Dir de "Kerneltrick" benotzt fir net-linear Entscheedungsgrenzen z'identifizéieren.

Logistesch Regressioun

Logistesch Réckgang ass en Algorithmus deen eng Logit (Log-Chancen) Funktioun benotzt fir d'Wahrscheinlechkeet ze bestëmmen datt en Input an engem vun zwee Staaten ass. Eng Sigmoid Funktioun gëtt benotzt fir d'Wahrscheinlechkeet op entweder 0 oder 1 ze "squishen", richteg oder falsch. Wahrscheinlechkeeten méi wéi 0.50 ginn ugeholl datt d'Klass 1 ass, während d'Wahrscheinlechkeeten 0.49 oder manner sinn 0. Aus dësem Grond gëtt logistesch Regressioun typesch a binäre Klassifikatiounsproblemer benotzt. Wéi och ëmmer, logistesch Regressioun kann op Multi-Klasse Probleemer applizéiert ginn andeems Dir eng eent vs all Approche benotzt, e binäre Klassifikatiounsmodell fir all Klass erstellt an d'Wahrscheinlechkeet bestëmmen datt e Beispill eng Zilklass oder eng aner Klass am Dataset ass.

Entscheedung Tree

A Entscheedungsbam Modellfunktiounen andeems en Dataset a méi kleng a méi kleng Portiounen opgedeelt gëtt, a wann d'Subsets net méi opgedeelt kënne ginn ass d'Resultat e Bam mat Noden a Blieder. Noden an engem Entscheedungsbam sinn wou Entscheedungen iwwer Datepunkte mat verschiddene Filterkriterien gemaach ginn. D'Blieder an engem Entscheedungsbam sinn d'Datepunkte, déi klasséiert goufen. Entscheedungsbaum Algorithmen kënne souwuel numeresch wéi och kategoresch Donnéeën handhaben, a Spaltungen am Bam baséieren op spezifesch Variablen / Features.

Zoufälleg Bëscher

A zoufälleg Bësch Modell ass am Fong just eng Sammlung vun Entscheedungsbeem, wou d'Prognosen vun den eenzelne Beem duerchschnëttlech sinn fir zu enger definitiver Entscheedung ze kommen. De zoufälleg Bësch Algorithmus wielt Observatioune a Fonctiounen zoufälleg, baut déi eenzel Beem baséiert op dës Auswiel.

Dësen Tutorial Artikel wäert entdecken wéi een e Box Plot am Matplotlib erstellt. Boxplots gi benotzt fir Resuméstatistike vun engem Datesaz ze visualiséieren, d'Attributer vun der Verdeelung ze weisen wéi d'Dateberäich an d'Verdeelung.

Blogger a Programméierer mat Spezialitéiten am Machine Learning an Deep Learning Themen. Den Daniel hofft anerer ze hëllefen d'Kraaft vun der AI fir sozial Gutt ze benotzen.