stub X'inhu Deep Learning? (2024) - Unite.AI
Kuntatt magħna
Masterclass AI:

AI 101

X'inhu Deep Learning?

mm
Aġġornata on

It-tagħlim fil-fond huwa wieħed mill-oqsma l-aktar influwenti u li qed jikbru malajr fl-intelliġenza artifiċjali. Madankollu, li tinkiseb fehim intuwittiv tat-tagħlim profond jista 'jkun diffiċli minħabba li t-terminu tagħlim profond ikopri varjetà ta' algoritmi u tekniki differenti. It-tagħlim profond huwa wkoll subdixxiplina tat-tagħlim tal-magni b'mod ġenerali, għalhekk huwa importanti li tifhem x'inhu t-tagħlim tal-magni sabiex tifhem it-tagħlim profond.

X'inhu Machine Learning?

Tagħlim fil-fond hija estensjoni ta 'wħud mill-kunċetti li joriġinaw mit-tagħlim tal-magni, għalhekk għal dik ir-raġuni, ejja nieħdu minuta biex nispjegaw x'inhu t-tagħlim tal-magni.

Fi kliem sempliċi, it-tagħlim tal-magni huwa metodu li jippermetti lill-kompjuters iwettqu kompiti speċifiċi mingħajr ma jikkodifikaw b'mod espliċitu kull linja tal-algoritmi użati biex iwettqu dawk il-kompiti. Hemm ħafna algoritmi differenti tat-tagħlim tal-magni, iżda wieħed mill-algoritmi l-aktar użati huwa a perceptron b'ħafna saffi. Perceptron b'ħafna saffi jissejjaħ ukoll netwerk newrali, u huwa magħmul minn serje ta 'nodi/newroni konnessi flimkien. Hemm tliet saffi differenti f'perceptron b'ħafna saffi: is-saff tad-dħul, is-saff moħbi, u s-saff tal-ħruġ.

Is-saff tal-input jieħu d-dejta fin-netwerk, fejn tiġi mmanipulata min-nodi fis-saff tan-nofs/moħbi. In-nodi fis-saff moħbi huma funzjonijiet matematiċi li jistgħu jimmanipulaw id-dejta li tkun ġejja mis-saff tal-input, billi jiġu estratti mudelli rilevanti mid-dejta tal-input. Dan huwa kif in-netwerk newrali "jitgħallem". In-netwerks newrali jieħdu isimhom mill-fatt li huma ispirati mill-istruttura u l-funzjoni tal-moħħ tal-bniedem.

Il-konnessjonijiet bejn in-nodi fin-netwerk għandhom valuri msejħa piżijiet. Dawn il-valuri huma essenzjalment suppożizzjonijiet dwar kif id-dejta f'saff wieħed hija relatata mad-dejta fis-saff li jmiss. Hekk kif in-netwerk iħarreġ il-piżijiet huma aġġustati, u l-għan huwa li l-piżijiet/suppożizzjonijiet dwar id-dejta eventwalment jikkonverġu fuq valuri li jirrappreżentaw b'mod preċiż ix-xejriet sinifikanti fid-dejta.

Funzjonijiet ta 'attivazzjoni huma preżenti fin-nodi tan-netwerk, u dawn il-funzjonijiet ta' attivazzjoni jittrasformaw id-dejta b'mod mhux lineari, li jippermettu lin-netwerk jitgħallem rappreżentazzjonijiet kumplessi tad-dejta. Il-funzjonijiet ta 'attivazzjoni jimmultiplikaw il-valuri tal-input bil-valuri tal-piż u jżidu terminu bias.

X'inhu Deep Learning?

It-tagħlim fil-fond huwa t-terminu mogħti lill-arkitetturi tat-tagħlim tal-magni li jingħaqdu flimkien ħafna perceptrons b'ħafna saffi flimkien, sabiex ma jkunx hemm saff wieħed biss moħbi iżda ħafna saffi moħbija. Iktar ma jkun "fond" li n-netwerk newrali fil-fond huwa, aktar mudelli sofistikati in-netwerk jista 'jitgħallem.

In-netwerks tas-saff profond magħmulin minn newroni kultant jissejħu netwerks kompletament konnessi jew saffi kompletament konnessi, li jirreferu għall-fatt li newron partikolari jżomm konnessjoni man-newroni kollha madwaru. Netwerks konnessi bis-sħiħ jistgħu jiġu kkombinati ma 'funzjonijiet oħra ta' tagħlim bil-magni biex joħolqu arkitetturi differenti ta 'tagħlim profond.

Tipi differenti ta' Tagħlim Profond

Hemm varjetà ta 'arkitetturi ta' tagħlim fil-fond użati minn riċerkaturi u inġiniera, u kull waħda mill-arkitetturi differenti għandha l-każ ta 'użu ta' speċjalità tagħha stess.

Netwerks Konvulsjonali Neurali

Netwerks newrali konvoluzzjonali, jew CNNs, huma l-arkitettura tan-netwerk newrali użata komunement fil-ħolqien ta 'sistemi ta' viżjoni bil-kompjuter. L-istruttura tan-netwerks newrali konvoluzzjonali tippermettilhom jinterpretaw id-dejta tal-immaġni, u jaqilbuhom f'numri li netwerk kompletament konness jista' jinterpreta. CNN għandu erba' komponenti ewlenin:

  • Saffi konvoluzzjonali
  • Saffi ta' sottokampjunar/pooling
  • Funzjonijiet ta 'attivazzjoni
  • Saffi kompletament konnessi

Is-saffi konvoluzzjonali huma dak li jieħu l-immaġini bħala inputs fin-netwerk, janalizzaw l-immaġini u jiksbu l-valuri tal-pixels. Is-sottokampjunar jew il-ġbir flimkien huwa fejn il-valuri tal-immaġni huma kkonvertiti/imnaqqsa biex tiġi ssimplifikata r-rappreżentazzjoni tal-immaġini u titnaqqas is-sensittività tal-filtri tal-immaġni għall-istorbju. Il-funzjonijiet ta 'attivazzjoni jikkontrollaw kif id-dejta tiċċirkola minn saff wieħed għas-saff li jmiss, u s-saffi kompletament konnessi huma dak li janalizzaw il-valuri li jirrappreżentaw l-immaġni u jitgħallmu l-mudelli miżmuma f'dawk il-valuri.

RNNs/LSTMs

Netwerks newrali rikorrenti, jew RNNs, huma popolari għal kompiti fejn l-ordni tad-dejta hija importanti, fejn in-netwerk irid jitgħallem dwar sekwenza ta 'dejta. L-RNNs huma komunement applikati għal problemi bħall-ipproċessar tal-lingwa naturali, peress li l-ordni tal-kliem hija importanti meta tiġi dekodifikata t-tifsira ta 'sentenza. Il-parti "rikorrenti" tat-terminu Netwerk Neurali Rikorrenti ġejja mill-fatt li l-output għal element partikolari f'sekwenza jiddependi fuq il-komputazzjoni preċedenti kif ukoll il-komputazzjoni kurrenti. B'differenza għal forom oħra ta 'netwerks newrali profondi, RNNs għandhom "memorji", u l-informazzjoni kkalkulata fil-passi tal-ħin differenti fis-sekwenza tintuża biex tikkalkula l-valuri finali.

Hemm diversi tipi ta 'RNNs, inklużi RNNs bidirezzjonali, li jqisu oġġetti futuri fis-sekwenza, minbarra l-oġġetti preċedenti, meta jikkalkulaw il-valur ta' oġġett. Tip ieħor ta 'RNN huwa a Memorja għal żmien qasir fit-tul, jew LSTM, netwerk. L-LSTMs huma tipi ta' RNN li jistgħu jimmaniġġjaw ktajjen twal ta' data. RNNs regolari jistgħu jaqgħu vittmi ta 'xi ħaġa msejħa "problema ta' gradjent li jisplodi". Din il-kwistjoni sseħħ meta l-katina tad-dejta tal-input issir estremament twila, iżda l-LSTMs għandhom tekniki biex jiġġieldu din il-problema.

Autoencoders

Ħafna mill-arkitetturi ta' tagħlim profond imsemmija s'issa huma applikati għal problemi ta' tagħlim sorveljat, aktar milli kompiti ta' tagħlim mhux sorveljati. Autoencoders huma kapaċi jittrasformaw data mhux sorveljata f'format sorveljat, li jippermetti li n-netwerks newrali jintużaw fuq il-problema.

Autoencoders jintużaw ta' spiss biex jinstabu anomaliji f'settijiet ta' dejta, eżempju ta' tagħlim mhux sorveljat peress li n-natura tal-anomalija mhix magħrufa. Eżempji bħal dawn ta' skoperta ta' anomaliji jinkludu skoperta ta' frodi għal istituzzjonijiet finanzjarji. F'dan il-kuntest, l-iskop ta 'awtoencoder huwa li jiddetermina linja bażi ta' mudelli regolari fid-dejta u jidentifika anomaliji jew outliers.

L-istruttura ta 'autoencoder ħafna drabi hija simetrika, b'saffi moħbija mqassma b'tali mod li l-output tan-netwerk jixbah l-input. L-erba 'tipi ta' autoencoders li jaraw użu frekwenti huma:

  • Autoencoders regolari/sempliċi
  • Encoders b'ħafna saffi
  • Encoders konvoluzzjonali
  • Encoders regolarizzati

Autoencoders regolari/sempliċi huma biss xbieki newrali b'saff wieħed moħbi, filwaqt li autoencoders b'ħafna saffi huma netwerks fil-fond b'aktar minn saff wieħed moħbi. Autoencoders konvoluzzjonali jużaw saffi konvoluzzjonali minflok, jew minbarra, saffi kompletament konnessi. Autoencoders regolarizzati jużaw tip speċifiku ta 'funzjoni ta' telf li jħalli lin-netwerk newrali jwettaq funzjonijiet aktar kumplessi, funzjonijiet għajr sempliċement tikkopja inputs għall-outputs.

Netwerks Avversarji Ġenerattivi

Netwerks Avversarji Ġenerattivi (GANs) huma fil-fatt netwerks newrali profondi multipli minflok netwerk wieħed biss. Żewġ mudelli ta 'tagħlim profond huma mħarrġa fl-istess ħin, u l-outputs tagħhom huma mitmugħa lin-netwerk l-ieħor. In-netwerks huma f'kompetizzjoni ma 'xulxin, u peress li jiksbu aċċess għad-dejta tal-output ta' xulxin, it-tnejn jitgħallmu minn din id-dejta u jtejbu. Iż-żewġ netwerks essenzjalment qed jilagħbu logħba ta 'falsifikazzjoni u skoperta, fejn il-mudell ġenerattiv jipprova joħloq każijiet ġodda li jqarrqu l-mudell ditektif/d-diskriminatur. Il-GANs saru popolari fil-qasam tal-viżjoni tal-kompjuter.

Sommarju tat-Tagħlim Profond

It-tagħlim profond jestendi l-prinċipji tan-netwerks newrali biex jinħolqu mudelli sofistikati li jistgħu jitgħallmu mudelli kumplessi u jiġġeneralizzaw dawk il-mudelli għal settijiet ta 'dejta futuri. Netwerks newrali konvoluzzjonali jintużaw biex jinterpretaw immaġini, filwaqt li RNNs/LSTMs jintużaw biex jinterpretaw data sekwenzjali. Autoencoders jistgħu jittrasformaw kompiti ta 'tagħlim mhux sorveljati f'kompiti ta' tagħlim sorveljati. Fl-aħħarnett, il-GANs huma netwerks multipli mqiegħda ma 'xulxin li huma speċjalment utli għall-kompiti tal-viżjoni tal-kompjuter.

Blogger u programmatur bi speċjalitajiet fi Tagħlim bil-Magni u, Tagħlim fil-fond suġġetti. Daniel jittama li jgħin lil ħaddieħor juża l-qawwa tal-IA għall-ġid soċjali.