- Terminija (A–D)
- AI galimybių valdymas
- AIOps
- albumai
- Turto našumas
- Autoencoder
- Atgalinis dauginimas
- Bayeso teorema
- Dideliu duomenų kiekiu
- „Chatbot“: vadovas pradedančiajam
- Kompiuterinis mąstymas
- Kompiuterio vizija
- Sumišimo matrica
- Konvoliuciniai neuroniniai tinklai
- Kibernetinė sauga
- Duomenų audinys
- Duomenų pasakojimas
- duomenų Mokslas
- Duomenų saugojimas
- Sprendimų medis
- Gilūs klastotės
- Gilus mokymasis
- Gilaus sutvirtinimo mokymasis
- devops
- „DevSecOps“
- Difuzijos modeliai
- Skaitmeninis dvynys
- Matmenų mažinimas
- Terminija (nuo E iki K)
- Edge AI
- Emocijų AI
- Ansamblio mokymasis
- Etinis įsilaužimas
- ETL
- Paaiškinamas AI
- Federuotas mokymasis
- FinOps
- Generatyvinis AI
- Generacinis prieštaringų tinklas
- Generatyvus prieš diskriminacinį
- Gradiento didinimas
- Gradiento nusileidimas
- Mokymasis iš kelių kartų
- Vaizdo klasifikacija
- IT operacijos (ITOps)
- Incidentų automatizavimas
- Įtakos inžinerija
- „K“ reiškia grupavimą
- K-Artimiausi kaimynai
- Terminija (L–Q)
- Terminija (nuo R iki Z)
- Stiprinimo mokymasis
- Atsakingas AI
- RLHF
- Robotų procesų automatizavimas
- Struktūrinis vs nestruktūrinis
- Sentimentų analizė
- Prižiūrimas prieš neprižiūrimą
- Palaikykite vektorines mašinas
- Sintetiniai duomenys
- Sintetinės laikmenos
- Teksto klasifikacija
- TinyML
- Mokymasis perkelti
- Transformatorių neuroniniai tinklai
- Tiuringo testas
- Vektorių panašumo paieška
AI 101 m
Kas yra gilusis mokymasis?
Turinys
Gilus mokymasis yra viena įtakingiausių ir greičiausiai augančių dirbtinio intelekto sričių. Tačiau intuityviai suprasti giluminį mokymąsi gali būti sunku, nes terminas gilus mokymasis apima įvairius algoritmus ir metodus. Gilus mokymasis taip pat apskritai yra mašininio mokymosi podisciplinis, todėl norint suprasti gilųjį mokymąsi, svarbu suprasti, kas yra mašininis mokymasis.
Kas yra mašinų mokymasis?
Gilus mokymasis yra kai kurių sąvokų, kilusių iš mašininio mokymosi, išplėtimas, todėl dėl šios priežasties skirkime minutę paaiškinti, kas yra mašininis mokymasis.
Paprasčiau tariant, mašininis mokymasis yra metodas, leidžiantis kompiuteriams atlikti konkrečias užduotis, aiškiai nekoduojant kiekvienos toms užduotims atlikti naudojamų algoritmų eilutės. Yra daug skirtingų mašininio mokymosi algoritmų, tačiau vienas dažniausiai naudojamų algoritmų yra a daugiasluoksnis perceptronas. Daugiasluoksnis perceptronas taip pat vadinamas neuroniniu tinklu ir susideda iš daugybės mazgų / neuronų, sujungtų kartu. Daugiasluoksniame perceptrone yra trys skirtingi sluoksniai: įvesties sluoksnis, paslėptasis sluoksnis ir išvesties sluoksnis.
Įvesties sluoksnis perkelia duomenis į tinklą, kur jais manipuliuoja vidurinio / paslėpto sluoksnio mazgai. Paslėpto sluoksnio mazgai yra matematinės funkcijos, kurios gali manipuliuoti iš įvesties sluoksnio gaunamais duomenimis, iš įvesties duomenų išgaudamos atitinkamus šablonus. Taip neuroninis tinklas „mokosi“. Neuroniniai tinklai gavo savo pavadinimą dėl to, kad juos įkvėpė žmogaus smegenų struktūra ir funkcija.
Ryšiai tarp tinklo mazgų turi reikšmes, vadinamas svoriais. Šios reikšmės iš esmės yra prielaidos apie tai, kaip vieno sluoksnio duomenys yra susiję su kito sluoksnio duomenimis. Kai tinklas treniruojasi, svoriai koreguojami, o tikslas yra, kad duomenų svoriai / prielaidos galiausiai susilygintų su reikšmėmis, kurios tiksliai atspindi reikšmingus duomenų modelius.
Aktyvinimo funkcijos yra tinklo mazguose, o šios aktyvinimo funkcijos transformuoja duomenis nelinijiškai, todėl tinklas gali išmokti sudėtingų duomenų atvaizdų. Aktyvinimo funkcijos padaugina įvesties reikšmes iš svorio reikšmių ir prideda šališkumo terminą.
Kas yra gilusis mokymasis?
Gilus mokymasis yra terminas, skirtas mašininio mokymosi architektūroms, kurios sujungia daugybę daugiasluoksnių perceptronų, kad būtų ne vienas paslėptas sluoksnis, bet daug paslėptų sluoksnių. Kuo gilesnis neuroninis tinklas yra „giliau“, tuo sudėtingesnius modelius tinklas gali išmokti.
Giliųjų sluoksnių tinklai, sudaryti iš neuronų, kartais vadinami visiškai sujungtais tinklais arba visiškai sujungtais sluoksniais, nurodant faktą, kad tam tikras neuronas palaiko ryšį su visais jį supančiais neuronais. Visiškai sujungtus tinklus galima derinti su kitomis mašininio mokymosi funkcijomis, kad būtų sukurtos skirtingos gilaus mokymosi architektūros.
Įvairūs giluminio mokymosi tipai
Tyrėjai ir inžinieriai naudoja daugybę gilaus mokymosi architektūrų, o kiekviena iš skirtingų architektūrų turi savo specialų naudojimo atvejį.
Konvoliuciniai neuroniniai tinklai
Konvoliuciniai neuroniniai tinklai, arba CNN, yra neuroninio tinklo architektūra, dažniausiai naudojama kuriant kompiuterinio matymo sistemas. Konvoliucinių neuroninių tinklų struktūra leidžia jiems interpretuoti vaizdo duomenis, paverčiant juos skaičiais, kuriuos gali interpretuoti visiškai prijungtas tinklas. CNN sudaro keturi pagrindiniai komponentai:
- Konvoliuciniai sluoksniai
- Atrankos/sujungimo sluoksniai
- Aktyvinimo funkcijos
- Visiškai sujungti sluoksniai
Konvoliuciniai sluoksniai yra tai, kas vaizdus įeina kaip įvestis į tinklą, analizuoja vaizdus ir gauna pikselių reikšmes. Dalinis mėginių ėmimas arba sujungimas yra tai, kai vaizdo reikšmės konvertuojamos / sumažinamos, siekiant supaprastinti vaizdų atvaizdavimą ir sumažinti vaizdo filtrų jautrumą triukšmui. Aktyvinimo funkcijos valdo, kaip duomenys perduodami iš vieno sluoksnio į kitą, o visiškai sujungti sluoksniai analizuoja reikšmes, vaizduojančias vaizdą, ir išmoksta tose reikšmėse esančius šablonus.
RNN/LSTM
Pasikartojantys neuroniniai tinklai, arba RNN, yra populiarūs atliekant užduotis, kuriose svarbi duomenų tvarka, kai tinklas turi sužinoti apie duomenų seką. RNN dažniausiai taikomi tokioms problemoms kaip natūralios kalbos apdorojimas, nes žodžių tvarka yra svarbi dekoduojant sakinio prasmę. „Pasikartojanti“ termino „Pakartotinis neuroninis tinklas“ dalis atsiranda dėl to, kad tam tikro elemento išvestis sekoje priklauso nuo ankstesnio skaičiavimo ir dabartinio skaičiavimo. Skirtingai nuo kitų giliųjų neuroninių tinklų formų, RNN turi „atmintį“, o informacija, apskaičiuota skirtingais sekos laiko žingsniais, naudojama galutinėms vertėms apskaičiuoti.
Yra kelių tipų RNN, įskaitant dvikrypčius RNN, kurie apskaičiuojant elemento vertę, be ankstesnių elementų, atsižvelgia į būsimus sekos elementus. Kitas RNN tipas yra a Ilgalaikė trumpalaikė atmintis arba LSTM, tinklas. LSTM yra RNN tipai, galintys tvarkyti ilgas duomenų grandines. Įprasti RNN gali tapti vadinamosios „sprogstančios gradiento problemos“ aukomis. Ši problema kyla, kai įvesties duomenų grandinė tampa itin ilga, tačiau LSTM turi kovos su šia problema metodų.
Automatiniai kodavimo įrenginiai
Dauguma iki šiol paminėtų giluminio mokymosi architektūrų yra taikomos prižiūrimoms mokymosi problemoms spręsti, o ne neprižiūrimoms mokymosi užduotims. Automatiniai kodavimo įrenginiai gali paversti neprižiūrimus duomenis į prižiūrimą formatą, leidžiantį išspręsti problemą naudojant neuroninius tinklus.
Automatiniai kodavimo įrenginiai dažnai naudojami norint aptikti anomalijas duomenų rinkiniuose, o tai yra neprižiūrimo mokymosi pavyzdys, nes anomalijos pobūdis nežinomas. Tokie anomalijų nustatymo pavyzdžiai apima finansų įstaigų sukčiavimo aptikimą. Šiame kontekste automatinio kodavimo įrenginio paskirtis yra nustatyti reguliarių duomenų šablonų pradinę liniją ir nustatyti anomalijas ar iškrypimus.
Automatinio kodavimo įrenginio struktūra dažnai yra simetriška, o paslėpti sluoksniai išdėstyti taip, kad tinklo išvestis būtų panaši į įvestį. Keturių tipų automatiniai kodavimo įrenginiai, kurie dažnai naudojami:
- Įprasti/paprasti automatiniai kodavimo įrenginiai
- Daugiasluoksniai kodavimo įrenginiai
- Konvoliuciniai kodavimo įrenginiai
- Sureguliuoti kodavimo įrenginiai
Įprasti / paprasti automatiniai kodavimo įrenginiai yra tik neuroniniai tinklai su vienu paslėptu sluoksniu, o daugiasluoksniai automatiniai kodavimo įrenginiai yra gilieji tinklai su daugiau nei vienu paslėptu sluoksniu. Konvoliuciniai automatiniai kodavimo įrenginiai naudoja konvoliucinius sluoksnius vietoj visiškai sujungtų sluoksnių arba prie jų. Sureguliuoti automatiniai kodavimo įrenginiai naudoja tam tikros rūšies praradimo funkciją, leidžiančią neuroniniam tinklui atlikti sudėtingesnes funkcijas, funkcijas, kurios nėra tik įvesties į išvestis kopijavimas.
Generatyvūs priešpriešiniai tinklai
Generative Adversarial Networks (GAN) iš tikrųjų yra keli gilieji neuroniniai tinklai, o ne vienas tinklas. Vienu metu mokomi du gilaus mokymosi modeliai, o jų rezultatai perduodami kitam tinklui. Tinklai konkuruoja vienas su kitu ir, kadangi jie gauna prieigą prie vienas kito išvesties duomenų, jie abu mokosi iš šių duomenų ir tobulėja. Abu tinklai iš esmės žaidžia padirbinėjimo ir aptikimo žaidimą, kur generatyvusis modelis bando sukurti naujus atvejus, kurie suklaidins detektyvinį modelį / diskriminatorių. GAN išpopuliarėjo kompiuterinio matymo srityje.
Gilaus mokymosi santrauka
Gilus mokymasis išplečia neuroninių tinklų principus, kad būtų sukurti sudėtingi modeliai, galintys išmokti sudėtingų modelių ir apibendrinti tuos modelius būsimiems duomenų rinkiniams. Konvoliuciniai neuroniniai tinklai naudojami vaizdams interpretuoti, o RNN / LSTM naudojami nuosekliems duomenims interpretuoti. Automatiniai kodavimo įrenginiai gali paversti neprižiūrimas mokymosi užduotis prižiūrimomis mokymosi užduotimis. Galiausiai, GAN yra keli vienas prieš kitą susikertantys tinklai, kurie ypač naudingi atliekant kompiuterinio matymo užduotis.
Tinklaraštininkas ir programuotojas, turintis specialybių Mašininis mokymasis ir Gilus mokymasis temomis. Danielis tikisi padėti kitiems panaudoti AI galią socialinei gerovei.
Jums gali patikti
„AniPortrait“: garsu pagrįsta fotorealistinio portreto animacijos sintezė
AI vidinis dialogas: kaip savirefleksija pagerina pokalbių robotus ir virtualius asistentus
Momentinis stilius: stiliaus išsaugojimas kuriant tekstą į vaizdą
LoReFT: Representation Finetuning for Language Models
Be paieškos sistemų: LLM valdomų žiniatinklio naršymo agentų augimas
Arlington, VA: atsiranda kaip naujas AI inovacijų galiūnas