Myslitelé
Jak můžeme použít hluboké učení s malými daty? – Thought Leaders

Když se jedná o udržování kroků s novými trendy v oblasti kybernetické bezpečnosti, proces udržování se v obraze všech nedávných vývojů může být quite zdlouhavý, protože je mnoho zpráv, které je třeba sledovat. V posledních dnech se však situace dramaticky změnila, protože oblasti kybernetické bezpečnosti se zdají být zaměřeny na dvě slova – hluboké učení.
Ačkoli jsme byli inicialně překvapeni rozsáhlým pokrytím, které hluboké učení dostávalo, brzy se stalo zřejmým, že buzz generovaný hlubokým učením byl dobře zasloužený. Podobně jako lidský mozek umožňuje hluboké učení modelu AI dosáhnout vysoce přesných výsledků tím, že provádí úkoly přímo z textu, obrázků a audio signálů.
Do tohoto bodu se široce věřilo, že hluboké učení závisí na obrovském souboru dat, podobném rozsahu dat, který mají společnosti jako Google a Facebook, aby dosáhly cíle řešení nejkomplikovanějších problémů v rámci organizace. Naopak se však domníváme, že podniky mohou využít sílu hlubokého učení, i když mají přístup pouze k omezenému datovému fondu.
V rámci našeho úsilí pomoci našim čtenářům vybavit své organizace hlubokým učením, jsme sestavili článek, který se hluboce (bez záměru) ponoří do některých způsobů, jak podniky mohou využít výhody hlubokého učení, navzdory omezenému přístupu k datům.
Ale předtím, než se můžeme ponořit do hlavního článku, bychom rádi učinili malý, ale velmi důležitý návrh – začněte jednoduše. Předtím, než začnete vytvářet neuronové sítě komplexní enough, aby se objevily ve sci-fi filmu, začněte experimentovat s několika jednoduchými a konvenčními modely (například random forest), abyste získali pocit ze softwaru.
S tím, co máme nyní, pojďme se podívat na některé způsoby, jak podniky mohou integrovat technologii hlubokého učení, zatímco mají přístup k omezeným datům.
#1 – Jemné ladění základního modelu:
Jak jsme již zmínili výše, prvním krokem, který podniky musí učinit po vytvoření jednoduchého základního modelu hlubokého učení, je jemné ladění pro konkrétní problém, který je třeba řešit.
Nicméně, jemné ladění základního modelu zní mnohem složitěji na papíru, než ve skutečnosti je. Základní myšlenka za jemným laděním velkého datového souboru, aby vyhovoval konkrétním potřebám podniku, je jednoduchá – vezmete velký datový soubor, který má some podobnost s doménou, ve které fungujete, a pak jemně ladíte detaily původního datového souboru s vaším omezeným datem.
Pokud jde o získání velkého datového souboru, majitelé podniků se mohou spolehnout na ImageNet, který poskytuje také snadné řešení problémů s klasifikací obrázků. Datový soubor hostovaný ImageNet poskytuje organizacím přístup k milionům obrázků, které jsou rozděleny do různých tříd obrázků, což může být užitečné pro podniky z různých domén, včetně, ale nejen obrázků zvířat, atd.
Pokud proces jemného ladění předem vytvořeného modelu pro konkrétní potřeby vaší organizace stále vypadá jako příliš mnoho práce pro vás, doporučujeme hledat pomoc na internetu, protože jednoduchý vyhledávací dotaz na Google poskytne stovky tutoriálů, jak jemně ladit datový soubor.
#2 – Shromáždit více dat:
Ačkoli druhý bod na našem seznamu může vypadat zbytečně pro některé naše více skeptické čtenáře, skutečnost je, že když se jedná o hluboké učení, čím větší je váš datový soubor, tím více pravděpodobně dosáhnete přesnějších výsledků.
Ačkoli samotná podstata tohoto článku spočívá v poskytování podnikům s omezeným datovým souborem, setkali jsme se s mnoha “vyššími” osobami, které považují investice do sběru dat za rovnocenné s porušením základních pravidel.
Často se stává, že podniky přehlížejí výhody, které hluboké učení nabízí, prostě proto, že jsou neochotné investovat čas a úsilí do sběru dat. Pokud vaše organizace není jistá, kolik dat je třeba shromáždit, doporučujeme vykreslit křivky učení, jak jsou nová data integrována do modelu, a pozorovat změnu ve výkonu modelu.
Naopak nežli se domnívá většina CSO a CISO, někdy nejlepší způsob, jak řešit problémy, je shromáždit více relevantních dat. Role CSO a CISO je v tomto případě非常 důležitá, protože existuje vždy hrozba kybernetických útoků. Bylo zjištěno, že v roce 2019 celkové globální výdaje na kybernetickou bezpečnost dosáhly 103,1 miliardy dolarů, a číslo stále roste. Abychom to uvedli do perspektivy, pojďme si představit jednoduchý příklad – představte si, že se snažíte klasifikovat vzácné diamanty, ale máte přístup pouze k omezenému datovému souboru. Jako nejzjevnější řešení problému, místo aby jste měli radost s základním modelem, prostě shromážděte více dat!
#3 – Augmentace dat:
Ačkoli první dva body, které jsme diskutovali výše, jsou obě vysoce efektivní v poskytování snadného řešení většiny problémů souvisejících s implementací hlubokého učení do podniků s omezeným datovým souborem, silně závisí na určité úrovni štěstí, aby se práce provedla.
Pokud nemáte žádný úspěch s jemným laděním předem vytvořeného datového souboru, doporučujeme pokusit se o augmentaci dat. Způsob, jakým augmentace dat funguje, je jednoduchý. Prostřednictvím procesu augmentace dat se vstupní datový soubor mění, nebo augmentuje, takovým způsobem, že poskytuje nový výstup, aniž by se změnila hodnota štítku.
Abychom uvedli myšlenku augmentace dat do perspektivy pro naše čtenáře, pojďme si představit obrázek psa. Když je obrázek otočen, divák obrázku bude stále moci říci, že je to obrázek psa. To je přesně to, co dobrá augmentace dat chce dosáhnout, na rozdíl od otočeného obrázku cesty, který mění úhel elevace a nechává mnoho prostoru pro hluboké učení, aby dospělo k nesprávnému závěru, a porazí účel implementace hlubokého učení.
Když se jedná o řešení problémů souvisejících s klasifikací obrázků, augmentace dat slouží jako klíčový hráč v oblasti a hostí řadu technik augmentace dat, které pomáhají hlubokému učení modelu získat hluboké pochopení různých klasifikací obrázků.
Navíc, když se jedná o augmentaci dat – možnosti jsou prakticky neomezené. Podniky mohou implementovat augmentaci dat mnoha způsoby, včetně NLP a experimentování s GAN, které umožňuje algoritmu generovat nová data.
#4 – Implementace ensemble efektu:
Technologie hlubokého učení diktuje, že síť je postavena na několika vrstvách. Nicméně, na rozdíl od široce držené víry mnoha, spíše než pohlížet na každou vrstvu jako na “stále se zvyšující” hierarchii funkcí, konečná vrstva slouží jako ensemble mechanismus.
Věření, že podniky s přístupem k omezenému, nebo menším datovému souboru by měly zvolit postavení svých sítí hlubokých, bylo také sdíleno v NIPs papíru, který odrážel víru, kterou jsme vyjádřili výše. Podniky s malými daty mohou snadno manipulovat s ensemble efektem ve svůj prospěch, simplemente postavením svých hlubokých učení sítí hlubokých, prostřednictvím jemného ladění nebo některé jiné alternativy.
#5 – Inkorporace autoencoderů:
Ačkoli pátý bod, který jsme zvažovali, získal pouze relativní úroveň úspěchu – jsme stále pro použití autoencoderů, aby se předem naučily a inicializovaly sítě.
Jedním z největších důvodů, proč podniky selhávají při překonání počátečních překážek integrace hlubokého učení, je špatná inicializace a její mnoho pastí. Nesupervizovaná předem učení často vede k špatnému, nebo nesprávnému provedení hlubokého učení, což je tam, kde autoencodery mohou vyniknout.
Základní myšlenka za neuronovou sítí diktuje vytvoření neuronové sítě, která predikuje povahu vstupního datového souboru. Pokud si nejste jisti, jak použít autoencoder, existují several tutoriály online, které poskytují jasná instrukce.
Závěrem:
Na konci článku bychom rádi zopakovali, co jsme řekli po celý článek, s jedním přidáním – inkorporace doménově specifických znalostí do procesu učení! Nejen, že inkorporace cenných poznatků urychluje proces učení, ale také umožňuje hlubokému učení technologii produkovat lepší a přesnější výsledky.












