Umělá inteligence
Je stále tradiční strojové učení relevantní?

V posledních letech ukázala generativní umělá inteligence slibné výsledky při řešení složitých úloh umělé inteligence. Moderní modely AI, jako ChatGPT, Bard, LLaMA, DALL-E.3, a SAM prokázaly pozoruhodné schopnosti při řešení multidisciplinárních problémů, jako je vizuální otázka a odpověď, segmentace, myšlení a generování obsahu.
Navíc se objevily techniky multimodálního AI, které jsou schopné zpracovávat několik typů dat současně, tj. text, obrázky, audio a videa. S těmito pokroky je přirozené se ptát: blížíme se ke konci tradičního strojového učení (ML)?
V tomto článku se podíváme na stav tradičního strojového učení v souvislosti s moderními inovacemi generativní AI.
Co je tradiční strojové učení? – Jaké jsou jeho omezení?
Tradiční strojové učení je široký pojem, který zahrnuje mnoho algoritmů, které jsou primárně řízeny statistikou. Dva hlavní typy tradičních algoritmů ML jsou dozorované a nedozorované. Tyto algoritmy jsou navrženy tak, aby vyvinuly modely z strukturovaných datových sad.
Standardní tradiční algoritmy strojového učení zahrnují:
- Algoritmy regrese, jako je lineární, lasso a ridge.
- K-means Clustering.
- Principal Component Analysis (PCA).
- Support Vector Machines (SVM).
- Stromové algoritmy, jako jsou rozhodovací stromy a náhodný les.
- Modely zesílení, jako je gradient zesílení a XGBoost.
Omezení tradičního strojového učení
Tradiční ML má následující omezení:
- Omezená škálovatelnost: Tyto modely často potřebují pomoc při škálování s velkými a rozmanitými datovými sadami.
- Úprava dat a inženýrství funkcí: Tradiční ML vyžaduje rozsáhlou úpravu, aby transformovala datové sady podle požadavků modelu. Kromě toho může inženýrství funkcí být časově náročné a vyžaduje několik iterací, aby zachytilo komplexní vztahy mezi funkcemi dat.
- Vysokodimenzionální a nestrukturovaná data: Tradiční ML má potíže s komplexními typy dat, jako jsou obrázky, audio, videa a dokumenty.
- Adaptabilita na neviditelná data: Tyto modely nemusí být schopny dobře přizpůsobit se reálným datům, která nebyla součástí jejich trénovacích dat.
Neuronová síť: Přechod ze strojového učení na hluboké učení & dál

Modely neuronových sítí jsou mnohem složitější než tradiční modely strojového učení. Nejjednodušší NN – Multi-layer perceptron (MLP) se skládá z několika neuronů propojených вместе, aby pochopily informace a provedly úkoly, podobně jako funguje lidský mozek.
Pokroky v technikách neuronových sítí vytvořily základ pro přechod ze strojového učení na hluboké učení. Například NN používané pro úkoly počítačového vidění (objektové detekce a segmentace obrázků) se nazývají convolutional neural networks (CNNs), jako AlexNet, ResNet a YOLO.
Dnes technologie generativní AI posouvá techniky neuronových sítí o krok dále, aby vynikla v různých oblastech AI. Například neuronové sítě používané pro úkoly zpracování přirozeného jazyka (jako shrnutí textu, otázka a odpověď a překlad) se nazývají transforméry. Významné modely transformérů zahrnují BERT, GPT-4 a T5. Tyto modely mají dopad na odvětví, jako je zdravotnictví, maloobchod, marketing, finance atd.
Potřebujeme stále tradiční algoritmy strojového učení?

I když neuronové sítě a jejich moderní varianty, jako jsou transforméry, získaly velkou pozornost, tradiční metody ML zůstávají důležité. Podívejme se, proč jsou stále relevantní.
1. Jednodušší požadavky na data
Neuronové sítě vyžadují velké datové sady pro trénování, zatímco modely ML mohou dosáhnout významných výsledků s menšími a jednoduššími datovými sadami. Proto je ML upřednostňován před hlubokým učením pro menší strukturované datové sady a naopak.
2. Jednoduchost a interpretovatelnost
Tradiční modely strojového učení jsou postaveny na jednodušších statistických a pravděpodobnostních modelech. Například nejlepší-fit linie v lineární regresi stanoví vztah mezi vstupem a výstupem pomocí metody nejmenších čtverců, což je statistická operace.
Podobně rozhodovací stromy využívají pravděpodobnostních principů pro klasifikaci dat. Použití těchto principů nabízí interpretovatelnost a usnadňuje AI praktikům pochopit fungování algoritmů ML.
Moderní architektury NN, jako jsou transforméry a difúzní modely (obvykle používané pro generování obrázků, jako Stable Diffusion nebo Midjourney), mají složitou vícestupňovou strukturu. Pochopení těchto sítí vyžaduje znalost pokročilých matematických konceptů. Proto se také nazývají “černé skříňky”.
3. Efektivita zdrojů
Moderní neuronové sítě, jako jsou velké jazykové modely (LLM), jsou trénovány na clusterech drahých GPU podle svých výpočetních požadavků. Například GPT4 byl údajně trénován na 25000 Nvidia GPU po dobu 90 až 100 dní.
Nicméně drahé hardwarové a dlouhé trénovací časy nejsou pro každého praktika nebo AI tým proveditelné. Na druhé straně výpočetní efektivita tradičních algoritmů ML umožňuje praktikům dosáhnout významných výsledků i s omezenými zdroji.
4. Ne všechny problémy vyžadují hluboké učení
Hluboké učení není absolutním řešením pro všechny problémy. Existují určité scénáře, ve kterých ML překonává hluboké učení.
Například v medicínské diagnostice a prognóze s omezenými daty, algoritmus ML pro anomální detekci jako REMED poskytuje lepší výsledky než hluboké učení. Podobně je tradiční strojové učení významné v scénářích s nízkou výpočetní kapacitou jako flexibilné a efektivní řešení.
Primárně výběr nejlepšího modelu pro jakýkoli problém závisí na potřebách organizace nebo praktika a na povaze problému.
Strojové učení v roce 2023

Obrázek vygenerován pomocí Leonardo AI
V roce 2023 tradiční strojové učení pokračuje ve vývoji a soutěží s hlubokým učením a generativní AI. Má několik použití v odvětví, zejména při práci se strukturovanými datovými sadami.
Například mnoho rychlých spotřebních zboží (FMCG) společností pracuje s velkými množstvími tabulkových dat a spoléhá se na algoritmy ML pro kritické úkoly, jako je personalizovaná produktová doporučení, optimalizace cen, správa zásob a optimalizace dodavatelského řetězce.
Dále mnoho modelů vidění a jazyka je stále založeno na tradičních technikách a nabízí řešení v hybridních přístupech a vznikajících aplikacích. Například nedávná studie s názvem „Do We Really Need Deep Learning Models for Time Series Forecasting?“ diskutovala, jak gradient-boosting regresní stromy (GBRTs) jsou efektivnější pro časovou řetězovou předpověď než hluboké neuronové sítě.
Interpretovatelnost ML zůstává velmi cennou s technikami, jako je SHAP (Shapley Additive Explanations) a LIME (Local Interpretable Model-agnostic Explanations). Tyto techniky vysvětlují komplexní modely ML a poskytují informace o jejich předpovědích, a tak pomáhají praktikům ML lépe pochopit své modely.
Nakonec tradiční strojové učení zůstává robustním řešením pro různá odvětví, která řeší škálovatelnost, složitost dat a omezení zdrojů. Tyto algoritmy jsou nezbytné pro analýzu dat a prediktivní modelování a budou pokračovat jako součást nástrojů data scientista.
Pokud vás zajímají témata, jako je toto, prozkoumejte Unite AI pro další informace.










