stub Czy tradycyjne uczenie maszynowe jest nadal aktualne? - Unite.AI
Kontakt z nami

Artificial Intelligence

Czy tradycyjne uczenie maszynowe jest nadal aktualne?

mm

Opublikowany

 on

Czy tradycyjne uczenie maszynowe jest nadal aktualne?

W ostatnich latach generatywna sztuczna inteligencja wykazała obiecujące wyniki w rozwiązywaniu złożonych zadań AI. Nowoczesne modele AI, takie jak ChatGPT, Bard, Lama, DALL-E.3, SAM wykazały niezwykłe zdolności w rozwiązywaniu problemów multidyscyplinarnych, takich jak wizualne odpowiadanie na pytania, segmentacja, rozumowanie i generowanie treści.

Co więcej, Multimodalna sztuczna inteligencja pojawiły się techniki umożliwiające jednoczesne przetwarzanie wielu modalności danych, tj. tekstu, obrazów, dźwięku i wideo. W obliczu tych postępów naturalne jest pytanie: czy zbliżamy się do końca? tradycyjne uczenie maszynowe (ML)?

W tym artykule przyjrzymy się stanowi tradycyjnego krajobrazu uczenia maszynowego w odniesieniu do nowoczesnych innowacji generatywnych AI.

Co to jest tradycyjne uczenie maszynowe? – Jakie są jego ograniczenia?

Tradycyjne uczenie maszynowe to szerokie pojęcie obejmujące szeroką gamę algorytmów opartych głównie na statystykach. Dwa główne typy tradycyjnych algorytmów ML to nadzorowane i nienadzorowane. Algorytmy te służą do tworzenia modeli na podstawie ustrukturyzowanych zbiorów danych.

Standardowe tradycyjne algorytmy uczenia maszynowego obejmują:

  • Algorytmy regresji, takie jak liniowy, lasso i grzbietowy.
  • K-oznacza grupowanie.
  • Analiza głównych składowych (PCA).
  • Maszyny wektorów nośnych (SVM).
  • Algorytmy oparte na drzewach, takie jak drzewa decyzyjne i las losowy.
  • Wzmocnienie modeli, takich jak wzmocnienie gradientu i XGBoost.

Ograniczenia tradycyjnego uczenia maszynowego

Tradycyjny ML ma następujące ograniczenia:

  1. Ograniczona skalowalność: Modele te często wymagają pomocy w skalowaniu w przypadku dużych i zróżnicowanych zbiorów danych.
  2. Wstępne przetwarzanie danych i inżynieria funkcji: Tradycyjne uczenie maszynowe wymaga obszernego przetwarzania wstępnego w celu przekształcenia zbiorów danych zgodnie z wymaganiami modelu. Ponadto inżynieria cech może być czasochłonna i wymaga wielu iteracji w celu uchwycenia złożonych relacji między cechami danych.
  3. Dane wielkowymiarowe i nieustrukturyzowane: Tradycyjne ML zmaga się ze złożonymi typami danych, takimi jak obrazy, audio, wideo i dokumenty.
  4. Możliwość dostosowania do niewidocznych danych: Modele te mogą nie dostosowywać się dobrze do danych ze świata rzeczywistego, które nie były ich częścią dane treningowe.

Sieć neuronowa: przejście od uczenia maszynowego do głębokiego uczenia się i nie tylko

Sieć neuronowa: przejście od uczenia maszynowego do głębokiego uczenia się i nie tylko

Modele sieci neuronowych (NN) są znacznie bardziej skomplikowane niż tradycyjne modele uczenia maszynowego. Najprostszy NN – Perceptron wielowarstwowy (MLP) składa się z kilku neuronów połączonych ze sobą w celu rozumienia informacji i wykonywania zadań, podobnie jak funkcjonuje ludzki mózg.

Postępy w technikach sieci neuronowych stworzyły podstawę do przejścia od uczenia maszynowego do głębokiego uczenia się. Na przykład nazywane są NN używane do zadań widzenia komputerowego (wykrywanie obiektów i segmentacja obrazu). konwolucyjne sieci neuronowe (CNN), Takie jak AlexNet, ResNet, YOLO.

Obecnie technologia generatywnej sztucznej inteligencji posuwa techniki sieci neuronowych o krok dalej, umożliwiając jej osiągnięcie doskonałości w różnych dziedzinach sztucznej inteligencji. Na przykład sieci neuronowe wykorzystywane do zadań związanych z przetwarzaniem języka naturalnego (takich jak podsumowywanie tekstu, odpowiadanie na pytania i tłumaczenie) są znane jako Transformatory. Wybitne modele transformatorów obejmują BERTI, GPT-4, T5. Modele te wywierają wpływ na różne branże, od opieki zdrowotnej, handlu detalicznego, marketingu, finansować, itp.

Czy nadal potrzebujemy tradycyjnych algorytmów uczenia maszynowego?

Czy nadal potrzebujemy tradycyjnych algorytmów uczenia maszynowego?

Chociaż sieci neuronowe i ich nowoczesne warianty, takie jak transformatory, cieszą się dużym zainteresowaniem, tradycyjne metody ML pozostają kluczowe. Przyjrzyjmy się, dlaczego są one nadal aktualne.

1. Prostsze wymagania dotyczące danych

Sieci neuronowe wymagają dużych zbiorów danych do szkolenia, podczas gdy modele ML mogą osiągnąć znaczące wyniki przy użyciu mniejszych i prostszych zbiorów danych. Dlatego ML jest preferowane w porównaniu z głębokim uczeniem się w przypadku mniejszych ustrukturyzowanych zbiorów danych i odwrotnie.

2. Prostota i interpretowalność

Tradycyjne modele uczenia maszynowego opierają się na prostszych modelach statystycznych i prawdopodobnych. Na przykład najlepiej dopasowana linia regresji liniowej ustala relację wejście-wyjście przy użyciu metody najmniejszych kwadratów, czyli operacji statystycznej.

Podobnie drzewa decyzyjne wykorzystują zasady probabilistyczne do klasyfikacji danych. Stosowanie takich zasad zapewnia interpretowalność i ułatwia praktykom AI zrozumienie działania algorytmów uczenia maszynowego.

Nowoczesne architektury NN, takie jak modele transformatorów i dyfuzji (zwykle używane do generowania obrazu, np Stabilna dyfuzja or W połowie drogi) mają złożoną wielowarstwową strukturę sieci. Zrozumienie takich sieci wymaga zrozumienia zaawansowanych koncepcji matematycznych. Dlatego też określa się je mianem „czarnych skrzynek”.

3. Efektywność zasobów

Nowoczesne sieci neuronowe, takie jak modele dużych języków (LLM), są szkolone na klastrach drogich procesorów graficznych zgodnie z ich wymaganiami obliczeniowymi. Podobno szkolono na przykład GPT4 25000 XNUMX procesorów graficznych Nvidia przez 90 do 100 dni.

Jednak drogi sprzęt i długi czas szkolenia nie są możliwe dla każdego praktyka lub zespołu AI. Z drugiej strony wydajność obliczeniowa tradycyjnych algorytmów uczenia maszynowego pozwala praktykom osiągać znaczące wyniki nawet przy ograniczonych zasobach.

4. Nie wszystkie problemy wymagają głębokiej nauki

głęboki Learning nie jest absolutnym rozwiązaniem wszystkich problemów. Istnieją pewne scenariusze, w których ML przewyższa głębokie uczenie się.

Na przykład w diagnostyka medyczna i rokowanie z ograniczonymi danymi, algorytm ML dla wykrywanie anomalii podobnie jak REMED zapewnia lepsze rezultaty niż głębokie uczenie się. Podobnie tradycyjne uczenie maszynowe jest istotne w scenariuszach o niskiej mocy obliczeniowej, np elastyczne i wydajne rozwiązanie.

Przede wszystkim wybór najlepszego modelu dla dowolnego problemu zależy od potrzeb organizacji lub praktyka oraz charakteru rozpatrywanego problemu.

Uczenie maszynowe w 2023 r

Uczenie maszynowe w 2023 r

Obraz wygenerowany przy użyciu AI Leonarda

W 2023 r. tradycyjne uczenie maszynowe będzie nadal ewoluować i konkurować z głębokim uczeniem się i generatywną sztuczną inteligencją. Ma kilka zastosowań w branży, szczególnie w przypadku ustrukturyzowanych zbiorów danych.

Na przykład wiele Szybko zbywalne towary konsumpcyjne (FMCG) firmy radzą sobie z dużą ilością danych tabelarycznych, opierając się na algorytmach ML w przypadku kluczowych zadań, takich jak spersonalizowane rekomendacje produktów, optymalizacja cen, zarządzanie zapasami i optymalizacja łańcucha dostaw.

Dalej, wielu modele widzenia i języka nadal opierają się na tradycyjnych technikach, oferując rozwiązania w podejściu hybrydowym i nowych zastosowaniach. Na przykład niedawne badanie zatytułowane „Czy naprawdę potrzebujemy modeli głębokiego uczenia się do prognozowania szeregów czasowych?” omówiono, w jaki sposób drzewa regresji wzmacniającej gradient (GBRT) są bardziej efektywne prognozowanie szeregów czasowych niż głębokie sieci neuronowe.

Możliwość interpretacji ML pozostaje bardzo cenna w przypadku technik takich jak KSZTAŁT (Wyjaśnienia dodatku Shapleya) i LIME (Wyjaśnienia niezależne od lokalnego, interpretowalnego modelu). Techniki te wyjaśniają złożone modele uczenia maszynowego i dostarczają wglądu w ich przewidywania, pomagając w ten sposób praktykom ML jeszcze lepiej zrozumieć ich modele.

Wreszcie tradycyjne uczenie maszynowe pozostaje solidnym rozwiązaniem dla różnych branż, które uwzględniają skalowalność, złożoność danych i ograniczenia zasobów. Algorytmy te są niezastąpione w analizie danych i modelowaniu predykcyjnym i nadal będą częścią arsenał analityka danych.

Jeśli intrygują Cię takie tematy, eksploruj je Zjednocz sztuczną inteligencję dla dalszych informacji.