stub Er traditionel maskinlæring stadig relevant? - Unite.AI
Følg os

Kunstig intelligens

Er traditionel maskinlæring stadig relevant?

mm

Udgivet

 on

Er traditionel maskinlæring stadig relevant?

I de senere år har Generative AI vist lovende resultater i løsning af komplekse AI-opgaver. Moderne AI-modeller som ChatGPT, Bard, Opkald, DALL-E.3og SAM har fremvist bemærkelsesværdige evner til at løse multidisciplinære problemer som visuel besvarelse af spørgsmål, segmentering, ræsonnement og indholdsgenerering.

I øvrigt, Multimodal AI Der er opstået teknikker, der er i stand til at behandle flere datamodaliteter, dvs. tekst, billeder, lyd og videoer samtidigt. Med disse fremskridt er det naturligt at undre sig: Nærmer vi os slutningen af traditionel maskinlæring (ML)?

I denne artikel vil vi se på tilstanden af ​​det traditionelle maskinlæringslandskab vedrørende moderne generative AI-innovationer.

Hvad er traditionel maskinlæring? – Hvad er dets begrænsninger?

Traditionel maskinlæring er et bredt begreb, der dækker over en bred vifte af algoritmer, primært drevet af statistik. De to hovedtyper af traditionelle ML-algoritmer er overvåget og uden opsyn. Disse algoritmer er designet til at udvikle modeller fra strukturerede datasæt.

Standard traditionelle maskinlæringsalgoritmer inkluderer:

  • Regressionsalgoritmer såsom lineær, lasso og ridge.
  • K-betyder Clustering.
  • Principal Component Analysis (PCA).
  • Support Vector Machines (SVM).
  • Træbaserede algoritmer som beslutningstræer og tilfældig skov.
  • Boosting modeller såsom gradient boosting og XGBoost.

Begrænsninger ved traditionel maskinlæring

Traditionel ML har følgende begrænsninger:

  1. Begrænset skalerbarhed: Disse modeller har ofte brug for hjælp til at skalere med store og forskelligartede datasæt.
  2. Dataforbehandling og funktionsteknik: Traditionel ML kræver omfattende forbehandling for at transformere datasæt i henhold til modelkrav. Funktionsudvikling kan også være tidskrævende og kræver flere iterationer for at fange komplekse relationer mellem datafunktioner.
  3. Højdimensionelle og ustrukturerede data: Traditionel ML kæmper med komplekse datatyper som billeder, lyd, videoer og dokumenter.
  4. Tilpasningsevne til usete data: Disse modeller tilpasser sig muligvis ikke godt til data fra den virkelige verden, som ikke var en del af deres træningsdata.

Neuralt netværk: Flytning fra Machine Learning til Deep Learning & Beyond

Neuralt netværk: Flytning fra Machine Learning til Deep Learning & Beyond

Neurale netværksmodeller (NN) er langt mere komplicerede end traditionelle Machine Learning-modeller. Den enkleste NN – Flerlagsperceptron (MLP) består af flere neuroner forbundet med hinanden for at forstå information og udføre opgaver, svarende til hvordan en menneskelig hjerne fungerer.

Fremskridt inden for neurale netværksteknikker har dannet grundlaget for overgangen fra maskinlæring til dyb læring. For eksempel kaldes NN, der bruges til computervisionsopgaver (objektdetektering og billedsegmentering). konvolutionelle neurale netværk (CNN'er), Såsom AlexNet, ResNetog YOLO.

I dag tager generativ AI-teknologi neurale netværksteknikker et skridt videre, hvilket gør det muligt for den at udmærke sig inden for forskellige AI-domæner. For eksempel er neurale netværk, der bruges til naturlige sprogbehandlingsopgaver (som tekstresumé, besvarelse af spørgsmål og oversættelse) kendt som transformers. Fremtrædende transformatormodeller omfatter BERTI, GPT-4og T5. Disse modeller skaber en indvirkning på brancher lige fra sundhedspleje, detailhandel, marketing, finansiereOsv

Har vi stadig brug for traditionelle maskinlæringsalgoritmer?

Har vi stadig brug for traditionelle maskinlæringsalgoritmer?

Mens neurale netværk og deres moderne varianter som transformere har fået meget opmærksomhed, er traditionelle ML-metoder stadig afgørende. Lad os se på, hvorfor de stadig er relevante.

1. Enklere datakrav

Neurale netværk kræver store datasæt til træning, hvorimod ML-modeller kan opnå betydelige resultater med mindre og enklere datasæt. Således foretrækkes ML frem for dyb læring for mindre strukturerede datasæt og omvendt.

2. Enkelhed og fortolkning

Traditionelle maskinlæringsmodeller er bygget oven på enklere statistiske og sandsynlighedsmodeller. For eksempel en best-fit line i lineær regression etablerer input-output forholdet ved hjælp af mindste kvadraters metode, en statistisk operation.

Tilsvarende gør beslutningstræer brug af probabilistiske principper til klassificering af data. Brugen af ​​sådanne principper giver mulighed for fortolkning og gør det lettere for AI-udøvere at forstå, hvordan ML-algoritmer fungerer.

Moderne NN-arkitekturer som transformator- og diffusionsmodeller (bruges typisk til billedgenerering som Stabil diffusion or midt på rejsen) har en kompleks flerlags netværksstruktur. Forståelse af sådanne netværk kræver forståelse af avancerede matematiske begreber. Derfor omtales de også som 'Black Boxes'.

3. Ressourceeffektivitet

Moderne neurale netværk som Large Language Models (LLM'er) trænes på klynger af dyre GPU'er i henhold til deres beregningskrav. For eksempel blev GPT4 angiveligt trænet på 25000 Nvidia GPU'er i 90 til 100 dage.

Men dyr hardware og langvarig træningstid er ikke muligt for enhver praktiserende læge eller AI-hold. På den anden side gør beregningseffektiviteten af ​​traditionelle maskinlæringsalgoritmer det muligt for praktikere at opnå meningsfulde resultater selv med begrænsede ressourcer.

4. Ikke alle problemer kræver dyb læring

Deep Learning er ikke den absolutte løsning på alle problemer. Der eksisterer visse scenarier, hvor ML overgår dyb læring.

For eksempel, i medicinsk diagnose og prognose med begrænset data, en ML-algoritme til afsløring af anomalier ligesom REMED leverer bedre resultater end dyb læring. På samme måde er traditionel maskinlæring vigtig i scenarier med lav beregningskapacitet som en fleksibel og effektiv løsning.

Primært afhænger valget af den bedste model til ethvert problem af organisationens eller behandlerens behov og arten af ​​det aktuelle problem.

Machine Learning i 2023

Machine Learning i 2023

Billede genereret vha Leonardo A.I.

I 2023 fortsætter traditionel maskinlæring med at udvikle sig og konkurrerer med deep learning og generativ AI. Det har flere anvendelser i industrien, især når det drejer sig om strukturerede datasæt.

For eksempel mange Hurtigt bevægende forbrugsvarer (FMCG) virksomheder håndterer store mængder af tabeldata baseret på ML-algoritmer til kritiske opgaver som personlige produktanbefalinger, prisoptimering, lagerstyring og forsyningskædeoptimering.

Yderligere mange vision og sprogmodeller er stadig baseret på traditionelle teknikker og tilbyder løsninger inden for hybride tilgange og nye applikationer. For eksempel en nylig undersøgelse med titlen "Har vi virkelig brug for Deep Learning-modeller til tidsserieprognoser?” har diskuteret, hvordan gradient-boosting regression trees (GBRT'er) er mere effektive til tidsserie prognose end dybe neurale netværk.

ML's fortolkbarhed forbliver meget værdifuld med teknikker som SHAP (Shapley Additive Explanations) og CITRON (Lokal fortolkelig model-agnostiske forklaringer). Disse teknikker forklarer komplekse ML-modeller og giver indsigt i deres forudsigelser, og hjælper dermed ML-udøvere med at forstå deres modeller endnu bedre.

Endelig forbliver traditionel maskinlæring en robust løsning til forskellige industrier, der adresserer skalerbarhed, datakompleksitet og ressourcebegrænsninger. Disse algoritmer er uerstattelige til dataanalyse og prædiktiv modellering og vil fortsat være en del af en data scientists arsenal.

Hvis emner som dette interesserer dig, så udforsk Foren AI for yderligere indsigt.