stub Er tradisjonell maskinlæring fortsatt relevant? - Unite.AI
Kontakt med oss

Kunstig intelligens

Er tradisjonell maskinlæring fortsatt relevant?

mm

Publisert

 on

Er tradisjonell maskinlæring fortsatt relevant?

De siste årene har Generativ AI vist lovende resultater når det gjelder å løse komplekse AI-oppgaver. Moderne AI-modeller som ChatGPT, Bard, Samtaler, DALL-E.3og SAM har vist frem bemerkelsesverdige evner i å løse tverrfaglige problemer som visuell besvarelse av spørsmål, segmentering, resonnement og innholdsgenerering.

Dessuten, Multimodal AI Det har dukket opp teknikker som er i stand til å behandle flere datamodaliteter, dvs. tekst, bilder, lyd og videoer samtidig. Med disse fremskrittene er det naturlig å lure på: Nærmer vi oss slutten av tradisjonell maskinlæring (ML)?

I denne artikkelen skal vi se på tilstanden til det tradisjonelle maskinlæringslandskapet angående moderne generative AI-innovasjoner.

Hva er tradisjonell maskinlæring? – Hva er dens begrensninger?

Tradisjonell maskinlæring er et bredt begrep som dekker et bredt spekter av algoritmer primært drevet av statistikk. De to hovedtypene av tradisjonelle ML-algoritmer er overvåket og uten tilsyn. Disse algoritmene er designet for å utvikle modeller fra strukturerte datasett.

Standard tradisjonelle maskinlæringsalgoritmer inkluderer:

  • Regresjonsalgoritmer som lineær, lasso og ridge.
  • K-betyr Clustering.
  • Hovedkomponentanalyse (PCA).
  • Støtte Vector Machines (SVM).
  • Trebaserte algoritmer som beslutningstrær og tilfeldig skog.
  • Forsterkende modeller som gradientforsterkning og Xgboost.

Begrensninger ved tradisjonell maskinlæring

Tradisjonell ML har følgende begrensninger:

  1. Begrenset skalerbarhet: Disse modellene trenger ofte hjelp til å skalere med store og mangfoldige datasett.
  2. Dataforbehandling og funksjonsteknikk: Tradisjonell ML krever omfattende forhåndsbehandling for å transformere datasett i henhold til modellkrav. Funksjonsteknikk kan også være tidkrevende og krever flere iterasjoner for å fange opp komplekse forhold mellom datafunksjoner.
  3. Høydimensjonale og ustrukturerte data: Tradisjonell ML sliter med komplekse datatyper som bilder, lyd, videoer og dokumenter.
  4. Tilpasningsevne til usynlige data: Disse modellene tilpasser seg kanskje ikke godt til data fra den virkelige verden som ikke var en del av deres treningsdata.

Nevralt nettverk: Flytte fra maskinlæring til dyp læring og utover

Nevralt nettverk: Flytte fra maskinlæring til dyp læring og utover

Nevrale nettverksmodeller (NN) er langt mer kompliserte enn tradisjonelle maskinlæringsmodeller. Den enkleste NN – Multi-layer perceptron (MLP) består av flere nevroner koblet sammen for å forstå informasjon og utføre oppgaver, som ligner på hvordan en menneskelig hjerne fungerer.

Fremskritt innen nevrale nettverksteknikker har dannet grunnlaget for overgangen fra maskinlæring til dyp læring. For eksempel kalles NN som brukes til datasynoppgaver (objektdeteksjon og bildesegmentering). konvolusjonelle nevrale nettverk (CNN), Eksempel AlexNet, ResNetog YOLO.

I dag tar generativ AI-teknologi nevrale nettverksteknikker ett skritt videre, slik at den kan utmerke seg på forskjellige AI-domener. For eksempel er nevrale nettverk som brukes til naturlige språkbehandlingsoppgaver (som tekstoppsummering, svar på spørsmål og oversettelse) kjent som transformers. Fremtredende transformatormodeller inkluderer BERTI, GPT-4og T5. Disse modellene skaper innvirkning på bransjer som spenner fra helsevesen, detaljhandel, markedsføring, finansiereOsv

Trenger vi fortsatt tradisjonelle maskinlæringsalgoritmer?

Trenger vi fortsatt tradisjonelle maskinlæringsalgoritmer?

Mens nevrale nettverk og deres moderne varianter som transformatorer har fått mye oppmerksomhet, er tradisjonelle ML-metoder fortsatt avgjørende. La oss se på hvorfor de fortsatt er relevante.

1. Enklere datakrav

Nevrale nettverk krever store datasett for trening, mens ML-modeller kan oppnå betydelige resultater med mindre og enklere datasett. Dermed er ML foretrukket fremfor dyp læring for mindre strukturerte datasett og omvendt.

2. Enkelhet og tolkbarhet

Tradisjonelle maskinlæringsmodeller er bygget på toppen av enklere statistiske og sannsynlighetsmodeller. For eksempel en best-fit linje i lineær regresjon etablerer input-output forholdet ved å bruke minste kvadraters metode, en statistisk operasjon.

På samme måte benytter beslutningstrær seg av sannsynlighetsprinsipper for klassifisering av data. Bruken av slike prinsipper gir tolkbarhet og gjør det lettere for AI-utøvere å forstå hvordan ML-algoritmer fungerer.

Moderne NN-arkitekturer som transformator- og diffusjonsmodeller (brukes vanligvis for bildegenerering som Stabil diffusjon or midt på reisen) har en kompleks flerlags nettverksstruktur. Å forstå slike nettverk krever forståelse av avanserte matematiske begreper. Det er derfor de også blir referert til som "Black Boxes".

3. Ressurseffektivitet

Moderne nevrale nettverk som Large Language Models (LLM) er trent på klynger av dyre GPUer i henhold til deres beregningskrav. For eksempel ble GPT4 angivelig trent på 25000 XNUMX Nvidia GPUer i 90 til 100 dager.

Imidlertid er dyr maskinvare og lang treningstid ikke mulig for alle utøvere eller AI-team. På den annen side lar beregningseffektiviteten til tradisjonelle maskinlæringsalgoritmer utøvere oppnå meningsfulle resultater selv med begrensede ressurser.

4. Ikke alle problemer trenger dyp læring

Dyp læring er ikke den absolutte løsningen for alle problemer. Det finnes visse scenarier der ML utkonkurrerer dyp læring.

For eksempel, i medisinsk diagnose og prognose med begrenset data, en ML-algoritme for anomali påvisning som REMED gir bedre resultater enn dyp læring. På samme måte er tradisjonell maskinlæring viktig i scenarier med lav beregningskapasitet som en fleksibel og effektiv løsning.

Primært avhenger valget av den beste modellen for ethvert problem av behovene til organisasjonen eller utøveren og arten av problemet.

Maskinlæring i 2023

Maskinlæring i 2023

Bilde generert ved hjelp av Leonardo Ai

I 2023 fortsetter tradisjonell maskinlæring å utvikle seg og konkurrerer med dyp læring og generativ AI. Det har flere bruksområder i bransjen, spesielt når det gjelder strukturerte datasett.

For eksempel mange Rask bevegelige forbruksvarer (FMCG) selskaper håndterer mengder av tabelldata basert på ML-algoritmer for kritiske oppgaver som personlige produktanbefalinger, prisoptimalisering, lagerstyring og forsyningskjedeoptimalisering.

Videre mange syn og språkmodeller er fortsatt basert på tradisjonelle teknikker, og tilbyr løsninger innen hybride tilnærminger og nye applikasjoner. For eksempel, en fersk studie med tittelen "Trenger vi virkelig dyplæringsmodeller for tidsserieprognoser?” har diskutert hvordan gradient-boosting regresjonstrær (GBRTs) er mer effektive for prognose for tidsserier enn dype nevrale nettverk.

MLs tolkbarhet er fortsatt svært verdifull med teknikker som SHAP (Shapley Additive Explanations) og LIME (Lokale tolkbare modellagnostiske forklaringer). Disse teknikkene forklarer komplekse ML-modeller og gir innsikt om deres spådommer, og hjelper dermed ML-utøvere å forstå modellene deres enda bedre.

Til slutt er tradisjonell maskinlæring fortsatt en robust løsning for ulike bransjer som adresserer skalerbarhet, datakompleksitet og ressursbegrensninger. Disse algoritmene er uerstattelige for dataanalyse og prediktiv modellering og vil fortsette å være en del av en dataforskers arsenal.

Hvis emner som dette fascinerer deg, utforsk Foren AI for ytterligere innsikt.