stub Är traditionell maskininlärning fortfarande relevant? - Unite.AI
Anslut dig till vårt nätverk!

Artificiell intelligens

Är traditionell maskininlärning fortfarande relevant?

mm

publicerade

 on

Är traditionell maskininlärning fortfarande relevant?

Generativ AI har de senaste åren visat lovande resultat för att lösa komplexa AI-uppgifter. Moderna AI-modeller som ChatGPT, Bard, Lama, DALL-E.3och SAM har visat upp enastående förmåga att lösa multidisciplinära problem som visuellt svar på frågor, segmentering, resonemang och innehållsgenerering.

Dessutom, Multimodal AI tekniker har dykt upp som kan bearbeta flera datamodaliteter, dvs text, bilder, ljud och videor samtidigt. Med dessa framsteg är det naturligt att undra: Närmar vi oss slutet av traditionell maskininlärning (ML)?

I den här artikeln kommer vi att titta på tillståndet för det traditionella maskininlärningslandskapet när det gäller moderna generativa AI-innovationer.

Vad är traditionell maskininlärning? – Vilka är dess begränsningar?

Traditionell maskininlärning är ett brett begrepp som täcker en mängd olika algoritmer som främst drivs av statistik. De två huvudtyperna av traditionella ML-algoritmer är övervakad och oövervakad. Dessa algoritmer är designade för att utveckla modeller från strukturerade datamängder.

Vanliga traditionella maskininlärningsalgoritmer inkluderar:

  • Regressionsalgoritmer som linjär, lasso och ridge.
  • K-betyder Clustering.
  • Principal Component Analysis (PCA).
  • Stöd för Vector Machines (SVM).
  • Trädbaserade algoritmer som beslutsträd och slumpmässig skog.
  • Boosting modeller som gradient boosting och XGBoost.

Begränsningar för traditionell maskininlärning

Traditionell ML har följande begränsningar:

  1. Begränsad skalbarhet: Dessa modeller behöver ofta hjälp att skala med stora och olika datauppsättningar.
  2. Dataförbearbetning och funktionsteknik: Traditionell ML kräver omfattande förbearbetning för att transformera datauppsättningar enligt modellkrav. Funktionsteknik kan också vara tidskrävande och kräver flera iterationer för att fånga komplexa relationer mellan datafunktioner.
  3. Högdimensionella och ostrukturerade data: Traditionell ML kämpar med komplexa datatyper som bilder, ljud, videor och dokument.
  4. Anpassningsförmåga till osynliga data: Dessa modeller kanske inte anpassar sig väl till verkliga data som inte var en del av deras träningsdata.

Neuralt nätverk: Att gå från maskininlärning till djupinlärning & bortom

Neuralt nätverk: Att gå från maskininlärning till djupinlärning & bortom

Neural nätverksmodeller (NN) är mycket mer komplicerade än traditionella maskininlärningsmodeller. Den enklaste NN – Flerskiktsperceptron (MLP) består av flera neuroner kopplade till varandra för att förstå information och utföra uppgifter, liknande hur en mänsklig hjärna fungerar.

Framsteg inom neurala nätverkstekniker har legat till grund för övergången från maskininlärning till djupinlärning. Till exempel kallas NN som används för datorseende uppgifter (objektdetektering och bildsegmentering). konvolutionella neurala nätverk (CNN), Såsom AlexNet, ResNetoch YOLO.

Idag tar generativ AI-teknik tekniker för neurala nätverk ett steg längre, vilket gör att den kan utmärka sig inom olika AI-domäner. Till exempel är neurala nätverk som används för naturliga språkbehandlingsuppgifter (som textsammanfattning, frågesvar och översättning) kända som transformatorer. Framstående transformatormodeller inkluderar BERTI, GPT-4och T5. Dessa modeller skapar en inverkan på branscher som sträcker sig från hälsovård, detaljhandel, marknadsföring, finansieringEtc.

Behöver vi fortfarande traditionella maskininlärningsalgoritmer?

Behöver vi fortfarande traditionella maskininlärningsalgoritmer?

Medan neurala nätverk och deras moderna varianter som transformatorer har fått mycket uppmärksamhet, är traditionella ML-metoder fortfarande avgörande. Låt oss titta på varför de fortfarande är relevanta.

1. Enklare datakrav

Neurala nätverk kräver stora datauppsättningar för träning, medan ML-modeller kan uppnå betydande resultat med mindre och enklare datauppsättningar. Således gynnas ML framför djupinlärning för mindre strukturerade datamängder och vice versa.

2. Enkelhet och tolkningsbarhet

Traditionella maskininlärningsmodeller byggs ovanpå enklare statistiska och sannolikhetsmodeller. Till exempel en bäst passande linje in linjär regression etablerar input-output-förhållandet med hjälp av minsta kvadratmetoden, en statistisk operation.

På liknande sätt använder beslutsträd probabilistiska principer för att klassificera data. Användningen av sådana principer erbjuder tolkningsmöjligheter och gör det lättare för AI-utövare att förstå hur ML-algoritmer fungerar.

Moderna NN-arkitekturer som transformator- och diffusionsmodeller (används vanligtvis för bildgenerering som Stabil diffusion or midjourney) har en komplex nätverksstruktur i flera lager. Att förstå sådana nätverk kräver förståelse för avancerade matematiska begrepp. Det är därför de också kallas "Black Boxes".

3. Resurseffektivitet

Moderna neurala nätverk som Large Language Models (LLM) tränas på kluster av dyra GPU: er enligt deras beräkningskrav. Till exempel har GPT4 enligt uppgift tränats på 25000 XNUMX Nvidia GPU:er i 90 till 100 dagar.

Men dyr hårdvara och lång träningstid är inte genomförbart för alla utövare eller AI-team. Å andra sidan tillåter beräkningseffektiviteten hos traditionella maskininlärningsalgoritmer utövare att uppnå meningsfulla resultat även med begränsade resurser.

4. Alla problem behöver inte djupinlärning

Deep Learning är inte den absoluta lösningen för alla problem. Det finns vissa scenarier där ML överträffar djupinlärning.

Till exempel i medicinsk diagnos och prognos med begränsad data, en ML-algoritm för avvikelse av anomali som REMED ger bättre resultat än djupinlärning. På liknande sätt är traditionell maskininlärning betydelsefull i scenarier med låg beräkningskapacitet flexibel och effektiv lösning.

I första hand beror valet av den bästa modellen för alla problem på organisationens eller läkarens behov och typen av problemet.

Maskininlärning 2023

Maskininlärning 2023

Bild genererad med hjälp av Leonardo A.I.

År 2023 fortsätter traditionell maskininlärning att utvecklas och konkurrerar med djupinlärning och generativ AI. Det har flera användningsområden i branschen, särskilt när det handlar om strukturerade datamängder.

Till exempel många Snabbrörliga konsumentvaror (FMCG) företag hanterar mängder av tabelldata som förlitar sig på ML-algoritmer för kritiska uppgifter som personliga produktrekommendationer, prisoptimering, lagerhantering och optimering av försörjningskedjan.

Vidare, många vision och språkmodeller är fortfarande baserade på traditionella tekniker och erbjuder lösningar inom hybridmetoder och nya tillämpningar. Till exempel, en nyligen genomförd studie med titeln "Behöver vi verkligen modeller för djupinlärning för tidsserieprognoser?” har diskuterat hur gradientförstärkande regressionsträd (GBRT) är mer effektiva för prognoser för tidsserier än djupa neurala nätverk.

ML:s tolkningsbarhet är fortfarande mycket värdefull med tekniker som SHAP (Shapley Additive Explanations) och KALK (Lokala tolkbara modellagnostiska förklaringar). Dessa tekniker förklarar komplexa ML-modeller och ger insikter om deras förutsägelser, vilket hjälper ML-utövare att förstå sina modeller ännu bättre.

Slutligen förblir traditionell maskininlärning en robust lösning för olika branscher som tar itu med skalbarhet, datakomplexitet och resursbegränsningar. Dessa algoritmer är oersättliga för dataanalys och prediktiv modellering och kommer att fortsätta att vara en del av en dataforskarens arsenal.

Om sådana här ämnen fascinerar dig, utforska Förena AI för ytterligare insikter.