Connect with us

Artificiell intelligens

Är traditionell maskinlärning fortfarande relevant?

mm
Is Traditional Machine Learning Still Relevant?

Under de senaste åren har generativ AI visat lovande resultat i att lösa komplexa AI-uppgifter. Moderna AI-modeller som ChatGPT, Bard, LLaMA, DALL-E.3 och SAM har visat imponerande förmågor i att lösa multidisciplinära problem som visuell frågebesvarning, segmentering, resonemang och innehållsgenerering.

Dessutom har multimodal AI-tekniker uppstått, som kan bearbeta flera data modaliteter, dvs. text, bilder, ljud och videor samtidigt. Med dessa framsteg är det naturligt att undra: Närmade vi oss slutet på traditionell maskinlärning (ML)?

I den här artikeln kommer vi att undersöka tillståndet för den traditionella maskinlärningslandskapet i förhållande till moderna generativa AI-innovationer.

Vad är traditionell maskinlärning? – Vilka är dess begränsningar?

Traditionell maskinlärning är en bred term som omfattar en mängd olika algoritmer som främst drivs av statistik. De två huvudsakliga typerna av traditionella ML-algoritmer är övervakad och oövervakad. Dessa algoritmer är utformade för att utveckla modeller från strukturerade datamängder.

Standardtraditionella maskinlärningsalgoritmer inkluderar:

  • Regressionsalgoritmer som linjär, lasso och ridge.
  • K-means kluster.
  • Principal Component Analysis (PCA).
  • Support Vector Machines (SVM).
  • Trädbaserade algoritmer som beslutsTräd och slumpmässkog.
  • Boosting-modeller som gradientboost och XGBoost.

Begränsningar av traditionell maskinlärning

Traditionell ML har följande begränsningar:

  1. Begränsad skalbarhet: Dessa modeller behöver ofta hjälp för att skalas med stora och varierade datamängder.
  2. Dataförbehandling och funktionsteknik: Traditionell ML kräver omfattande förbehandling för att omvandla datamängder enligt modellkraven. Dessutom kan funktionsteknik vara tidskrävande och kräva flera iterationer för att fånga komplexa relationer mellan datafunktioner.
  3. Högdimensionell och ostrukturerad data: Traditionell ML kämpar med komplexa datatyper som bilder, ljud, videor och dokument.
  4. Anpassning till osett data: Dessa modeller kan inte anpassa sig väl till riktiga data som inte var en del av deras träningsdata.

Neurala nätverk: Från maskinlärning till djupinlärning och bortom

Neural Network: Moving from Machine Learning to Deep Learning & Beyond

Neuronnätverksmodeller (NN) är mycket mer komplicerade än traditionella maskinlärningsmodeller. Den enklaste NN – Multilayer-perceptron (MLP) består av flera neuroner som är sammankopplade för att förstå information och utföra uppgifter, liknande hur ett mänskligt hjärna fungerar.

Framsteg inom neuronnätverksteknik har bildat grunden för övergången från maskinlärning till djupinlärning. Till exempel används NN för datorseendeuppgifter (objektdetektering och bildsegmentering) som kallas convolutionella neuronnät (CNN), såsom AlexNet, ResNet och YOLO.

Idag tar generativ AI-teknik neuronnätverkstekniken ett steg längre, vilket gör det möjligt för den att excellerera inom olika AI-domäner. Till exempel används neuronnätverk för naturlig språkbehandling (såsom textsummering, frågesvar och översättning) som kallas transformatorer. Framstående transformatormodeller inkluderar BERT, GPT-4 och T5. Dessa modeller skapar en inverkan på branscher som sträcker sig från hälsovård, detaljhandel, marknadsföring, finans etc.

Behöver vi fortfarande traditionella maskinlärningsalgoritmer?

Do We Still Need Traditional Machine Learning Algorithms?

Medan neuronnätverk och deras moderna varianter som transformatorer har fått mycket uppmärksamhet, förblir traditionella ML-metoder avgörande. Låt oss se varför de fortfarande är relevanta.

1. Enklare datakrav

Neuronnätverk kräver stora datamängder för träning, medan ML-modeller kan uppnå betydande resultat med mindre och enklare datamängder. Således föredras ML över djupinlärning för mindre strukturerade datamängder och vice versa.

2. Enkelhet och tolkbarhet

Traditionella maskinlärningsmodeller byggs på enklare statistiska och sannolikhetsmodeller. Till exempel etablerar en bästa anpassad linje i linjär regression indata-utdata-relationen med hjälp av minsta kvadratmetoden, en statistisk operation.

På samma sätt använder beslutsTräd probabilistiska principer för att klassificera data. Användningen av sådana principer erbjuder tolkbarhet och gör det lättare för AI-praktiker att förstå hur ML-algoritmer fungerar.

Modern NN-arkitektur som transformator och diffusionsmodeller (vanligtvis används för bildgenerering som Stable Diffusion eller Midjourney) har en komplex, flerskiktad nätverksstruktur. Att förstå sådana nätverk kräver en förståelse för avancerade matematiska begrepp. Därför kallas de också för “svarta lådor”.

3. Resurseffektivitet

Modern neuronnätverk som stora språkmodeller (LLM) tränas på kluster av dyra GPU:er enligt deras beräkningskrav. Till exempel rapporterades GPT4 ha tränats på 25000 Nvidia GPU:er under 90 till 100 dagar.

Men dyra maskiner och lång tränings tid är inte möjliga för varje praktiker eller AI-team. Å andra sidan tillåter den beräkningsmässiga effektiviteten hos traditionella maskinlärningsalgoritmer praktiker att uppnå meningsfulla resultat även med begränsade resurser.

4. Inte alla problem behöver djupinlärning

Djupinlärning är inte den absoluta lösningen för alla problem. Vissa scenarier finns där ML överträffar djupinlärning.

Till exempel i medicinsk diagnos och prognos med begränsad data, en ML-algoritm för avvikelseupptäckt som REMED ger bättre resultat än djupinlärning. På samma sätt är traditionell maskinlärning betydande i scenarier med låg beräkningsförmåga som en flexibel och effektiv lösning.

Primärt beror valet av den bästa modellen för varje problem på organisationens eller praktikerns behov och problemets natur.

Maskinlärning 2023

Machine Learning in 2023

Bild genererad med Leonardo AI

2023 fortsätter traditionell maskinlärning att utvecklas och konkurrerar med djupinlärning och generativ AI. Den har flera användningsområden inom branschen, särskilt när det gäller strukturerade datamängder.

Till exempel hanterar många snabbrörliga konsumentvaror (FMCG) stora mängder tabelldata som förlitar sig på ML-algoritmer för kritiska uppgifter som personliga produktrekommendationer, prisoptymering, lagerhantering och försörjningskedjeoptimering.

Dessutom är många vision och språkmodeller fortfarande baserade på traditionella tekniker, som erbjuder lösningar i hybridtillvägagångssätt och nya tillämpningar. Till exempel diskuterar en nylig studie med titeln “Behöver vi verkligen djupinlärningsmodeller för tidsserieprognos?” hur gradient-boostade regressionsTräd (GBRT) är mer effektiva för tidsserieprognos än djupa neuronnät.

ML:s tolkbarhet förblir mycket värdefull med tekniker som SHAP (Shapley Additive Explanations) och LIME (Local Interpretable Model-agnostic Explanations). Dessa tekniker förklarar komplexa ML-modeller och ger insikt om deras förutsägelser, vilket hjälper ML-praktiker att förstå sina modeller ännu bättre.

Slutligen förblir traditionell maskinlärning en robust lösning för olika branscher som hanterar skalbarhet, datakomplexitet och resursbegränsningar. Dessa algoritmer är oumbärliga för dataanalys och prediktiv modellering och kommer att fortsätta vara en del av en data scientists arsenal.

Om ämnen som dessa fascinerar dig, utforska Unite AI för ytterligare insikter.

Haziqa är en Data Scientist med omfattande erfarenhet av att skriva tekniskt innehåll för AI- och SaaS-företag.