Kunstig intelligens
Er Traditionel Maskinlæring Stadig Relevant?

I de seneste år har Generative AI vist lovende resultater i løsning af komplekse AI-opgaver. Moderne AI-modeller som ChatGPT, Bard, LLaMA, DALL-E.3, og SAM har vist bemærkelsesværdige evner i løsning af multidisciplinære problemer som visuel spørgsmål besvarelse, segmentering, resonnering og indholdsgenerering.
Desuden er Multimodal AI-teknikker opstået, der kan behandle multiple data modaliteter, dvs. tekst, billeder, lyd og video samtidig. Med disse fremskridt er det naturligt at undre: Er vi på vej mod enden af traditionel maskinlæring (ML)?
I denne artikel vil vi se på tilstanden for den traditionelle maskinlæringslandskab i forhold til moderne generative AI-innovationer.
Hvad er Traditionel Maskinlæring? – Hvad er dens Begrænsninger?
Traditionel maskinlæring er en bred betegnelse, der dækker en lang række algoritmer, der primært drives af statistik. De to hovedtyper af traditionelle ML-algoritmer er overvåget og uovervåget. Disse algoritmer er designede til at udvikle modeller fra strukturerede datasets.
Standard traditionelle maskinlæringsalgoritmer omfatter:
- Regression-algoritmer som lineær, lasso og ridge.
- K-means Clustering.
- Principal Component Analysis (PCA).
- Support Vector Machines (SVM).
- Træ-baserede algoritmer som beslutningstræer og random forest.
- Boosting-modeller som gradient boosting og XGBoost.
Begrænsninger af Traditionel Maskinlæring
Traditionel ML har følgende begrænsninger:
- Begrænset Skalbarhed: Disse modeller har ofte svigt at skala med store og diverse datasets.
- Dataforarbejdning og Funktionsteknisk Ingeniørarbejde: Traditionel ML kræver omfattende forarbejdning for at transformere datasets i overensstemmelse med modelkrav. Desuden kan funktionsteknisk ingeniørarbejde være tidskrævende og kræve multiple iterationer for at fange komplekse relationer mellem datafunktioner.
- Højdimensionel og Ustruktureret Data: Traditionel ML kæmper med komplekse datatyper som billeder, lyd, video og dokumenter.
- Tilpasning til Uset Data: Disse modeller kan ikke tilpasse sig til virkelige data, der ikke var en del af deres træningsdata.
Neural Network: Fra Maskinlæring til Dyb Læring & Ud Over

Neural network (NN)-modeller er langt mere komplekse end traditionelle maskinlæringsmodeller. Den simpleste NN – Multi-layer perceptron (MLP) består af flere neuroner forbundet sammen for at forstå information og udføre opgaver, ligesom et menneskes hjerne fungerer.
Fremgang i neural network-teknikker har dannet grundlaget for overgangen fra maskinlæring til dyb læring. For eksempel er NN brugt til computer vision-opgaver (objektgenkendelse og billedsegmentering) kaldet convolutional neural networks (CNNs), som AlexNet, ResNet og YOLO.
I dag tager generative AI-teknologi neural network-teknikker et skridt videre, så den kan udmærke sig i forskellige AI-domæner. For eksempel er neural network brugt til naturlig sprogbehandling-opgaver (som tekstsummering, spørgsmål besvarelse og oversættelse) kendt som transformers. Fremtrædende transformer-modeller omfatter BERT, GPT-4 og T5. Disse modeller skaber en indvirkning på brancher, der spænder fra sundhedsvesen, detailhandel, marketing, finans osv.
Har Vi Stadig Brug for Traditionelle Maskinlæringsalgoritmer?

Selvom neural network og deres moderne varianter som transformers har fået megen opmærksomhed, forbliver traditionelle ML-metoder afgørende. Lad os se på, hvorfor de stadig er relevante.
1. Simpelt Datakrav
Neural network kræver store datasets til træning, mens ML-modeller kan opnå betydelige resultater med mindre og simpelt data. Derfor foretrækkes ML over dyb læring for mindre strukturerede datasets og omvendt.
2. Simpelhed og Fortolkning
Traditionelle maskinlæringsmodeller er bygget på top af simple statistiske og sandsynlighedsmodeller. For eksempel etablerer en bedst-fit-linje i lineær regression input-output-forholdet ved hjælp af mindste kvadrat-metoden, en statistisk operation.
Ligesom beslutningstræer bruger sandsynlighedsprincipper til at klassificere data. Brugen af disse principper tilbyder fortolkning og gør det lettere for AI-praktikere at forstå arbejdet i ML-algoritmer.
Moderne NN-arkitekturer som transformer og diffusion-modeller (typisk brugt til billedgenerering som Stable Diffusion eller Midjourney) har en kompleks multi-lagd struktur. Forståelse af disse netværk kræver en forståelse af avancerede matematiske begreber. Derfor kaldes de også for ‘Sorte Kasser’.
3. Resurseffektivitet
Moderne neural network som Large Language Models (LLM) trænes på cluster af dyre GPU’er efter deres beregningskrav. For eksempel blev GPT4 ifølge rapporten trænet på 25000 Nvidia GPU’er i 90 til 100 dage.
Men dyrt hardware og længere træningstid er ikke muligt for hver praktiker eller AI-hold. På den anden side tillader den beregningsmæssige effektivitet af traditionelle maskinlæringsalgoritmer praktikere at opnå meningsfulde resultater, selv med begrænsede ressourcer.
4. Ikke Alle Problemer Kræver Dyb Læring
Dyb Læring er ikke den absolutte løsning for alle problemer. Visse scenarier findes, hvor ML overgår dyb læring.
For eksempel i medicinsk diagnose og prognose med begrænsede data, en ML-algoritme for anomalidetektion som REMED giver bedre resultater end dyb læring. Ligesom er traditionel maskinlæring betydelig i scenarier med lav beregningskapacitet som en flexibel og effektiv løsning.
Primært afhænger valget af den bedste model for enhver problem af organisationens eller praktikerens behov og problemets natur.
Maskinlæring i 2023

Billede genereret ved hjælp af Leonardo AI
I 2023 fortsætter traditionel maskinlæring med at udvikle sig og konkurrere med dyb læring og generative AI. Den har flere anvendelser i branchen, især når det handler om strukturerede datasets.
For eksempel har mange Fast-Moving Consumer Goods (FMCG)-virksomheder at gøre med store mængder af tabulære data, der afhænger af ML-algoritmer til kritiske opgaver som personlige produktanbefalinger, prisoptimering, lagerstyring og forsyningskædeoptimering.
Yderligere er mange vision og sprogmodeller stadig baseret på traditionelle teknikker, der tilbyder løsninger i hybridtilgange og opkommende anvendelser. For eksempel diskuterer en ny studie med titlen “Do We Really Need Deep Learning Models for Time Series Forecasting?” hvordan gradient-boosting regression-træer (GBRTs) er mere effektive til tidsserieforudsigelse end dybe neurale netværk.
ML’s fortolkning forbliver højt værdifuld med teknikker som SHAP (Shapley Additive Explanations) og LIME (Local Interpretable Model-agnostic Explanations). Disse teknikker forklarer komplekse ML-modeller og giver indsigt i deres forudsigelser, hvilket hjælper ML-praktikere med at forstå deres modeller endnu bedre.
Til sidst forbliver traditionel maskinlæring en robust løsning for diverse brancher, der løser skalbarhed, datakompleksitet og ressourcebegrænsninger. Disse algoritmer er uerstattelige til dataanalyse og prædiktion og vil fortsætte med at være en del af en data scientists arsenal.
Hvis emner som dette fascinerer dig, udforsk Unite AI for yderligere indsigt.










