talon L’apprentissage automatique traditionnel est-il toujours d’actualité ? - Unite.AI
Suivez nous sur

Intelligence artificielle

L’apprentissage automatique traditionnel est-il toujours d’actualité ?

mm

Publié le

 on

L’apprentissage automatique traditionnel est-il toujours d’actualité ?

Ces dernières années, l’IA générative a montré des résultats prometteurs dans la résolution de tâches complexes d’IA. Des modèles d'IA modernes comme ChatGPT, barde, Lama, DALL-E.3 ainsi que SAM ont démontré des capacités remarquables dans la résolution de problèmes multidisciplinaires tels que la réponse visuelle aux questions, la segmentation, le raisonnement et la génération de contenu.

De plus, IA multimodale des techniques ont émergé, capables de traiter simultanément plusieurs modalités de données, c'est-à-dire du texte, des images, de l'audio et des vidéos. Avec ces progrès, il est naturel de se demander : approchons-nous de la fin de apprentissage automatique traditionnel (ML) ?

Dans cet article, nous examinerons l’état du paysage traditionnel de l’apprentissage automatique concernant les innovations modernes en matière d’IA générative.

Qu’est-ce que l’apprentissage automatique traditionnel ? – Quelles sont ses limites ?

L'apprentissage automatique traditionnel est un terme général qui couvre une grande variété d'algorithmes principalement pilotés par des statistiques. Les deux principaux types d'algorithmes de ML traditionnels sont supervisé et non supervisé. Ces algorithmes sont conçus pour développer des modèles à partir d'ensembles de données structurés.

Les algorithmes d’apprentissage automatique traditionnels standard incluent :

  • Algorithmes de régression tels que linéaire, lasso et crête.
  • K-signifie Clustering.
  • Analyse en composantes principales (ACP).
  • Machines à vecteurs de support (SVM).
  • Algorithmes basés sur des arbres comme les arbres de décision et la forêt aléatoire.
  • Modèles de boosting tels que le boosting de gradient et XGBoost.

Limites de l'apprentissage automatique traditionnel

Le ML traditionnel présente les limitations suivantes :

  1. Évolutivité limitée : Ces modèles ont souvent besoin d’aide pour évoluer avec des ensembles de données vastes et diversifiés.
  2. Prétraitement des données et ingénierie des fonctionnalités : Le ML traditionnel nécessite un prétraitement approfondi pour transformer les ensembles de données conformément aux exigences du modèle. En outre, l’ingénierie des fonctionnalités peut prendre du temps et nécessiter plusieurs itérations pour capturer les relations complexes entre les fonctionnalités des données.
  3. Données de grande dimension et non structurées : Le ML traditionnel a du mal à gérer des types de données complexes tels que les images, l'audio, les vidéos et les documents.
  4. Adaptabilité aux données invisibles : Ces modèles peuvent ne pas s'adapter bien aux données du monde réel qui ne faisaient pas partie de leur données d'entraînement.

Réseau neuronal : passer de l'apprentissage automatique au deep learning et au-delà

Réseau neuronal : passer de l'apprentissage automatique au deep learning et au-delà

Les modèles de réseaux neuronaux (NN) sont bien plus compliqués que les modèles traditionnels d’apprentissage automatique. Le NN le plus simple – Perceptron multicouche (MLP) se compose de plusieurs neurones connectés entre eux pour comprendre les informations et effectuer des tâches, similaires au fonctionnement d’un cerveau humain.

Les progrès dans les techniques de réseaux neuronaux ont constitué la base de la transition de de l'apprentissage automatique à l'apprentissage profond. Par exemple, les NN utilisés pour les tâches de vision par ordinateur (détection d'objets et segmentation d'images) sont appelés réseaux de neurones convolutifs (CNN) tels que AlexNet, ResNet ainsi que YOLO.

Aujourd’hui, la technologie de l’IA générative va encore plus loin dans les techniques de réseaux neuronaux, lui permettant d’exceller dans divers domaines de l’IA. Par exemple, les réseaux de neurones utilisés pour les tâches de traitement du langage naturel (comme le résumé de texte, la réponse aux questions et la traduction) sont appelés transformateurs. Les principaux modèles de transformateurs comprennent BERT, GPT-4 ainsi que T5. Ces modèles ont un impact sur des secteurs allant de la santé à la vente au détail, en passant par le marketing, finance, etc.

Avons-nous encore besoin d’algorithmes d’apprentissage automatique traditionnels ?

Avons-nous encore besoin d’algorithmes d’apprentissage automatique traditionnels ?

Même si les réseaux de neurones et leurs variantes modernes comme les transformateurs ont reçu beaucoup d'attention, les méthodes traditionnelles de ML restent cruciales. Voyons pourquoi ils sont toujours d’actualité.

1. Exigences de données plus simples

Les réseaux de neurones nécessitent de grands ensembles de données pour la formation, tandis que les modèles ML peuvent obtenir des résultats significatifs avec des ensembles de données plus petits et plus simples. Ainsi, le ML est préféré à l’apprentissage profond pour les ensembles de données structurés plus petits et vice versa.

2. Simplicité et interprétabilité

Les modèles d’apprentissage automatique traditionnels s’appuient sur des modèles statistiques et probabilistes plus simples. Par exemple, une ligne la mieux adaptée dans régression linéaire établit la relation entrée-sortie à l’aide de la méthode des moindres carrés, une opération statistique.

De même, les arbres de décision utilisent des principes probabilistes pour classer les données. L’utilisation de tels principes offre une interprétabilité et permet aux praticiens de l’IA de comprendre plus facilement le fonctionnement des algorithmes de ML.

Architectures NN modernes telles que les modèles de transformateur et de diffusion (généralement utilisées pour la génération d'images comme Diffusion stable or À mi-parcours) ont une structure de réseau multicouche complexe. Comprendre de tels réseaux nécessite une compréhension de concepts mathématiques avancés. C'est pourquoi on les appelle également « boîtes noires ».

3. Efficacité des ressources

Les réseaux de neurones modernes tels que les grands modèles linguistiques (LLM) sont formés sur des clusters de GPU coûteux en fonction de leurs exigences de calcul. Par exemple, GPT4 aurait été formé sur 25000 XNUMX GPU Nvidia pendant 90 à 100 jours.

Cependant, un matériel coûteux et une longue durée de formation ne sont pas réalisables pour tous les praticiens ou équipes d’IA. D’un autre côté, l’efficacité informatique des algorithmes d’apprentissage automatique traditionnels permet aux praticiens d’obtenir des résultats significatifs même avec des ressources limitées.

4. Tous les problèmes ne nécessitent pas un apprentissage approfondi

L'apprentissage en profondeur n'est pas la solution absolue à tous les problèmes. Il existe certains scénarios dans lesquels le ML surpasse l'apprentissage en profondeur.

Par exemple, dans diagnostic et pronostic médical avec des données limitées, un algorithme ML pour Détection d'une anomalie comme REMED donne de meilleurs résultats que l’apprentissage en profondeur. De même, l’apprentissage automatique traditionnel est important dans les scénarios à faible capacité de calcul en tant que solution flexible et efficace.

Principalement, la sélection du meilleur modèle pour tout problème dépend des besoins de l’organisation ou du praticien et de la nature du problème en question.

Apprentissage automatique en 2023

Apprentissage automatique en 2023

Image générée à l'aide Leonardo IA

En 2023, l’apprentissage automatique traditionnel continue d’évoluer et concurrence l’apprentissage profond et l’IA générative. Il a plusieurs utilisations dans l’industrie, notamment lorsqu’il s’agit d’ensembles de données structurés.

Par exemple, beaucoup Biens de consommation à évolution rapide (FMCG) les entreprises traitent de grandes quantités de données tabulaires en s'appuyant sur des algorithmes de ML pour des tâches critiques telles que les recommandations de produits personnalisées, l'optimisation des prix, la gestion des stocks et l'optimisation de la chaîne d'approvisionnement.

De plus, beaucoup modèles de vision et de langage s'appuient toujours sur des techniques traditionnelles, proposant des solutions dans des approches hybrides et des applications émergentes. Par exemple, une étude récente intitulée «Avons-nous vraiment besoin de modèles d’apprentissage profond pour la prévision de séries chronologiques ?" a expliqué comment les arbres de régression augmentant le gradient (GBRT) sont plus efficaces pour prévision de séries chronologiques que les réseaux de neurones profonds.

L'interprétabilité de ML reste très précieuse avec des techniques telles que FORME (Explications des additifs Shapley) et LIME (Explications locales interprétables indépendantes du modèle). Ces techniques expliquent les modèles de ML complexes et fournissent des informations sur leurs prédictions, aidant ainsi les praticiens du ML à mieux comprendre leurs modèles.

Enfin, l’apprentissage automatique traditionnel reste une solution robuste pour diverses industries confrontées à l’évolutivité, à la complexité des données et aux contraintes de ressources. Ces algorithmes sont irremplaçables pour l'analyse des données et la modélisation prédictive et continueront de faire partie d'un l'arsenal du data scientist.

Si des sujets comme celui-ci vous intriguent, explorez Unir l'IA pour plus d'informations.