Connect with us

IA 101

Apprentissage supervisé vs Apprentissage non supervisé

mm

Dans l’apprentissage automatique, la plupart des tâches peuvent être facilement catégorisées en l’une de deux classes différentes : les problèmes d’apprentissage supervisé ou les problèmes d’apprentissage non supervisé. Dans l’apprentissage supervisé, les données ont des étiquettes ou des classes appendues, tandis que dans le cas de l’apprentissage non supervisé, les données sont non étiquetées. Examinons de près pourquoi cette distinction est importante et regardons certains des algorithmes associés à chaque type d’apprentissage.

Apprentissage supervisé vs Apprentissage non supervisé

La plupart des tâches d’apprentissage automatique sont dans le domaine de l’apprentissage supervisé. Dans les algorithmes d’apprentissage supervisé, les instances individuelles/points de données dans le jeu de données ont une classe ou une étiquette assignée. Cela signifie que le modèle d’apprentissage automatique peut apprendre à distinguer quelles fonctionnalités sont corrélées avec une classe donnée et que l’ingénieur en apprentissage automatique peut vérifier les performances du modèle en voyant combien d’instances ont été correctement classées. Les algorithmes de classification peuvent être utilisés pour discerner de nombreux modèles complexes, tant que les données sont étiquetées avec les classes appropriées. Par exemple, un algorithme d’apprentissage automatique peut apprendre à distinguer différents animaux les uns des autres en fonction de caractéristiques comme « moustaches », « queue », « griffes », etc.

Contrairement à l’apprentissage supervisé, l’apprentissage non supervisé consiste à créer un modèle capable d’extraire des modèles à partir de données non étiquetées. En d’autres termes, l’ordinateur analyse les fonctionnalités d’entrée et détermine lui-même quelles sont les fonctionnalités et les modèles les plus importants. L’apprentissage non supervisé tente de trouver les similitudes inhérentes entre les différentes instances. Si un algorithme d’apprentissage supervisé vise à placer des points de données dans des classes connues, les algorithmes d’apprentissage non supervisé examineront les fonctionnalités communes aux instances d’objets et les placeront dans des groupes en fonction de ces fonctionnalités, créant essentiellement leurs propres classes.

Des exemples d’algorithmes d’apprentissage supervisé sont la Régression linéaire, la Régression logistique, les K plus proches voisins, les Arbres de décision et les Machines à vecteurs de support.

Pendant ce temps, certains exemples d’algorithmes d’apprentissage non supervisé sont l’Analyse en composantes principales et le regroupement K-Means.

Algorithme d’apprentissage supervisé

La Régression linéaire est un algorithme qui prend deux fonctionnalités et trace la relation entre elles. La Régression linéaire est utilisée pour prédire des valeurs numériques en relation avec d’autres variables numériques. La Régression linéaire a l’équation de Y = a + bX, où b est la pente de la droite et a est l’endroit où y coupe l’axe X.

La Régression logistique est un algorithme de classification binaire. L’algorithme examine la relation entre les fonctionnalités numériques et trouve la probabilité que l’instance puisse être classée dans l’une des deux classes différentes. Les valeurs de probabilité sont « compressées » vers 0 ou 1. En d’autres termes, les fortes probabilités s’approcheront de 0,99 tandis que les faibles probabilités s’approcheront de 0.

Les K plus proches voisins attribuent une classe à de nouveaux points de données en fonction des classes attribuées à certains voisins choisis dans l’ensemble d’entraînement. Le nombre de voisins considérés par l’algorithme est important, et trop peu ou trop de voisins peuvent mal classer les points.

Les Arbres de décision sont un type d’algorithme de classification et de régression. Un arbre de décision fonctionne en divisant un ensemble de données en portions de plus en plus petites jusqu’à ce que les sous-ensembles ne puissent plus être divisés et qu’il en résulte un arbre avec des nœuds et des feuilles. Les nœuds sont là où les décisions concernant les points de données sont prises à l’aide de différents critères de filtrage, tandis que les feuilles sont les instances qui ont été attribuées à une certaine étiquette (un point de données qui a été classé). Les algorithmes d’arbre de décision sont capables de gérer à la fois les données numériques et catégorielles. Les divisions sont effectuées dans l’arbre sur des variables/fonctionnalités spécifiques.

Les Machines à vecteurs de support sont un algorithme de classification qui fonctionne en traçant des hyperplans, ou des lignes de séparation, entre les points de données. Les points de données sont séparés en classes en fonction du côté de l’hyperplan sur lequel ils se trouvent. Plusieurs hyperplans peuvent être tracés à travers un plan, divisant un ensemble de données en plusieurs classes. Le classificateur essaiera de maximiser la distance entre l’hyperplan de division et les points de chaque côté du plan, et plus la distance entre la ligne et les points est grande, plus le classificateur est confiant.

Algorithmes d’apprentissage non supervisé

L’Analyse en composantes principales est une technique utilisée pour la réduction de dimensionnalité, ce qui signifie que la dimensionnalité ou la complexité des données est représentée de manière plus simple. L’algorithme d’Analyse en composantes principales trouve de nouvelles dimensions pour les données qui sont orthogonales. Alors que la dimensionnalité des données est réduite, la variance entre les données doit être préservée autant que possible. Cela signifie en pratique que cela prend les fonctionnalités du jeu de données et les distille en moins de fonctionnalités qui représentent la plupart des données.

Le regroupement K-Means est un algorithme qui regroupe automatiquement les points de données en clusters en fonction de fonctionnalités similaires. Les modèles au sein du jeu de données sont analysés et les points de données sont divisés en groupes en fonction de ces modèles. Essentiellement, K-Means crée ses propres classes à partir de données non étiquetées. L’algorithme K-Means fonctionne en attribuant des centres aux clusters, ou des centroïdes, et en déplaçant les centroïdes jusqu’à ce que la position optimale pour les centroïdes soit trouvée. La position optimale sera celle où la distance entre les centroïdes et les points de données environnants dans la classe est minimisée. Le « K » dans le regroupement K-Means fait référence au nombre de centroïdes choisis.

Résumé

Pour conclure, résumons rapidement les principales différences entre l’apprentissage supervisé et l’apprentissage non supervisé.

Comme nous l’avons discuté précédemment, dans les tâches d’apprentissage supervisé, les données d’entrée sont étiquetées et le nombre de classes est connu. Pendant ce temps, les données d’entrée sont non étiquetées et le nombre de classes n’est pas connu dans les cas d’apprentissage non supervisé. L’apprentissage non supervisé tend à être moins complexe sur le plan computationnel, tandis que l’apprentissage supervisé tend à être plus complexe sur le plan computationnel. Alors que les résultats de l’apprentissage supervisé tendent à être très précis, les résultats de l’apprentissage non supervisé tendent à être moins précis/modérément précis.

Blogueur et programmeur avec des spécialités en Machine Learning et Deep Learning sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.