Machines à vecteurs de support
Introduction
Les machines à vecteurs de support (SVM) sont des méthodes d'apprentissage supervisé puissantes et flexibles utilisées pour la classification, la régression et la détection des valeurs aberrantes. Les SVM sont très efficaces dans les espaces de grande dimension et sont généralement utilisés dans les problèmes de classification. Les SVM sont populaires et économes en mémoire car ils utilisent un sous-ensemble de points d'apprentissage dans la fonction de décision.
L'objectif principal des SVM est de diviser les ensembles de données en un certain nombre de classes afin de trouver un hyperplan marginal maximal (MMH), ce qui peut être fait en deux étapes : 1.
- Les machines à vecteurs de support génèrent d'abord itérativement des hyperplans qui séparent les classes de la meilleure façon.
- Ensuite, il choisira l'hyperplan qui sépare correctement les classes.
Quelques concepts importants dans le SVM sont les suivants .
- Support Vectors − Ils peuvent être définis comme les points de données les plus proches de l'hyperplan. Les vecteurs de support aident à décider de la ligne de séparation.
- Hyperplane − Le plan ou l'espace de décision qui divise un ensemble d'objets ayant des classes différentes.
- Margin − L'écart entre deux lignes sur les points de données rapprochés de classes différentes est appelé marge.
Le SVM de Scikit-learn prend en charge les vecteurs d'échantillons épars et denses comme entrée.
Classification of SVM
Scikit-learn fournit trois classes, à savoir SVC, NuSVC et LinearSVC, qui peuvent effectuer une classification multi-classes.
SVC
Il s'agit d'une classification vectorielle de support en C dont l'implémentation est basée sur libsvm. Le module utilisé par scikit-learn est sklearn.svm.SVC
. Cette classe gère le support multi classe selon le schéma one-vs-one.
Besoin d'aide ?
Rejoignez notre communauté officielle et ne restez plus seul à bloquer sur un problème !