Capítulo 5 Máquinas de soporte vectorial

Las máquinas de soporte vectorial (support vector machines, SVM) son métodos estadísticos desarrollados por Vladimir Vapnik a mediados de la década de 1960. Inicialmente concebidos para abordar problemas de clasificación binaria (clasificación con dos categorias), se basan en la idea de separar los datos mediante hiperplanos. En la actualidad existen extensiones de esta metodología que permiten la clasificación multiclase (clasificación con más de dos categorías), así como su empleo en regresión y en detección de datos atípicos. El nombre proviene de la utilización de vectores que hacen de soporte para maximizar la separación entre los datos y el hiperplano.

La popularidad de las máquinas de soporte vectorial creció a partir de los años 90, cuando los incorpora la comunidad informática. Se considera una metodología muy flexible y con buen rendimiento en un amplio abanico de situaciones, aunque por lo general no es la que consigue los mejores rendimientos. Dos referencias clásicas que han contribuido a la comprensión y popularización de esta metodología son Vapnik (1998) y Vapnik (2000).

Siguiendo a James et al. (2021), distinguiremos en nuestra exposición entre clasificadores de máximo margen (maximal margin classifiers), clasificadores de soporte vectorial (support vector classifiers) y máquinas de soporte vectorial (support vector machines).

Bibliografía

James, G., Witten, D., Hastie, T., y Tibshirani, R. (2021). An Introduction to Statistical Learning: With Applications in R (2a. ed.). Springer. https://www.statlearning.com. https://www.statlearning.com
Vapnik, V. N. (1998). Statistical Learning Theory. Wiley. https://www.wiley.com/en-us/Statistical+Learning+Theory-p-9780471030034
Vapnik, V. N. (2000). The Nature of Statistical Learning Theory. Springer. https://link.springer.com/book/10.1007/978-1-4757-3264-1