Capítulo 2 Métodos clásicos de estadística
En este capítulo se revisará el método clásico de regresión lineal múltiple (Sección 2.1), y también el de regresión lineal generalizada (Sección 2.2). En este último caso, además de tratarlo de forma más superficial, nos centraremos únicamente en regresión logística, un método tradicional de clasificación. Estos modelos clásicos de inferencia estadística se emplean habitualmente en aprendizaje estadístico (AE); aunque pueden ser demasiado simples en muchos casos, pueden resultar muy útiles en otros, principalmente por su interpretabilidad. Además, como veremos más adelante (en el Capítulo 6 y siguientes), sirven como punto de partida para procedimientos más avanzados.
Se supondrá que se dispone de unos conocimientos básicos de los métodos clásicos de regresión lineal y regresión lineal generalizada, por lo que solo se repasará someramente su procedimiento tradicional. Además, trataremos estos métodos desde el punto de vista de AE (como se describe en el Capítulo 1), es decir, con el objetivo de predecir en lugar de realizar inferencias y, preferiblemente, empleando un procedimiento automático y capaz de manejar grandes volúmenes de datos. Para un tratamiento más completo, incluyendo detalles teóricos que no van a ser tratados aquí, se puede consultar Faraway (2016), que incluye su aplicación en la práctica con R22.
Nos interesa especialmente el problema de colinealidad (Sección 2.1.1) y los métodos tradicionales de selección de variables (Sección 2.1.2). Estas cuestiones pueden resultar de interés en muchos otros métodos, especialmente cuando el número de predictores es grande. También se mostrará cómo realizar la selección del modelo mediante remuestreo (Sección 2.1.5).
En la última sección de este capítulo (Sección 2.3) se tratarán, también muy por encima, otros métodos tradicionales de clasificación: análisis discriminante (lineal y cuadrático, secciones 2.3.1 y 2.3.2) y el clasificador Bayes naíf (Sección 2.3.3).
Bibliografía
También el Capítulo 8 de Fernández-Casal et al. (2022).↩︎