Mètode dels mínims quadrats ordinaris

La llei d'Okun en macroeconomia estableix que en una economia el creixement del PIB hauria de dependre linealment dels canvis en la taxa d'atur. Aquí s'utilitza el mètode dels mínims quadrats ordinari per construir la recta de regressió que descriu aquesta llei.

En estadística, els mínims quadrats ordinaris (amb acrònim anglès MCO) és un tipus de mètode de mínims quadrats lineals per triar els paràmetres desconeguts en un model de regressió lineal (amb efectes fixos de nivell 1 d'una funció lineal d'un conjunt de variables explicatives) pel principi de mínims quadrats. quadrats: minimitzar la suma dels quadrats de les diferències entre la variable dependent observada (valors de la variable que s'està observant) en el conjunt de dades d'entrada i la sortida de la funció (lineal) de la variable independent.[1]

Geomètricament, això es veu com la suma de les distàncies al quadrat, paral·leles a l'eix de la variable dependent, entre cada punt de dades del conjunt i el punt corresponent de la superfície de regressió; com més petites siguin les diferències, millor s'ajusta el model a les dades. L'estimador resultant es pot expressar mitjançant una fórmula simple, especialment en el cas d'una regressió lineal simple, en la qual hi ha un únic regressor al costat dret de l'equació de regressió.

L'estimador MCO és coherent per als efectes fixos de nivell 1 quan els regressors són exògens i forma una colinealitat perfecta (condició de rang), coherent per a l'estimació de la variància dels residus quan els regressors tenen quarts moments finits [2] i, segons Gauss-Markov teoremaòptim en la classe dels estimadors lineals sense esbiaix quan els errors són homoscedàstics i no estan correlacionats en sèrie. En aquestes condicions, el mètode d'OLS proporciona una estimació mitjana sense esbiaixament de la variància mínima quan els errors tenen variàncies finites. Sota l'assumpció addicional que els errors es distribueixen normalment amb una mitjana zero, MCO és l'estimador de màxima probabilitat que supera qualsevol estimador no esbiaixat no lineal.[3]

Suposem que les dades estan formades per observacions . Cada observació inclou una resposta escalar i un vector columna de paràmetres (regressors), és a dir, . En un model de regressió lineal, la variable resposta, , és una funció lineal dels regressors:

o en forma vectorial,

on , com s'ha introduït anteriorment, és un vector columna de la -a observació de totes les variables explicatives; és un vector de paràmetres desconeguts; i l'escalar representa variables aleatòries no observades (errors) de la -a observació. té en compte les influències sobre les respostes de fonts diferents dels explicadors . Aquest model també es pot escriure en notació matricial com

on i són vectors de les variables resposta i els errors de la observacions, i és un matriu de regressors, també de vegades anomenada matriu de disseny, la fila de la qual és i conté el -è observacions sobre totes les variables explicatives.

Referències

[modifica]
  1. «Ordinary Least Squares» (en anglès). https://deepai.org,+17-05-2019.+[Consulta: 4 gener 2023].
  2. «What is a complete list of the usual assumptions for linear regression?» (en anglès). Cross Validated. [Consulta: 28 setembre 2022].
  3. «Ordinary Least Squares (OLS) (Spatial Statistics)—ArcGIS Pro | Documentation» (en anglès). https://pro.arcgis.com.+[Consulta: 4 gener 2023].