REGRESIÓN LINEAL Y PREDICCIÓN

1.1 INTRODUCCIÓN.

Los modelos de regresión sirven para representar la dependencia lineal de una variable, VD o V respuesta, respecto de la VI o V predictora. Para predecir el comportamiento de una variable, depende del objetivo que se pretenda: – la Moda, cuando se quiere que la probabilidad de acertar sea máxima. – La Mediana, cuando se quiere minimizar el error en valor absoluto (nos equivocaremos el 50% de las veces por defecto y por exceso). – La Media Aritmética, si se quiere minimizar la suma de los errores cuadráticos. En el caso de este capítulo de regresión, elegiremos la media aritmética por minimizar los errores cuadráticos.

1.2. LA RECTA DE REGRESIÓN. La recta de regresión sirve para efectuar los pronósticos y va a indicar cómo cambia la VD en función de la VI. Las medias condicionadas están, de forma aproximada, en una recta que va a indicar cómo varía la media de la VD (Y) en función de la media de la VI (X). De forma más común, se representa por: a = ordenada en el origen o intercepto; y es el valor que toma Y cuando X = 0. b = pendiente o tasa de cambio; indica la variación que se produce en Y cuando X varía una unidad. El valor de Y cuando la recta corta el eje de ordenadas es la constante a. 11.2.1. Cálculo de los coeficientes de la recta de regresión. Ajuste de la recta de regresión: es el proceso por el cual se determina la recta de regresión que permite pronosticar el valor de una VD a partir de la VI. Una vez construida la recta o que se va a tener son los valores medios pronosticados de Y para cada valor de X. El pronóstico ( ) que se hace de la VD, para cada valor de la VI puede no coincidir con su valor real ( ); es decir, que para cada valor de X habrá una diferencia entre el valor real y el pronosticado. Esta diferencia es el residuo. El residuo, es el error que se comete cuando se realizan pronósticos mediante la recta de regresión. Residuo = Error de predicción = valor real de Y valor de la recta de regresión. Para obtener el valor de los coeficientes de la recta, el criterio que se sigue es que la suma cuadrática de todos los residuos sea mínima; y para esto, el valor de la pendiente de la recta viene dada por la ecuación: es decir, la pendiente de la recta resulta de tipificar la covarianza de forma que tenga las unidades apropiadas de aumento en Y por unidad de aumento en X; por lo que para convertir la covarianza en unidades de pendiente, habrá que dividirla por un término que tenga las unidades de X al cuadrado. Si dos variables tienen covarianza 0, la pendiente será 0, y el único pronóstico que podremos hacer de la VD será su media aritmética. El cálculo de la pendiente de la recta se puede expresar en función de las puntuaciones diferenciales y de las directas. Con puntuaciones diferenciales: Expresar la ecuación con p diferenciales, es trasladar el origen del eje de coordenadas al punto ( ); la pendiente es la misma y el intercepto es 0 (0,0; que son las medias de x, y). Lo que sí cambia, con respecto a las p directas, es el coeficiente a. Con puntuaciones directas: Con el coeficiente de correlación Una vez calculada la pendiente b, la ordenada o coeficiente a se halla directamente por la expresión: . Esta expresión indica que la recta de regresión pasa por el punto ( ). Con puntuaciones típicas: Al igual que la recta expresada en diferenciales, la recta típica tampoco tiene intercepto o coeficiente a; y la pendiente coincide con el del coeficiente de correlación de Person.
1.2.2. Predicción de valores. Como la ecuación de regresión es la de una recta, todos los valores pronosticados estarán situados sobre la recta. Procedimiento: se sustituye el valor correspondiente de la variable X en la ecuación de regresión y se obtiene el valor pronosticado para Y. con p típicas, la estimación es un conjunto de puntuaciones cuya media es 0; y la desviación típica es el coeficiente de correlación en valor absoluto. A las puntuaciones típicas pronosticadas a partir de la recta de regresión expresada en típicas, de llama puntuaciones pseudotípicas. El valor pronosticado Y´ sólo coincide con el valor X de la VI, en la predicción que se hace para .
1.2.3. La varianza residual o varianza error. ( ) La varianza residual o varianza error, es la diferencia entre los valores reales de Y y los valores pronosticados Y´. representa la variabilidad promedio de todos los puntos respecto de la recta de regresión. Expresada en término de desviación típica sería: denominada error típico de estimación. Propiedad fundamental del ajuste por mínimos cuadrados de un conjunto de datos mediante la recta de regresión: – la varianza de la VD (Y), es igual a las varianzas de las puntuaciones pronosticadas, (Y´), más la varianza de los residuos.
1.2.4. La recta de regresión y el coeficiente de correlación. Los pronósticos son una función lineal de la VI (X), por lo que la varianza de los pronósticos es: mientras que los residuos no dependen de ninguna variable, es decir, no son función de ninguna variable conocida, sino el resultado de la conjunción de muchos factores que no son explicables. La proporción de la variabilidad de Y que es explicada por la variabilidad de los pronósticos es: la proporción de la varbldad de Y que no se puede explicar por la varbldad de los pronósticos es: La proporción de varianza explicada es exactamente el cuadrado del coeficiente de correlación de Person (R2); denominado coeficiente de determinación. A la desviación típica residual se la denomina error típico de estimación. por tanto, el cuadrado del coeficiente de correlación de Person (R2), en el contexto de la regresión lineal bivariada, es la proporción de la variabilidad de la VD que es explicada (o está asociada) por la variabilidad de la VI; mientras que la proporción de la variabilidad de la VD que no es explicada (o no está asociada) por la variabilidad de la VI, es igual a uno menos el cuadrado del coeficiente de correlación. Esto significa que al predecir la VD mediante la recta de regresión se logra reducir la varbldad de ésta en una cantidad que es igual al cuadrado del coeficiente de correlación. Cuanto > sea el valor del coeficiente de correlación, > proporción de variabilidad de la VD se reducirá, hasta un límite en el que r xy = a 1, en el cual toda la varbldad de la VD será explicada por la VI. Para r xy = 0 nada de la varbldad de la VD será explicada por la varblidad de la VI; es decir, la varbldad de la VD será igual a la varbldad de los residuos. Desviación típica residual: Con puntuaciones típicas, y dado que en puntuaciones típicas la desviación típica de Y = 1, la desviación típica residual es:
1.2.5. Regresión y correlación con sumas de cuadrados y productos cruzados. Todos los elementos que permiten describir la relación lineal entre dos variables: pendiente de la recta de regresión, coeficiente de correlación de Person, proporción de varianza explicada y no explicada, pueden ser calculados utilizando lo que se denomina suma de cuadrados de las desviaciones respecto de la media, o sintéticamente, suma de cuadrados. – La suma de cuadrados es el sumatorio de las puntuaciones diferenciales al cuadrado (el numerador de la fórmula de la varianza de una variable). – La suma de productos cruzados, es el numerador de la covarianza entre dos variables. Suma de cuadrados de X (SCX) Suma de Cuadrados de Y (SCY) Suma de Productos Cruzados (SPC) Suma de Cuadrados de la Regresión (SCR) Suma de Cuadrados de los Errores (SCE) Para el cálculo de los elementos de la regresión: Pendiente Constante o intercepto Coeficiente de correlación Proporción de varianza explicada Proporción de varianza no explicada
1.2.6. La recta de regresión de X sobre Y. Cuando no está tan definido que una variable sea función de la otra, se puede ajustar una recta para regresar o predecir la variable X sobre la variable Y, es decir, para tratar de ajustar la recta: X´= c + dY Lo dicho para el ajuste de Y sobre X, vale para ajustar X sobre Y, con las siguientes variantes: – Los coeficientes de la regresión X sobre Y son diferentes de los de Y sobre X: sólo coincidirán cuando r xy = 1 en valor absoluto. – La pendiente (en puntuaciones diferenciales) será: – Y en función del r xy y las des típicas: – De aquí se deduce la relación entre la pendiente de Y sobre X y la pendiente de X sobre Y.