1. Javier García Molleja
Clases basadas en Directrices para la
realización del informe de las prácticas de
laboratorio, I. Mozo, Universidad Yachay
Tech, 2016
3 – Regresiones lineales
2. Introducción
Muchas veces queremos medir varios valores
experimentales de un fenómeno conocido y
observamos que ciertas variables dependen
entre sí, a pesar de que se den de manera
aleatoria.
Esto quiere decir que el fenómeno que
estudiamos las relaciona entre sí, es decir,
podemos vincularlas en una ecuación.
Si medimos una variable de un experimento y
hacemos que el fenómeno evolucione veremos
que la otra variable también evoluciona.
3. Introducción
Si el sistema evoluciona, no podemos determinar
ninguna media aritmética, pues los puntos
muestrales no se colocan aleatoriamente cerca
de ningún valor m, sino que cada punto muestral
se coloca aleatoriamente alrededor de un valor
teórico.
4. Introducción
La dependencia entre una variable independiente
y otra dependiente puede que obedezca la
ecuación de la línea recta.
Normalmente se considera variable
independiente la que posee el menor error
(aunque para ello tendríamos que ver la teoría de
errores) o la que es más fácil de medir.
5. Covarianza
¿Cómo saber realmente si dos variables medidas
múltiples veces son dependientes entre sí?
Primero de todo, hay que conocer el
experimento, quizás haya una ecuación que lo
modelice. Así podemos ver si son dependientes
entre sí o no.
Otro método más serio es usar la covarianza, la
cual nos puede indicar en qué grado están
relacionadas entre sí las variables:
6. Covarianza
Se puede ver que la forma de definición es
parecida a la de una varianza, pero que toma en
cuenta la existencia de dos variables.
Tenemos que:
Si es nula la covarianza no hay dependencia entre
variables.
Si es positiva, mientras más aumente t, más
aumentará x.
Si es negativa, mientras más aumente t, más
disminuirá x.
7. Método de los mínimos
cuadrados
Es un método en el que se supone que la
ecuación que liga la variable dependiente con la
independiente es la de una línea recta:
El método entonces buscará encontrar la
pendiente b y el intercepto a de esta ecuación.
El requisito más importante de este método es
que estos valores a y b sean tales que minimice
la distancia de todos los puntos experimentales a
la recta teórica.
Es por ello que la estadística cobra una
importancia extrema, pues la búsqueda de
distancias mínimas es global, para todos los
puntos experimentales y no para uno en
9. Método de los mínimos
cuadrados
Pensemos que al medir experimentalmente xj
obtenemos yj.
Con la ecuación lineal propuesta, al medir x j
podemos calcular qué yj,teo obtenemos.
Evidentemente, queremos que sean yj e yj,teo lo
más parecidas posible.
Esto queda condensado en lo que conocemos
como suma de los cuadrados de error:
j
jj
j
teojj bxayyySSE 22
, )]([
10. Método de los mínimos
cuadrados
¿Cómo lograr que SSE sea lo menor posible?
Es necesario que tanto pendiente como
intercepto sean unos valores concretos para que
esto ocurra.
Sabemos cómo calcular mínimos de funciones
con respecto variables: la derivada de la función
con respecto a esta variable ha de anularse.
Esto va a generar un sistema de dos ecuaciones
con dos incógnitas.
0,0
b
SSE
a
SSE
11. Método de los mínimos
cuadrados
La pendiente b dependerá de la covarianza entre
las variables dependiente e independiente y la
varianza de la variable independiente:
2
),cov(
x
xy
b
12. Método de los mínimos
cuadrados
El intercepto a se obtiene despejando esta
incógnita de la ecuación de la recta una vez que
conocemos la pendiente (recordemos que las
barras indican media aritmética):
xbya
13. Coeficiente de correlación
Pensar que la ecuación que vincula dos variables
es lineal es una suposición.
¿Estamos seguros de que es una buena idea
usar la regresión lineal o que las observaciones
han sido buenas?
Para ello nos basamos en el coeficiente de
correlación:
yx
yx
r
),cov(
14. Coeficiente de correlación
Se puede ver que este coeficiente depende de la
covarianza entre la variable dependiente e
independiente y de las desviaciones típicas de
ambas.
Geométricamente r se puede entender como un
ángulo entre los vectores que forman los puntos
de la variable independiente y los de la variable
dependiente.
Si r2 es cercano a 0 son casi perpendiculares entre
sí y no están correlacionados.
Si r2 es cercano a 1 son casi colineales (ya sean
paralelos o antiparalelos) y el uso de la regresión
lineal se convierte en una buena opción.
15. Linealización
El método de mínimos cuadrados es una
herramienta muy poderosa y conviene usarla
siempre que tengamos muchos puntos medidos y
que estos evolucionen.
Hay ecuaciones donde la relación entre variables
no es lineal.
No hay por qué preocuparse, pues el método
puede seguir aplicándose.
Para ello se recurre al proceso de linealización:
operaciones matemáticas básicas (y de cambio
de variable si conviene) que modifican la
ecuación de partida hasta asemejarla a una
ecuación lineal.
16. Javier García Molleja
Ejercicios basados en Directrices para la
realización del informe de las prácticas de
laboratorio, I. Mozo, Universidad Yachay
Tech, 2016
3 – Regresiones lineales
19. Linealización
Para utilizar el método de mínimos cuadrados,
linealice las siguientes ecuaciones:
Ley de decaimiento radiactivo midiendo N(t) y t
Ecuación de aceleración uniforme midiendo r y t y
sabiendo que v0 = 0
Ley de Bragg midiendo q y l