Series bidimensionales y cronológicas por juana cabriles y francisco
1. CHARALLAVE, JULIO 2017
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA
EDUCACIÓN UNIVERSITARIA
UNIVERSIDAD BICENTENARIA DE ARAGUA
“CONTADURIA PUBLICA”
PROF:
YELITZA RODRIGUEZ
PARTICIPANTES:
JUANA CABRILES C.I: 18.388.756.
FRANCISCO LEIBA C.I: 19.959.840.
2. Son aquellas en las que se estudian al mismo tiempo dos
variables de cada elemento de la población: por ejemplo:
peso y altura de un grupo de estudiantes; superficie y
precio de las viviendas de una ciudad; potencia y
velocidad de una gama de coches deportivos.
3. Las series cronológicas, son un caso particular de las distribuciones
bidimensionales donde una variable es necesariamente el tiempo que puede
ser medido en años, meses, días, etc.
Las series cronológicas, llamadas también series temporales o históricas
son un conjunto de observaciones de una o más variables observadas a
través del tiempo.
Algunos ejemplos de series cronológicas son la tasa de inflación, tasa de
devaluación, exportaciones, importaciones, producto interno bruto, las
ventas anuales de empresa, etc., que son variables normalmente observadas
a través del tiempo.
4. Permite contrastar la hipótesis nula de que las medias de K
poblaciones (K >2) son iguales, frente a la hipótesis alternativa de
que por lo menos una de las poblaciones difiere de las demás en
cuanto a su valor esperado. Este contraste es fundamental en el
análisis de resultados experimentales, en los que interesa
comparar los resultados de K 'tratamientos' o 'factores' con
respecto a la variable dependiente o de interés.
5. En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según
terminología inglesa) es una colección de modelos estadísticos y sus
procedimientos asociados, en el cual la varianza está particionada en ciertos
componentes debidos a diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por
el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces
conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al
uso de la distribución F de Fisher como parte del contraste de hipótesis.
El ANOVA se basa en la descomposición de la variación total de los datos con
respecto a la media global (SCT), que bajo el supuesto de que H0 es cierta es
una estimación de obtenida a partir de toda la información muestral, en dos
partes:
• Variación dentro de las muestras (SCD) o Intra-grupos, cuantifica la
dispersión de los valores de cada muestra con respecto a sus
correspondientes medias.
• Variación entre muestras (SCE) o Inter-grupos, cuantifica la dispersión de
las medias de las muestras con respecto a la media global.
6. Una vez que se han calculado las sumas de cuadrados, las medias
cuadráticas, los grados de libertad y la F, se procede a elaborar una
tabla que reúna la información, denominada "Tabla de Análisis de
varianza o ANOVA", que adopta la siguiente forma:
7. Interpretación de los resultados
• Después de realizar el experimento, debe hacerse un análisis estadístico y sacar
conclusiones prácticas acerca del problema bajo estudio.
• En muchas ocasiones, esto puede hacerse mediante el análisis de los gráficos
(diagramas de caja, diagramas de dispersión)
• Pero en algunos casos es necesario aplicar técnicas más formales
Tipos de factores
• Los factores que intervienen en un experimento pueden ser:
• Cualitativos: Los niveles no pueden ordenarse por magnitud (Ej.: operadores,
cambios de turno, lotes de materia prima, etc.)
• Cuantitivos: Aquellos cuyos niveles pueden asociarse con puntos en una escala
numérica (Ej.: Temperatura, presión, tiempo, etc.)
• Ambos tipos de factores se tratan de manera idéntica en el Diseño de Experimentos.
8. Análisis de Regresión
• Con factores cualitativos no hay valores intermedios. Son valores discretos
y sólo se pueden sacar conclusiones sobre estos valores en particular.
• Con factores cualitativos, podrían darse valores numéricos intermedios
entre dos niveles estudiados (Ej.: Se han estudiado los niveles 2.0 y 3.0, pero
se quisiera tratar de predecir qué ocurriría con un nivel 2.5)
• En este caso se puede usar una interpolación entre puntos consecutivos.
Esto es un modelo empírico del proceso estudiado.
• Al enfoque general para ajustar modelos empíricos se le llama análisis de
regresión.
9. • Supongamos que todos los promedios de los tratamientos tienen desviación
estándar
• Si todos los promedios de los tratamientos son iguales, las medias observadas,
se comportarían como si fueran un conjunto de observaciones tomadas al azar de
una distribución con media m y varianza.
•Los valores que no parecen haber sido sacados de la distribución
(puntos 1 y 4) se asocian con tratamientos que producen respuestas
medias diferentes
10. • El problema con la prueba anterior es que la varianza no se conoce.
• La varianza se estima con el MSE
• Entonces debe usarse una distribución t en lugar de la normal para
hacer la gráfica.
• Los valores de 20 y 25 son los únicos que se adaptan a la distribución
t. Los demás no podrían tomarse como medias generadas por esa
distribución
11. • En general, la comparación de las medias de los tratamientos de
interés, implicará una combinación lineal de los totales de los
tratamientos, denominada contraste, como
• Donde las constantes de los contrastes suman cero, es decir,
• Las hipótesis anteriores pueden re-escribirse en términos de contrastes: