You are on page 1of 131

Análisis de datos

Índice

Análisis de datos

Estadística Descriptiva e Inferencia Estadística

Pruebas paramétricas

Diseños experimentales y no experimentales


Técnicas de Análisis de Datos

 Estadística Descriptiva: Tablas de


Frecuencias - Gráficos Estadísticos -
Medidas Estadísticas
 Inferencia Estadística: Pruebas Estadísticas.
Prueba T de Student -Prueba ANVA -Prueba
Chi Cuadrado - Análisis de Regresión
Pruebas Estadísticas – Análisis Estadístico
A. Experimentos puros
Grupo Asignación Pre Prueba Tratamiento Post prueba
GE R O1 X O2
GC R O3 - O4

Análisis estadístico de datos:


Grupo Grupo
Experimental Control
Post Post
Hipótesis Prueba de Hipótesis
Ho:1= 2
324.015 312.06 H1 : 1≠ 2 1. Prueba Paramétrica:
304.81 194.085 Prueba T de Student para
235.175 94.29 Hipótesis muestras independientes
74.885 223.61
Ho: X influye en Y
165.05 124.755 H1: X no influye en Y
152.005 98.85 ( x1  x2 ) 2. Prueba No paramétricas:
Te 
1 1 Test U de Mann-Whitney
µE=µ1 µc=µ2 Sc 
n1 n2
B. Cuasi experimentales
Grupo Asignación Pre Prueba Tratamiento Post prueba

GE O1 X O2
GC O3 - O4

Grupo Grupo Análisis estadístico de datos:


Experimental Control
Post Post Hipótesis Prueba de Hipótesis
Ho:1= 2 1. Prueba Paramétrica:
324.015 312.06 Prueba T de Student para
H1 : 1≠ 2 muestras independientes.
304.81 194.085 2. Prueba No paramétricas:
Test U de Mac Witney
235.175 94.29
Hipótesis
74.885 223.61
Ho: X influye en Y 3. Análisis de correlación
165.05 124.755
H1: X no influye en Y 4. Análisis de regresión
152.005 98.85

µE=µ1 µC=µ2
C. Pre experimentales

Grupo Asignación Pre Prueba Tratamiento Post prueba


GE O1 X O2

Análisis estadístico de datos:


Grupo Grupo
PRE POST
Hipótesis Prueba de Hipótesis
324.015 312.06 Ho:1= 2 1. Prueba Paramétrica:
Prueba T de Student para
304.81 194.085 H1 : 1≠ 2 muestras dependientes.
2. Prueba No paramétricas:
235.175 94.29
Test U de Wilcoxon
74.885 223.61 Hipótesis
165.05 124.755 Ho: X influye en Y 3. Análisis de Correlación
152.005 98.85 H1: X no influye en Y 4. Análisis de Regresión

µPRE=µ1 µPOST=µ2
ETAPAS DE UNA PRUEBA DE HIPÓTESIS
METODO TRADICIONAL

1. Plantear la hipótesis nula y alternativa. (Ho y H1)


2. Especificar el nivel de significancia (Generalmente la
plantea el investigador). (α =0.05, 0.01)
3. Calcular un valor experimental: Estadístico de prueba que
debe ser especificado en términos de un estimador del
parámetro a probar.
4. Calcular el valor critico: Valor que se encuentra el la tabla
de Probabilidades, que es valor que determinara la región
de aceptación y rechazo.
5. Tomar la decisión de aceptar o rechazar Ho.
6. Dar conclusión respectiva

METODO MODERNO

1. Plantear la hipótesis nula y alternativa. (Ho y H1)


2. Observar el valor p (significancia)
Si p< 0.05 RECHAZAR Ho
Si p ≥ 0.05 ACEPTAR Ho
1. PRUEBA T DE STUDENT PARA GRUPOS INDEPENDIENTES
T
1º. Hipótesis:
H0: Los promedios de ambos grupos son iguales. R
H1: Los promedios de ambos grupos son diferentes.
2º. Nivel de significancia: 0.10; 0.05; 0.01 A
3º. Valor Experimental (Estadístico de prueba):
D
( x1  x2 )
Te 
Sc
1 1

I
n1 n2
C
Donde: (n 1  1)s 12  (n 2  1)s 22
sc 
2
I
n1  n 2  2
4º. Valor critico (valor tabular): Tt = T(n1+n2-2,α/2) O
el cual tienen un distribución “T de Student” con n-1 grados de libertad, donde n= número de datos.
5º. Decisión: N
Si rechazar la hipótesis H0 si Te ≥ Tt.
6º. Conclusión A
L
1º. Hipótesis:
H0: Los promedios de ambos grupos son iguales. M
H1: Los promedios de ambos grupos son diferentes.
2º. Nivel de significancia: 0.10; 0.05; 0.01 O
3º. Decisión:
Si p< 0.05 , rechazar la hipótesis Ho D
Si p ≥ 0.05 , aceptar la hipótesis Ho
4º. Conclusión E
R
N
0
2. PRUEBA T DE STUDENT PARA GRUPOS RELACIONADOS
(Muestras dependientes)
1º. Hipótesis: T
H0: Los promedios del pre test es igual al post test.
H1: Los promedios del pre test es diferente al post test. R
2º. Nivel de significancia: 0.10; 0.05; 0.01 A
3º. Valor Experimental (Estadístico de prueba):
D
d d
Te   I
sd sd
C
n I
Donde:
 : es el promedio de la diferencia de los puntajes de ambos grupos.
O
 : es la desviación estándar de las diferencias de los puntajes de ambos grupos. N
4º. Valor critico (valor tabular): Tt = T(n-1,α/2) A
el cual tienen un distribución “T de Student” con n-1 grados de libertad, donde n= número de datos.
5º. Decisión: L
Si rechazar la hipótesis H0 si Te ≥ Tt.
6º. Conclusión

1º. Hipótesis: M
H0: Los promedios del pre test es igual al post test. O
H1: Los promedios del pre test es diferente al post test.
2º. Nivel de significancia: 0.10; 0.05; 0.01 D
5º. Decisión: E
Si p< 0.05 , rechazar la hipótesis Ho
Si p ≥ 0.05 , aceptar la hipótesis Ho R
6º. Conclusión N
O
3. ANALISIS DE VARIANZA: (Anva-Anova-Andeva)
• La prueba de Hipótesis del ANVA es la siguiente:
Ho:1= 2 = ……= k Ho:Los grupos son iguales
H1: Al menos dos de las medias son H1: Los grupos son diferentes
• Los elemntos que conforman el ANVA son: SC - GL - CM - Fe - Ft

Fuente de Suma de Grados de Cuadrado F F


Variación Cuadrados Libertad Medio Calculado Tabular

Entre grupos SCG K–1 CMG=SCG/(k-1) Fcalc.=CMG/CME F (k-1,N-k,α)

Dentro grupos SCE N–k CME=SCE/(N-k)


(Error)
Total SCT N–1

• Decisión
Rechazar Ho si Fcalc > F(k-1,N-k,α) , es decir que existe evidencia estadística de que
no todas las medias de los tratamientos son iguales.
• En conclusión :
Por lo menos un grupo es diferente.
SESIÓN 1. Conceptos generales en los Diseños Experimentales
1.1. La Estadística y la Experimentación. Historia
1.2. Conceptos básicos en los diseños experimentales y procedimiento
1.3. Principios básicos en los diseños experimentales
1.4. Clasificación de los diseños experimentales

Referencia Bibliográfica:
Diseño y Análisis de Experimentos . Douglas Montgomery. 2° edición.
Análisis y Diseño de Experimentos. Humberto Gutiérrez Pulido. 2° Edición. Año 2008
Bioestadística. Daniel. .
NIVELES
DESCRIPTIVA CORRELACIONAL EXPLICATIVA PREDICTIVA
DE LA
 Identifica - Describe  Identifica – Describe –  Determina la relación
INVESTIGACIÓN
 Estimado el modelo
hechos, concepto, Correlaciona variables, causal entre variables . se realiza
variables. hechos previa medición,  Determina las causas de predicciones o
 Mide conceptos  Explica y cuantifica los fenómenos pronósticos
 Define variables relaciones entre  “Control de variables”  Validación del
variables EXPERIMENTAL modelo

INVESTIGACIÓN CONCLUYENTE
EXPLORATORIA

 Identifica hechos, conceptos,


variables
 Indaga desde una
perspectiva innovadora
 Prepara el terreno para
nuevos estudios
1.1. La Estadística y la Experimentación
DISEÑOS EN LA INVESTIGACIÓN EXPLICATIVA

Pre-Experimentales
DCA

Cuasiexperimentales
Diseños DBCA
Experimentales
Diseños
Experimentales Puros
Unifactoriales
DCL

Estadísticos
DCGL

Diseños 2k, 3k,


Diseños
anidados,
factoriales
fraccionados, etc
1.2. Diseño Experimental-Historia
HISTORIA ...
• El Diseño Estadístico de Experimentos (DEE) fue introducido
por Ronald A. Fisher en la mitad del siglo XX en Inglaterra a
través de su libro «The Design of Experiments» (1935), el cual
influyó de manera decisiva en la investigación agrícola.
• Posteriormente los Diseños de Experimentos fue encabezado
por George E. P. Box. Quien desarrollo la metodología de
Superficie de respuesta (1951).
• Luego en la década de 1980, se dio gran impulso al
conocimiento y aplicación del Diseño de Experimentos debido
al éxito en calidad en la industria japonesa. Los Gurúes
Deming, Ishikawa, Taguchi, entre otros.
Que es un experimento ...
• Los investigadores realizan experimentos en
todos los campos del saber, por lo general, para
descubrir algo acerca de un proceso o sistema.
• Un experimento es una PRUEBA o ENSAYO.
• Un Experimento diseñado, es una prueba o serie
de pruebas en las cuales se inducen cambios
deliberados en la variable de entrada (Factores)
de un proceso o sistema, de manera que sea
posible observar o identificar los cambios en la
variable respuesta

Un proceso es una combinación de maquinas, métodos, personas y otros


recursos que transforma alguna entrada en una salida que tiene una o mas
respuestas observables.
Algunas variables de entrada X1, X2, …, Xp son controlables, mientras que
otras son incontrolables Z1, Z2, …, Zq
Que es un experimento y Diseño de Experimentos ...

Experimento:
Es cuando se realizan cambios en las condiciones
de operación de un sistema o proceso, con el
objetivo de medir el efecto o cambio en una o varias
propiedades del producto o resultado.

Diseño de Experimentos:
Es la aplicación del método científico para generar
conocimiento acerca de un sistema o proceso, por medio de
pruebas planeadas adecuadamente.
Esta metodología se ha ido consolidando como un conjunto
de técnicas estadísticas y de ingeniería, que permiten
entender mejores situaciones complejas de relación causa-
efecto.
Definiciones generales: Unidad experimental
Unidad experimental:

• Es la entidad física, sujeto u objeto


expuesto al tratamiento
independientemente de otras unidades.
• Es el animal, persona o cosa a quien se le
aplica el tratamiento.
• Es la pieza o muestra que se utiliza para
generar un valor que sea representativo
del resultado del experimento o prueba.
• En cada diseño es importante definir la
unidad experimental ya que esta puede ser
una pieza o muestra de una sustancia o un
conjunto de piezas producida,
dependiendo del proceso que se estudia.
1.4. Definiciones
Definiciones básicasFactor
generales: en el Diseño derespuesta
- Variable Experimentos:
FACTOR:
Factores Controlables: (fáciles de diseño)
• En una VARIABLE. Es una variable de entrada. Son Tiempo, presión, velocidad, temperatura,
las variables independientes. Es la variable que contenido de humedad.

manipula el investigador, para estudiar su efecto


sobre la variable respuesta (dependiente).
Tipos de factores:
• Cualitativos-Cuantitativos Unidad experimental
Dureza, color, costo,
textura, etc.
• Controlables – No controlables (de ruido)

VARIABLE RESPUESTA: Factores no controlables: (factores de ruido)


Química del plástico
Es la variable de salida de un proceso. Es la variable Variables ambientales

dependiente. A través de esta se conoce el efecto o los


resultados al aplicar una prueba experimental. En estudios
experimental el objetivo siempre es mejorar la variable
respuesta.
1.4. Definiciones básicas en el Diseño de Experimentos:
Definiciones generales: Nivel - Tratamiento - error
Niveles y Tratamiento: Error aleatorio y error experimental

NIVELES: ERROR ALEATORIO:


Son los diferentes valores que se Es la variabilidad observada que no se
asigna a cada factor estudiado. puede explicar por los factores
Por ejemplo: estudiado; resulta del pequeño efecto
de los factores no estudiados y del
Factor 1: Temperatura con niveles: error experimental.
15°, 18° y 20°.
ERROR EXPERIMENTAL:
Factor 2: Tipo dieta: Maíz; Purina; A.
Balanceado Componente del error aleatorio que
refleja los errores del experimentador
TRATAMIENTO: en la planeación y ejecución del
Cada uno de los niveles puede ser un experimento
1.5. Etapas del Diseño de Experimentos:
ETAPAS EN EL DISEÑO DE EXPERIMENTOS
SEGÚN DOUGLAS MONTGOMERY

IDENTIFICACIÓN Y
ELECCIÓN DE LOS FACTORES, SELECCIÓN DE LA VARIABLE
ENUNCIACIÓN DEL
LOS NIVELES Y LOS RANGOS RESPUESTA
PROBLEMA

ELECCIÓN DEL DISEÑO REALIZACIÓN DEL ANÁLISIS ESTADÍSTICO DE


EXPERIMENTAL EXPERIMENTO DATOS

CONCLUSIONES Y
RECOMENDACIONES
1.6. Principios básicos:

Principios Básicos

Aleatorización Repetición Bloqueo o Control Local

Consiste en aplicar en forma Cada tratamiento debe ser aplicado


aleatoria los tratamientos a Consiste en nulificar o tomar en cuenta
a diferentes UE en diversas todos los factores que puedan tomar en
las UE. ocasiones cuenta la respuesta observada.

Este principio aumenta la


posibilidad que que el Esto quiere decir corre mas de Particiona el conjunto total de las
supuesto de independencia una vez un tratamiento. UE en subconjuntos que sean lo
se cumpla mas homogéneas posibles .
1.7. Clasificación de los Diseños Estadísticos
Experimentales:
Clasificación de los Diseños Experimentales Estadísticos

Diseños para comparar dos o Diseños para estudiar el Diseños para la


mas tratamientos efecto de varios factores optimización

Diseños para modelos de primer


orden
Diseños unifactoriales Diseños factoriales Diseños para modelos de segundo
orden

Diseño Completamente al azar (DCA)


Diseños factoriales 2K Diseños factoriales; Diseño Plakett-
Diseño Bloque Completamente al azar (DBCA) Burman; Diseño simplex
Diseños factoriales 3k
Diseño Cuadrado Latino (DCL) Diseños de Composición Central;
Diseño Cuadrado greco Latino (DCGL) Diseños factoriales fraccionarios Diseño Box-Behnken
Otros tópicos:
PRUEBA DE HIPÓTESIS
1. Plantear la hipótesis nula y alternativa. (Ho y H1)
2. Especificar el nivel de significancia (Generalmente la METODO TRADICIONAL
plantea el investigador). (α =0.05, 0.01)
3. Calcular un valor experimental: Estadístico de
prueba que debe ser especificado en términos de un
estimador del parámetro a probar.
4. Calcular el valor critico: Valor que se encuentra el la
tabla de Probabilidades, que es valor que
determinara la región de aceptación y rechazo.
5. Tomar la decisión de aceptar o rechazar Ho.
6. Dar conclusión respectiva

1. Plantear la hipótesis nula y alternativa. (Ho y H1)


2. Observar el valor p (significancia)
METODO MODERNO
Si p< 0.05 RECHAZAR Ho
Si p ≥ 0.05 ACEPTAR Ho
3. Conclusión
 La prueba de normalidad es una prueba que
Prueba de Normalidad: consiste en verificar si el conjunto tiene un
comportamiento normal, es decir, que la mayor
PRUEBA cantidad de datos se encuentra en el centro de
la distribución y pocos datos en los extremos.
DE (Distribución simétrica)
NORMALIDAD  Para probar la normalidad existen varias
pruebas como las que mencionamos a
continuación:

Pruebas gráficas Pruebas teóricas


 Q-Q Plot  La prueba Chi Cuadrado
 P-P Plot  La Prueba Kolmogorov-Smirnov
 La Prueba de Shapiro-WilKs,
 etc

HO: Los datos de aproximan a una distribución normal.


H1: Los datos NO se aproximan a una distribución normal
PRUEBA DE NORMALIDAD:
Pruebas de
Normalidad

Kolmogorov- Shapiro Cramer-Von Chi Shapiro-


Jarque Bera D’ Angostino Lilliefors
Smirnov Wilks Misses Cuadrado Francis

HO: Los datos de aproximan a una distribución normal.


H1: Los datos NO se aproximan a una distribución normal
SESIÓN 2 : Diseño Completamente al Azar (DCA)
1.1. Definición. Modelo Estadístico.
1.2. Presentación de datos
1.3. Hipótesis y la prueba ANVA. Tipos de efectos
1.4. Aplicación. Manejo de Software. Statgraf Centurión
1.5. Pruebas Post Anva.
1.6. Aplicaciones. Statgraf Centurión

Referencia Bibliográfica:
Diseño y Análisis de Experimentos . Douglas Montgomery. 2° edición.
Análisis y Diseño de Experimentos. Humberto Gutiérrez Pulido. 2° Edición. Año 2008
Bioestadística. Daniel. .
1.1. Definición. Características. Modelo Estadístico
Tabla 1. Datos referente al experimento del proceso de
Características del DCA: soplado de los envases PET, consideremos el interés de
averiguar la influencia del factor temperatura de
horneado (ºC) en la Presión Interna del envase PET
• Es un diseño unifactorial
Obs. T E M P E R A T U R A
• Su objetivo es determinar el efecto de un factor 140º 150º 160º 170º
sobre una variable respuesta
1 122 126 126 126
• Se aplica cuando el material experimental es 2 121 122 126 131
completamente homogéneo
3 121 121 126 128
• En este diseño todos los tratamientos se 4 122 122 128 128
asignan completamente al azar a las unidades
experimentales o viceversa. FUENTE: Tesis de Maestría 1999- UNT, L. Rubio
1.1. Definición. Características. Modelo Estadístico

Modelo Estadístico:
1.2. Presentación de los datos
Matriz de datos:

Repeti F1: T EMPERATURA


ciones
(Tratamientos)
140º 150º 160º 170º

1 122 126 126 126

2 121 122 126 131

3 121 121 126 128

4 122 122 128 128


1.3. Hipótesis. Análisis de varianza

Tabla de Análisis de Varianza:


1.3. Tipos de efectos:
1.4. Aplicación

Aplicación:
Ejemplo 3-1. El experimento a la resistencia a la tensión. Pág. 86. Diseños de Experimentos . Douglas
Montgomery
Identificar la variable respuesta, Factor (Tipo), Niveles, unidad experimental.
1.4. Aplicación - Solución
1.5. Prueba Post ANVA:

Pruebas
Post ANVA

Prueba de un
Pruebas Contrastes Pares de Tratamientos Tratamiento con un
control

Prueba de Tukey- Prueba de Prueba de Prueba de


Prueba de Sheffe Prueba de Tukey Prueba LSD de Fisher
Cramer Duncan Newman-Keuls Dunnett

ESTAS PRUEBA SE REALIZAN CUANDO EL ANALISIS DE VARIANZA (ANVA) RESULTÓ SER SIGNIFICATIVA
(p<0.05). Es decir los tratamientos tienen diferente efecto.
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

APLICACIÓN:
Se tiene como referencia el experimento sobre peso porcentual de algodón (T1: 15%, T2:20%,
T3:25%; T4:30%; T5: 35%) sobre la resistencia a la tensión en la tela.

SOSPECHAS:
1. Los tratamientos 4 y 5 producen la misma resistencia a la tensión

2. Los tratamientos (1y2) producen la misma resistencia a la tensión que los tratamientos (4y5)

3. Luego debo calcular contrastes: Posteriormente calcular:


1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Suponga que antes de correr el experimento el investigador se especifico las siguientes


comparaciones o contrates:

Se comprueba que los constrates son ortogonales. Posteriormente se encuenta los valores numéricos de de los contrastes
y luego sus SUMAS DE CUADRADOS los cuales irán en al ANVA:
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Finalmente, se obtiene el ANVA desglosado para cada uno de los contrates con 1 grado de libertad para cada uno de ellos.
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Prueba de Scheffé:
• Sirve para probar todos y cada uno de los contrastes posibles entre las medias de los tratamientos.
• En esta prueba, el error tipo I, para cualquiera de las posibles comparaciones.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión

6. Conclusión: En base al resultado obtenido


1.5. Prueba Post ANVA: PRUEBA DE TUKEY :

Prueba de Tukey:
• Sirve para probar todos las comparaciones de las medias por pares.
• Tukey propuso un procedimiento cuando el diseño es balanceado.
• Este procedimiento se basa en el estadístico RANGO STUDENTIZADO.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión: Rechazar Ho si: es mayor que

6. Conclusión: En base al resultado obtenido


1.5. Prueba Post ANVA: PRUEBA DE TUKEY :

Prueba de Tukey-Kramer:
• Sirve para probar todos las comparaciones de las medias por pares.
• Es una versuión cuando el tamaño de replicas es diferente
.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión: Rechazar Ho si: es mayor que

6. Conclusión: En base al resultado obtenido


Práctica presencial 3:

• Abrir el libro virtual de Diseños Experimentales. Douglas Montgomery.


• Formar grupos de trabajo
• Ir a la pagina 99 del libro y obtener un resumen de las pruebas:
1. Prueba de la Diferencia Mínima Significativa (LSD)
2. Prueba de Rango Múltiple de Duncan
3. Prueba de Newman-Keuls
4. Prueba de Dunnett
5. Presentar su resumen.
Sesión 2 : Diseño Completamente al Azar (DCA)

1.7. Diseño DCA balanceado y no balanceado. Aplicación.


1.8. Modelo a efectos fijos. Aplicación
1.9 Modelo a efectos aleatorios. Aplicación
1.10. Verificación del modelo.
• Normalidad.
• Gráfico de los residuales con el tiempo.
• Gráfico de los residuales contra los valores ajustados
• Gráfico de residuales contra otras variables.
1.11 Métodos no paramétricos. La Pruebas Kruskall – Wallis.
1.7. Diseño balanceado y no balanceado

Modelo Estadístico:
1.7. Diseño balanceado y no balanceado
Matriz de datos: Valor faltante: Diseño No balanceado
1.7. Diseño balanceado y no balanceado
1.7. Diseño balanceado y no balanceado

Aplicación:
Diseño balanceado: Diseño no balanceado:
1.8. Tipos de efectos:
FACTOR A EFECTOS FIJOS:
• Se dice que un factor es a efectos fijos , si los a tratamientos son los
únicos elegidos expresamente por el investigador.
• En esta situación las conclusiones se aplican únicamente a los
tratamientos del factor considerado en el análisis. No se pueden
extender a tratamientos similares
• Modelos a Efectos Fijos.
• Aquí se estima µ, Ƭi, σ2

FACTOR A EFECTOS ALEATORIOS:


• Se dice que un factor es a efectos aleatorios, si los a tratamientos son una muestra aleatoria de
una población mas grande de tratamientos .
• En esta situación, las conclusiones se extienden a la totalidad de los tratamientos de la
población.
• Se llama también «Modelos a Efectos Aleatorios o Modelos de Componentes de Varianza».
1.8. Modelos a efectos fijos. Análisis de varianza

Modelo a efectos fijos:


Práctica presencial 4:

Práctica: DESARROLLAR EN EL SPSS


1.9. Modelos a efectos aleatorios. Análisis de varianza

Modelo a efectos aleatorios:


1.9. Modelos a efectos aleatorios. Aplicación

Práctica
presencial 4:
DESARROLLAR
EN EL SPSS
1.10. Verificación del modelo:

Grafico de cajas y bigote:


1.10. Verificación del modelo: Normalidad-Varianzas iguales
Gráfico de los residuales vrs.
P-P Plot: Normalidad
Tiempo: Homoscedasticidad
1.10. Verificación del modelo: Normalidad
1.10. Verificación del modelo: Homoscedasticidad
PRUEBAS DE LA IGUALDAD DE VARIANZAS: (HOMOSCEDASTICIDAD)
Las pruebas que nos permiten evaluar la homoscedasticidad son :

• Prueba C de Cochran
• Prueba de de Bartlett: (sensible al supuesto de normalidad)
• Prueba de Hartley
• Prueba de Levene

Hipótesis:
Aplicación:
1.10. Verificación del modelo: Aplicación
1.10. Verificación del modelo: Aplicación
Aplicación:
1.10. La prueba Kruskall-Wallis. Supuesto de normalidad no
se cumple

WILLIAN KRUSKAL WILSON ALLEN WALLIS


• En situaciones en las que el supuesto de normalidad no se
cumple, el experimentador quizá quiera usar un
procedimiento alternativo del ANVA con la prueba F que
no dependa de este supuesto.

• Kruskal y Wallis han desarrollado esta prueba, que se usa


para probar la Ho: Los a tratamientos son idénticos contra
la H1: Algunos tratamientos generan observaciones que
son mayores que otras.

• Esta prueba es una alternativa NO paramétrica del análisis


de varianza usual.
1919 - 2005 1912 - 1998
1.10. La prueba Kruskall-Wallis. Supuesto de normalidad no
se cumple

 12 k R2 
H   j
  3( N  1)
 N ( N  1) j 1 n j 
k  número de grupos
N  número total de sujetos
n j  número de sujetos en cada grupo
R j  Suma de los rangos en cada grupo
k

  Indica que se deben sumar los k grupos


j 1
1.10. La prueba Kruskall-Wallis. Aplicación

Un fabricante de semiconductores ha desarrollado tres métodos diferentes para reducir el conteo de partículas en
las obleas. Los tres métodos se prueban en cinco obleas y se obtiene el conteo de partículas después del
tratamiento. Los datos se muestran abajo:

Método Conteo
1 31 10 21 4 1
2 62 40 24 30 35
3 53 27 120 97 68

Responder los siguiente:


a. Todos los métodos tienen el mismo efecto sobre el conteo promedio de partículas?
b. Graficar los residuales contra la respuesta predicha.
c. Construir una gráfica de probabilidad normal de los residuales. Hay motivo de preocupación acerca de la
validez de los supuestos?
SESIÓN 2 : Diseño Completamente al Azar (DCA)

1.1. Definición. Modelo Estadístico.


1.2. Presentación de datos
1.3. Hipótesis y la prueba ANVA. Tipos de efectos
1.4. Aplicación. Manejo de Software. Statgraf Centurión
1.5. Pruebas Post Anva.
1.6. Aplicaciones. Statgraf Centurión

Referencia Bibliográfica:
Diseño y Análisis de Experimentos . Douglas Montgomery. 2° edición.
Análisis y Diseño de Experimentos. Humberto Gutiérrez Pulido. 2° Edición. Año 2008
Bioestadística. Daniel. .
1.1. Definición. Características. Modelo Estadístico
Tabla 1. Datos referente al experimento del proceso de
Características del DCA: soplado de los envases PET, consideremos el interés de
averiguar la influencia del factor temperatura de
horneado (ºC) en la Presión Interna del envase PET
• Es un diseño unifactorial
Obs. T E M P E R A T U R A
• Su objetivo es determinar el efecto de un factor 140º 150º 160º 170º
sobre una variable respuesta
1 122 126 126 126
• Se aplica cuando el material experimental es 2 121 122 126 131
completamente homogéneo
3 121 121 126 128
• En este diseño todos los tratamientos se 4 122 122 128 128
asignan completamente al azar a las unidades
experimentales o viceversa. FUENTE: Tesis de Maestría 1999- UNT, L. Rubio
1.1. Definición. Características. Modelo Estadístico

Modelo Estadístico:
1.2. Presentación de los datos
Matriz de datos:

Repeti F1: T EMPERATURA


ciones
(Tratamientos)
140º 150º 160º 170º

1 122 126 126 126

2 121 122 126 131

3 121 121 126 128

4 122 122 128 128


1.3. Hipótesis. Análisis de varianza

Tabla de Análisis de Varianza:


1.3. Tipos de efectos:
1.4. Aplicación

Aplicación:
Ejemplo 3-1. El experimento a la resistencia a la tensión. Pág. 86. Diseños de Experimentos . Douglas
Montgomery
Identificar la variable respuesta, Factor (Tipo), Niveles, unidad experimental.
1.4. Aplicación - Solución
1.5. Prueba Post ANVA:

Pruebas
Post ANVA

Prueba de un
Pruebas Contrastes Pares de Tratamientos Tratamiento con un
control

Prueba de Tukey- Prueba de Prueba de Prueba de


Prueba de Sheffe Prueba de Tukey Prueba LSD de Fisher
Cramer Duncan Newman-Keuls Dunnett

ESTAS PRUEBA SE REALIZAN CUANDO EL ANALISIS DE VARIANZA (ANVA) RESULTÓ SER SIGNIFICATIVA
(p<0.05). Es decir los tratamientos tienen diferente efecto.
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

APLICACIÓN:
Se tiene como referencia el experimento sobre peso porcentual de algodón (T1: 15%, T2:20%,
T3:25%; T4:30%; T5: 35%) sobre la resistencia a la tensión en la tela.

SOSPECHAS:
1. Los tratamientos 4 y 5 producen la misma resistencia a la tensión

2. Los tratamientos (1y2) producen la misma resistencia a la tensión que los tratamientos (4y5)

3. Luego debo calcular contrastes: Posteriormente calcular:


1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Suponga que antes de correr el experimento el investigador se especifico las siguientes


comparaciones o contrates:

Se comprueba que los constrates son ortogonales. Posteriormente se encuenta los valores numéricos de de los contrastes
y luego sus SUMAS DE CUADRADOS los cuales irán en al ANVA:
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Finalmente, se obtiene el ANVA desglosado para cada uno de los contrates con 1 grado de libertad para cada uno de ellos.
1.5. Prueba Post ANVA: PRUEBA DE SCHEFFE

Prueba de Scheffé:
• Sirve para probar todos y cada uno de los contrastes posibles entre las medias de los tratamientos.
• En esta prueba, el error tipo I, para cualquiera de las posibles comparaciones.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión

6. Conclusión: En base al resultado obtenido


1.5. Prueba Post ANVA: PRUEBA DE TUKEY :

Prueba de Tukey:
• Sirve para probar todos las comparaciones de las medias por pares.
• Tukey propuso un procedimiento cuando el diseño es balanceado.
• Este procedimiento se basa en el estadístico RANGO STUDENTIZADO.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión: Rechazar Ho si: es mayor que

6. Conclusión: En base al resultado obtenido


1.5. Prueba Post ANVA: PRUEBA DE TUKEY :

Prueba de Tukey-Kramer:
• Sirve para probar todos las comparaciones de las medias por pares.
• Es una versuión cuando el tamaño de replicas es diferente
.
Pasos:
1. Hipótesis:

2. Nivel de significancia: 0.05

3. Valor experimental:

4. Valor critico

5. Decisión: Rechazar Ho si: es mayor que

6. Conclusión: En base al resultado obtenido


Práctica presencial 3:

• Abrir el libro virtual de Diseños Experimentales. Douglas Montgomery.


• Formar grupos de trabajo
• Ir a la pagina 99 del libro y obtener un resumen de las pruebas:
1. Prueba de la Diferencia Mínima Significativa (LSD)
2. Prueba de Rango Múltiple de Duncan
3. Prueba de Newman-Keuls
4. Prueba de Dunnett
5. Presentar su resumen.
Sesión 2 : Diseño Completamente al Azar (DCA)

1.7. Diseño DCA balanceado y no balanceado. Aplicación.


1.8. Modelo a efectos fijos. Aplicación
1.9 Modelo a efectos aleatorios. Aplicación
1.10. Verificación del modelo.
• Normalidad.
• Gráfico de los residuales con el tiempo.
• Gráfico de los residuales contra los valores ajustados
• Gráfico de residuales contra otras variables.
1.11 Métodos no paramétricos. La Pruebas Kruskall – Wallis.
1.7. Diseño balanceado y no balanceado

Modelo Estadístico:
1.7. Diseño balanceado y no balanceado
Matriz de datos: Valor faltante: Diseño No balanceado
1.7. Diseño balanceado y no balanceado
1.7. Diseño balanceado y no balanceado

Aplicación:
Diseño balanceado: Diseño no balanceado:
1.8. Tipos de efectos:
FACTOR A EFECTOS FIJOS:
• Se dice que un factor es a efectos fijos , si los a tratamientos son los
únicos elegidos expresamente por el investigador.
• En esta situación las conclusiones se aplican únicamente a los
tratamientos del factor considerado en el análisis. No se pueden
extender a tratamientos similares
• Modelos a Efectos Fijos.
• Aquí se estima µ, Ƭi, σ2

FACTOR A EFECTOS ALEATORIOS:


• Se dice que un factor es a efectos aleatorios, si los a tratamientos son una muestra aleatoria de
una población mas grande de tratamientos .
• En esta situación, las conclusiones se extienden a la totalidad de los tratamientos de la
población.
• Se llama también «Modelos a Efectos Aleatorios o Modelos de Componentes de Varianza».
1.8. Modelos a efectos fijos. Análisis de varianza

Modelo a efectos fijos:


Práctica presencial 4:

Práctica: DESARROLLAR EN EL SPSS


1.9. Modelos a efectos aleatorios. Análisis de varianza

Modelo a efectos aleatorios:


1.9. Modelos a efectos aleatorios. Aplicación

Práctica
presencial 4:
DESARROLLAR
EN EL SPSS
1.10. Verificación del modelo:

Grafico de cajas y bigote:


1.10. Verificación del modelo: Normalidad-Varianzas iguales
Gráfico de los residuales vrs.
P-P Plot: Normalidad
Tiempo: Homoscedasticidad
1.10. Verificación del modelo: Normalidad
1.10. Verificación del modelo: Homoscedasticidad
PRUEBAS DE LA IGUALDAD DE VARIANZAS: (HOMOSCEDASTICIDAD)
Las pruebas que nos permiten evaluar la homoscedasticidad son :

• Prueba C de Cochran
• Prueba de de Bartlett: (sensible al supuesto de normalidad)
• Prueba de Hartley
• Prueba de Levene

Hipótesis:
1.10. Verificación del modelo: Aplicación
Aplicación:
1.10. Verificación del modelo: Aplicación
Aplicación:
1.10. La prueba Kruskall-Wallis. Supuesto de normalidad no
se cumple

 12 k R2 
H   j
  3( N  1)
 N ( N  1) j 1 n j 
k  número de grupos
N  número total de sujetos
n j  número de sujetos en cada grupo
R j  Suma de los rangos en cada grupo
k

  Indica que se deben sumar los k grupos


j 1
1.10. La prueba Kruskall-Wallis. Aplicación

Un fabricante de semiconductores ha desarrollado tres métodos diferentes para reducir el conteo de partículas en
las obleas. Los tres métodos se prueban en cinco obleas y se obtiene el conteo de partículas después del
tratamiento. Los datos se muestran abajo:

Método Conteo
1 31 10 21 4 1
2 62 40 24 30 35
3 53 27 120 97 68

Responder los siguiente:


a. Todos los métodos tienen el mismo efecto sobre el conteo promedio de partículas?
b. Graficar los residuales contra la respuesta predicha.
c. Construir una gráfica de probabilidad normal de los residuales. Hay motivo de preocupación acerca de la
validez de los supuestos?
A. Diseños transversales

Estudio T1 Donde:
M1 O1 • M1 muestra
• O1 observación

Muestra 1

X1
Estadística descriptiva:
X2
1. Tablas de Frecuencias.
X3 2. Gráficos Estadísticos.
X4 3. Medidas Estadísticas
X5

X6
Tablas y Gráficos Estadísticos

TABLAS DE DISTRIBUCION
GRAFICO ESTADÍSTICO
DE FRECUENCIAS

En un arreglo rectangular donde Es la representación pictórica


se presenta en forma resumida del comportamiento de una
el comportamiento de una variable en estudio
variable

Partes: Partes:
Numeración Numeración
Titulo Titulo
Encabezado Diagrama
Cuerpo Leyenda
Fuente Fuente
Construcción de una Tabla de Frecuencias

xi DATOS fi FRECUENCIA
Frecuencia Absoluta Frecuencia Relativa
Simple Simple
FAS Frecuencia Absoluta hi Frecuencia Relativa
Acumulada Acumulada
FAA Hi
TIPOS DE GRAFICOS

BARRAS BASTONES
SECTORIAL BARRAS
PYE HISTOGRAMA
POLIGONO DE FRECUENCIAS
OJIVAS
SERIES DE TIEMPO
TIPOS DE GRAFICOS
VARIABLES CUANTITATIVAS CONTINUAS

HISTOGRAMA OJIVA POLIGONO

VARIABLES CUANTITATIVAS DISCRETAS


DIAGRAMA DE
ESCALONES FRECUENCIAS
BASTONES
TIPOS DE GRAFICOS
VARIABLES CUALITATIVAS

BARRAS

CORONA O
ANILLO
SECTOR
CIRCULAR

BASTONES DIAGRAMA DE
FRECUENCIAS ESCALONES OTROS GRAFICOS
TIPOS DE GRAFICOS
OTROS GRAFICOS

LINEAS

PIRAMIDES
POBLACIONALES
TIPOS DE GRAFICOS

PICTOGRAMAS OTROS GRAFICOS


TIPOS DE GRAFICOS
OTROS GRAFICOS
CARTOGRAMAS
MEDIDAS ESTADÍSTICAS :
• Es un valor, es un número que se obtiene de la muestra.
• Llamado también “INDICADOR” o Medida Resumen.

Medidas Estadísticas VARIABLES


CUANTITATIVAS

Medidas de Posición Medidas de variación Medidas de forma


•Tendencia Central o dispersión
•Localización

La Media aritmética Rango Coeficiente


La mediana Medida de
Varianza de
La moda Desviación Estándar
asimetría Asimetría
Los cuartiles Coeficiente de Variación
Los deciles
Los percentiles
Coeficiente
Medida de apuntamiento de
o Kurtosis Kurtosis
B. Diseños longitudinales

Estudio T1 T2 T3 Donde:
• T1, T2, T3: son los periodos en los
M O1 O2 O3 cuales se realizan las observaciones

Muestra T1
Análisis estadístico de datos:
X1
1. Estadística descriptiva:
X2
Tablas de frecuencias y
X3 Gráficos Estadísticos.
X4 2. Series de Tiempo.
X5

X6
Pruebas de correlación
 Prueba de correlación de Pearson.
 Prueba de correlación de rango de Spearman
 Prueba Chi cuadrado
PRUEBAS ESTADISTICAS PARA MEDIR LA CORRELACION
ENTRE VARIABLES

COEFICIENTE DE
Las variables con
CORRELACION DE
Continua
PEARSON

COEFICIENTE DE
CLASIFICACIÓN Las variables son CORRELACION POR
Ordinales RANGOS DE
SPEARMAN

Las variables son


PRUEBA JI CUADRADO
categóricas
ANÁLISIS DE REGRESIÓN:

• Es una técnica estadística que consisten en


determinar la relación funcional entre dos variables
cuantitativas en estudio.
• Esta relación funcional, es una ecuación
matemática de la forma Y= A + B X, que recibe el
nombre también de Función de Regresión o Modelo
de Regresión.
• A la variable Y se le denomina variable dependiente,
a la variable X independiente y a A, B se les llama
parámetros de la ecuación de regresión.
• La finalidad del Análisis de Regresión es hacer
pronósticos es decir, hacer estimaciones futuros de
la variable dependiente.

Hipótesis
Ho: X influye en Y
H1: X no influye en Y
ANÁLISIS DE REGRESIÓN:

Pasos a seguir:
• Realizar el diagrama de dispersión y ver el comportamiento de la variable.
• Aplicar el método de los Mínimos Cuadrados Ordinarios para estimar los parámetros de
la ecuación. Las formulas son las siguientes:

A  Y  BX
n n n
n  X i Yi   X i  Yi
B i 1
n
i 1
n
i 1

n  X i2  ( X i ) 2
i 1 i 1

• Para hacer el pronóstico o el valor estimado de Y, reemplazar en la ecuación matemática el


respectivo valor de Xo, de la siguiente manera:

Y = A + B (Xo)
1. Modelo de Regresión Lineal Simple
1.1. Introducción al Modelo de Regresión Lineal
1.2. El Modelo de Regresión Lineal Simple
1.3. El Método de los Mínimos Cuadrados Ordinarios (MMCO)
1.4. Propiedades de los estimadores Mínimos Cuadrados
1.5. Inferencias sobre los coeficientes de regresión
1.6. El coeficiente de determinación
1.7. Predicción
1.8. La prueba de linealidad (Falta de ajuste)
1.9. Evaluación de supuestos
1.10. Aplicación
1.1. Introducción a los Modelos de Regresión Lineal

REGRESIÓN=Regresar
Los Modelos de Regresión Lineal (MRL) surgieron desde
1889 cuando Francis Galton, los utilizó para pronosticar la
estatura de los hijos a través de la estatura de los padres.
El término “regresión” se usó en principio para indicar que
ciertos fenómenos presentan continuamente mediciones
altas y bajas, pero que dichas mediciones eventualmente
“regresan” al promedio.
Francis Galton en su artículo pionero “Regression towards
mediocrity in hereditary stature”, establece que hijos de
padres altos no son tan altos como sus padres, e hijos de
padres bajos no son tan bajos como sus padres.
... Introducción al Modelo de Regresión Lineal

• Es una técnica estadística que consisten en


determinar la relación funcional entre dos variables
cuantitativas en estudio.
• La finalidad del análisis de regresión es encontrar esa
relación funcional, a través de una ecuación
matemática.
• Una forma razonable de relación entre la respuesta Y
(Variable dependiente) y el regresor X (Variable
independiente) es la relación lineal:

Y = β0 +β1 X
β0 es la intersección;
β1 es la pendiente.
Figura 1. Tipos de relación entre dos variables.
…Introducción a los Modelo de Regresión Lineal

Sin entrar en muchos detalles, cabe recordar que


los modelos lineales se basan en una serie de
supuestos, algunos de los cuales pueden y deben
comprobarse una vez ajustado el modelo.
Estos son:

1. Independencia: Los valores de Yi, o los residuos


del modelo, son independientes entre si.
2. Linealidad: La respuesta de Y frente a la
variable X es lineal.
3. Normalidad: Los residuos del modelo son
normales, es decir, siguen una distribución de
tipo gaussiana (campana de Gauss).
4. Homoscedasticidad: La varianza residual tiene
que ser constante.

Figura 2: Esquema conceptual de los pasos que deben seguirse a la


hora de ajustar un modelo lineal univariante.
... Introducción al Análisis de Regresión lineal

• Si la relación es exacta y no contiene ningún componente


aleatorio o probabilístico, entonces se trata de una relación
determinista entre dos variables.
• Sin embargo, la relación no es determinista, es decir, para una
X dada no siempre produce el mismo valor de Y. Figura 3: Una relación lineal; β0: intersección; β1:
pendiente.
• Como resultado, los problemas importantes en este caso son de
naturaleza probabilística, toda vez que la relación anterior no
puede considerarse exacta.
• El concepto de análisis de regresión se refiere a encontrar la
mejor relación entre Y y X cuantificando la fuerza de esa
relación, y empleando métodos que permitan predecir los
valores de la respuesta dados los valores del regresor X.
Figura 4: Datos (x, y) hipotéticos dispersos
alrededor de la verdadera recta de regresión para n
= 5.
1.2. El Modelo de Regresión Lineal Simple (RLS)

• Los modelos son simplificaciones de estructuras • MODELO ESTADÍSTICO DE REGRESIÓN


complicadas y desconocidas y generalmente son de LINEAL SIMPLE.
naturaleza lineal, es decir, lineales en los parámetros
β0 y β1. Y = β0 +β1x + Є
• Un análisis de la relación entre X y Y requiere el Donde:
planteamiento de un modelo estadístico. β0 y β1: parámetros desconocidos
Є: Error aleatorio, la cual es una variable
• Para obtener este modelo se debe tener un conjunto aleatoria que se supone esta distribuida
de datos (pares) {(xi, yi); i = 1, 2,..., n} de datos. normalmente con E(Є) = 0 y Var(Є) = σ2
• No debemos olvidar que el valor de Yi depende de Xi
por medio de una estructura lineal que tambien Al valor σ2 se le llama varianza
del error o varianza residual..
incluye el componente aleatorio.
En el modelo Y es una variable
• La variable aleatoria Y cambia con X y el componente aleatoria, X no es aleatorio y de
aleatorio. hecho, se mide con un error
despreciable. El error aleatorio o
alteración aleatoria, tiene
varianza constante.
1.3. El Método de los Mínimos Cuadrados Ordinarios (MMCO)

El Método de los Mínimos Cuadrados Ordinarios sirve para ajustar una recta de regresión a los datos, lo
cual equivale a determinar los estimados b0 para β0 y b1 para β1.
Antes de analizar el método de estimación de los mínimos cuadrados es importante presentar el concepto de
residual. En esencia, un residual es un error en el ajuste del modelo ŷ = b0 + b1x.
Residual: Error en el ajuste
Dado un conjunto de datos de regresión {(xi, yi); i = 1, 2,..., n}
y un modelo ajustado, el i-esimo residual ei esta dado por:

Es evidente que si un conjunto de n residuales es grande,


entonces el ajuste del modelo no es bueno. Los residuales
pequeños son indicadores de un ajuste adecuado. Otra
relación interesante, y que a veces es útil, es la siguiente:
... El Método de los Mínimos Cuadrados ordinarios (MMCO)

Método de Mínimos Cuadrados


Debemos calcular b0 y b1, los estimadores de β0 y β1, de manera que la suma de los cuadrados de los residuales sea mínima. La
suma residual de los cuadrados con frecuencia se denomina suma de los cuadrados del error respecto de la recta de regresión y
se denota como SCE. Este procedimiento de minimización para estimar los parámetros se denomina método de mínimos
cuadrados. Por lo tanto, debemos calcular a y b para minimizar

Al diferenciar la SCE con respecto a b0 y b1, se obtiene:

Al igualar a cero las derivadas parciales y reacomodar los términos, obtenemos las ecuaciones siguientes (llamadas
ecuaciones normales):
... El Método de los Mínimos Cuadrados ordinarios (MMCO)

Estimación de los coeficientes de regresión


Finalmente, los estimadores b0 y b1 según el Método de los Mínimos Cuadrados se calculan mediante
las siguientes formulas:
1.4. Propiedades de los estimadores Mínimos Cuadrados

1. Media y varianza de los estimadores

Para realizar inferencia estadística (Prueba de hipótesis y estimación intervalica) del modelo de regresión, es
decir, de sus parámetros, se debe de conocer su valor esperado y su varianza. Propiedad del insesgamiento
Esta demostrado que Bo y B1 tienen un comportamiento normal cuyos parámetros son:

A. Para Bo:

B. Para B1:
… Propiedades de los estimadores Mínimos Cuadrados

2. Estimación de σ2
 Para hacer inferencias sobre β0 y β1 es necesario llegar a una estimación del parámetro σ2 que aparece en
las dos formulas anteriores de la varianza de B0 y B1.
 El parámetro σ2 llamado (varianza del error) mide la variación aleatoria o la variación del error experimental
alrededor de la recta de regresión.
 Un estimador insesgado de σ2 es:
… Inferencias sobre los coeficientes de regresión

Intervalo de confianza para β1:


Un intervalo de confianza de 100(1 – α)% para el parámetro β1 en la recta de regresión μY|x = β0 + β1x es

donde tα/2 es un valor de la distribución t con n – 2 grados de libertad.

Intervalo de confianza para β0:


Un intervalo de confianza de 100(1 – α)% para el parámetro β0 en la recta de regresión μY|x = β0 + β1x es

donde tα/2 es un valor de la distribución t con n – 2 grados de libertad.


… Inferencias sobre los coeficientes de regresión

Prueba de hipótesis sobre B1: Prueba de hipótesis sobre Bo:


1. Hipotesis: H0: β1 = 0 ; H1: β1 ≠ 0 1. Hipotesis: H0: β 0= 0 ; H1: β0 ≠ 0
2. Nivel de significancia 2. Nivel de significancia
3. Valor experimental: Estadístico de Prueba 3. Valor experimental: Estadístico de Prueba

4. Valor critico: (Tabla de probabilidades) 4. Valor critico: (Tabla de probabilidades)

Distribucion t con n – 2 grados de libertad


Distribucion t con n – 2 grados de libertad

5. Decisión: Rechazar Ho si Ve > Vc 5. Decisión: Rechazar Ho si Ve > Vc


6. Cocnclusión 6. Cocnclusión
1.6. El Coeficiente de Determinación

Una medida de la calidad del ajuste: el coeficiente de determinación

• Se denota por R2.


• Es una medida de la proporción de la variabilidad explicada por el modelo ajustado
• Mide que tan bueno es el modelo.
• Se calcula con la siguiente fórmula:
1.7. Predicción

• Hay varias razones para construir un modelo de regresion lineal.


• Una de ellas es, predecir valores de respuesta para uno o mas valores de la variable independiente.
• Para realizar pronostico debemos conocer previamente lo siguiente:
y
• Luego tenemos:
Un intervalo de confianza de 100(1 – α)% para la respuesta media μY| x0 es:

Un intervalo de predicción de 100(1 – α)% para una sola respuesta y0 es dado por:
1.8. Prueba de Falta de ajuste:

Tabla: Análisis de varianza para la prueba de linealidad de la regresión


• El concepto de falta de ajuste es muy
importante en las aplicaciones del
análisis de regresión.
• De hecho, la necesidad de construir o
diseñar un experimento que tome en
cuenta la falta de ajuste se vuelve mas
critica a medida que el problema y el
mecanismo subyacente implicados se
vuelven mas complicados.
• Es cierto que no siempre se puede
tener la certeza de que la estructura
que se postula, en este caso el modelo
de regresión lineal, sea una
representación correcta o incluso
adecuada.

Figura : Modelo lineal correcto con Figura: Modelo lineal incorrecto con
componente sin falta de ajuste. componente de falta de ajuste.
1.9. Evaluación de supuestos:

1. ANÁLISIS DE HOMOSCEDASTICIDAD DE LA VARIANZA

• La homoscedasticidad de la varianza se verifica


primero de manera visual mediante una gráfica
de puntos entre los valores predichos y los
residuos, ambos estandarizados o tipificados
(Figura).
• Si la varianza es constante la gráfica no debe mostrar
ningún patrón entre los residuos, por el contrario, si
existe heterogeneidad en la varianza la gráfica puede
mostrar anchos distintos en la variabilidad, Figura : Grafica ideal de los residuales Figura: Grafica de los residuales que
ilustra una varianza heterogénea del error.
típicamente una gráfica en forma de embudo.

Sin embargo, para una prueba formal de homoscedasticidad se debe aplicar un método estadístico formal, el cual consiste en
probar si existe una correlación entre los residuos (en valor absoluto ya que de otra forma la correlación es cero) y el valor
predicho no estandarizado. En este caso se obtiene el coeficiente de correlación de Pearson para una prueba bilateral.
Esta prueba se realiza con SPSS en el menú analizar/correlaciones/bivariadas y seleccionado las dos variables involucradas.
1.9. Evaluación de supuestos:

2. NORMALIDAD DE RESIDUALES

• Para mostrar que los residuos tienen una distribución aproximadamente


normal con media cero y varianza , es común emplear un histograma de
la distribución o bien una gráfica de probabilidad P-P (Figura 4).
• Observamos que los datos se dispersan con pequeñas desviaciones
alrededor del patrón lineal esperado para una distribución normal.
Pensamos que las desviaciones fluctuantes se deben a la oscilación de los
datos.
Figura. Gráfica de probabilidad normal P-P de residuos
estandarizados.

No obstante, si deseamos ser más rigurosos podemos recurrir a procedimientos analíticos, como la prueba Kolmogorov-Smirnov
para la normalidad.
Esta prueba debe ser realizada a través del software SPSS (en el menú analizar/pruebas no paramétricas/una muestra).
1.10. Aplicación:

Este trabajo aplica un modelo predictivo de regresión lineal


para analizar la contaminación atmosférica de dióxido de
carbono (CO2) producida por el volcán Mauna Loa de Hawái.
Los datos fueron extraídos de un repositorio de internet que
contiene múltiples casos de geología, climatología, física,
etcétera. El modelo se utilizó para predecir la tendencia de
emisiones de CO2 con respecto al tiempo; se estimó la
contaminación promedio de dicha tendencia, la cual
descubrimos ha crecido aproximadamente 0.1 partes por
millón por mes; así como también se obtuvieron los intervalos
de predicción para una emisión puntual que existió en un
momento determinado. Se recomienda el trabajo para
estudiantes de ciencias exactas y naturales, como prototipo de
artículo de investigación donde se aplique específicamente el
modelo de regresión lineal simple; aunque la estructura
también puede servir en otras áreas donde se enseñen los
modelos de regresión.
Palabras clave: Regresión lineal simple, estadística aplicada.

You might also like