You are on page 1of 74

Apuntes de

Estadstica II
Prof. Alfonso Pitarque
Dpto. Metodologa (despacho M107)
Facultad de Psicologa
TEMA 1. CONCEPTOS BSICOS DE INFERENCIA ESTADISTICA.

1. CONCEPTOS INTRODUCTORIOS.

Una poblacin es un conjunto de individuos que comparten determinada


caracterstica. Una muestra es un subconjunto de dicha poblacin. Las variables
que definen de forma numrica cualquier caracterstica de una poblacin
reciben el nombre de parmetros (p.e. media, mediana, desviacin tpica,
proporcin, correlacin,...), y suelen representarse en los manuales de
estadstica a travs de letras griegas (p.e. suele representar la media, la
desviacin tpica, 2 la varianza, la proporcin, y la correlacin,...). Por su
parte las variables que definen de forma numrica cualquier caracterstica de
una muestra reciben el nombre de estadsticos (p.e. media, mediana, desviacin
tpica, proporcin,...) y suelen representar con letras latinas (p.e. X suele
representar la media muestral, s la desviacin tpica, s2 la varianza, P la
proporcin, y r la correlacin,...).

Para conducir cualquier investigacin lo ideal sera poder medir a todos los
sujetos que componen una poblacin. De este modo tendramos certeza absoluta
de que nuestras conclusiones seran generalizables a dicha poblacin. Pero por
motivos obvios de economa de recursos y tiempo ello nunca suele ser posible
(imaginemos p.e. que tuviramos que medir a toda la poblacin espaola). Sin
embargo podemos trabajar con una muestra representativa de dicha poblacin e
intentar luego generalizar las conclusiones obtenidas en ella a toda la poblacin.
En el proceso de inferencia estadstica intentamos, previo conocimiento de
determinado estadstico, llegar a inferir o conocer determinado parmetro
poblacional, a priori desconocido. Inferir coincide pues con el significado
comn de inducir (pasar del conocimiento de lo particular a lo general) como
contrapuesto al de deduccin (o proceso por el cual pasamos del conocimiento
de lo general a lo particular). La caracterstica primordial para que una
inferencia sea vlida es que la muestra sea representativa, es decir, que sea
suficientemente grande y que haya sido obtenida por un tipo de muestreo
adecuado (ver ver punto 2 de este tema).

La estadstica inferencial cubre dos grandes reas de contenido: la estimacin de


parmetros y el contraste de hiptesis. En el primer caso (tema 2) nos valemos
del conocimiento de determinado estadstico para llegar a conocer determinado
parmetro (p.e. pinsese en los sondeos de opinin, encuestas, etc.). En el
contraste de hiptesis (temas 3 a 5) nos valemos de la estimacin de
determinados parmetros para comprobar si determinadas relaciones entre

1
variables son ciertas o falsas. Por ejemplo imaginemos que un laboratorio
farmacetico quiere comprobar si dos medicamentos (A y B) son igualmente
eficaces o no para reducir el insomnio. Para ello toma dos muestras de personas
insomnes y las medica a una con el medicamento A y a la otra con el B
(variable independiente). Finalizada la medicacin mide a ambas muestras en la
variable (dependiente) 'grado de insomnio manifiesto'. Si ambos medicamentos
= B B
son igualmente eficaces se verificar que A , en caso contrario A .
Dada la relevancia de la estadstica aplicada al contraste de hiptesis en todas
las disciplinas cientficas incidiremos prioritariamente en este curso en esta
segunda lnea de anlisis.

2. PRINCIPALES TIPOS DE MUESTREO.

La validez de una inferencia estadstica descansa en la representatividad de la


muestra con la que trabajemos. Tal representatividad se consigue a travs de un
muestreo y un tamao de la muestra adecuados. Hay dos principales tipos de
muestreo: el probabilstico, en el que cada individuo de la poblacin tiene la
misma probablidad de ser muestreado, y el no probabilstico, donde no se
cumple tal premisa. Slo el muestreo probabilstico garantiza la
representativadad de la muestra. El no probabilstico se utiliza slo para
estudios previos asistemticos (p.e. cuando pedimos voluntarios en clase para
hacer el anlisis inicial de los tems de un nuevo cuestionario) y no ser
considerado aqu.

Principales tipos de muestreo probabilstico o aleatorio:

- muestro aleatorio simple: Consiste en elegir al azar (sin reemplazamiento) los


n individuos de la muestra a partir de un listado de los N individuos que
conforman la poblacin. El problema de este muestreo es que slo vale con
poblaciones de las que dispongamos de un listado poblacional (lo que no
siempre es posible).

- sistemtico: supone elegir al azar un individuo de los N/n primeros (o entero


ms prximo) de una poblacin y luego ir escogiendo los situados de N/n en
N/n posiciones ms alejadas hasta conformar una lista de tamao n.

- estratificado: se utiliza cuando la poblacin presenta estratos de caractersticas


similares (lo que casi siempre ocurre en poblaciones grandes: individuos
agrupados en distritos o barrios, ciudades, provincias, comunidades autnomas,

2
nacionalidades, tipo de colegios, edades, niveles educativos, etc.). Se extrae
entonces una muestra aleatoria de sujetos de todos y cada uno de los estratos.
Destaca aqu el llamado muestreo estratificado proporcional que consiste en
conseguir que el tamao de las muestras extraidas de cada estrato sea
proporcional al nmero de sujetos que componen cada estrato a nivel
poblacional.

- por conglomerados: al igual que en muestreo estratificado se utiliza cuando la


poblacin se agrupa por estratos de caractersticas similares solo que aqu se
aleatoriza qu estratos de entre todos los existentes van a ser incluidos en
nuestra muestra (desechando el resto de estratos), y una vez seleccionados al
azar dichos estratos elegimos al azar sujetos de los mismos. Es decir, la
diferencia entre el muestro estratificado y por conglomerados estriba en que en
el primero muestreamos todos los estratos (proporcionalmente o no), mientras
que en el segundo slo muestreamos aquellos estratos que han siddo
seleccionados al azar de todos los estratos posibles.

- polietpicos: combinan dos o ms de los anteriores muestreos aleatorios, lo


que es muy frecuente en poblaciones muy grandes.

El segundo factor del que depende la representatividad de mi muestra es del


tamao muestral (n), que debe de ser suficientemente grande (p.e. todo elmundo
puede entender que una muestra n=5 es difcil que sea representativa).

En Psicologa Experimental (y cuasi-experimental) se habla de muestras


grandes a partir de 30-35 participantes.

En Psicologa correlacional y de encuestas el tamao muestral suele ser ms


grande: casi todos los manuales de Estadstica ofrecen tablas (ver p.e. la de
abajo) que nos dan el tamao muestral requerido (n) en base a:
- N poblacional, bien sea conocido o infinito (poblaciones muy grandes)
- El nivel de riesgo , o de confianza (1- ) con el que trabajemos (generalmente =.05
en Psicologa)
- El error de muestreo que estemos dispuestos a cometer (p.e. de 2%, o de 5%).

3
Por ejemplo para realizar una encuesta dirigida a toda la poblacin espaola, para un nivel de
riesgo =.05, y un error de muestreo del 2%, necesitaramos una muestra de un tamao
mnimo de 2500 personas ( ver Len y Montero, 2002, pp. 111).

4
3. CONCEPTO DE DISTRIBUCION MUESTRAL DE UN ESTADISTICO.
DISTRIBUCION MUESTRAL DE LA MEDIA. TEOREMA DEL LIMITE
CENTRAL.

Distribucin muestral o distribucin de muestras de un estadstico X es el


proceso por el cual (1) seleccionamos de forma aleatoria sucesivas muestras de
un mismo tamao n; (2) calculamos dicho estadstico X en cada una de dichas
muestras; (3) hallamos la frecuencia relativa o probabilidad de ocurrencia
asociada a los valores que toma tal estadstico y (4) por ltimo determinamos a
qu distribucin de probabilidad (normal, binomial,...) se adeca tal
distribucin. Tal distribucin recibe el nombre de distribucin muestral del
estadstico X (media, proporcin, diferencia entre dos medias, cociente entre
dos varianzas, etc.).

Expliquemos por ejemplo la distribucin muestral de la media. Sea p.e. una urna
de 1000 bolas (poblacin), 100 de ellas etiquetadas con el n 0, 100 con el 1, ...
y 100 con el 9. En este caso

N N
= xi pi = 4.5; = (xi )2pi = 2.87
1 1

Obtengamos las medias de 100 muestras aleatorias de tamao 2 de aquella


poblacin (ver tabla 1). Representemos ahora grficamente tales frecuencias
relativas o probabilidades (ver figura 1).

Obtenemos as la distribucin muestral de la media (para muestras de n=2).


Observemos como tal representacin grfica tiende a aproximarse a un modelo
normal. Si en vez de 100 muestras de tamao 2 hubiramos extrado por
ejemplo 10000 muestras del mismo tamao observaramos que su distribucin
muestral se adecuara perfectamente a un modelo normal con media 4.5. Ello se
fundamenta en la llamada Ley de los Grandes Nmeros (Bernoulli) segn la
cual slo promediando un nmero suficientemente grande de puntos muestrales
podemos obtener una medicin suficientemente precisa del valor esperado. En
el caso de la media la probabilidad de que la variable aleatoria X difiera de
ms all de mnimas diferencias casuales () tiende a 0 cuando n tiende a
infinito (en la prctica n>30).

p( X > ) 0 cuando n

5
Tabla 1.

0,20

0,16

0,12
Frec.rel.

0,08

0,04

0,00
0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 8,0 9,0

MEDIAS
Figura 1.

6
Para conocer las distribuciones muestrales de los distintos estadsticos no es
necesario recurrir a procedimientos empricos (como el llevado a cabo arriba)
sino que se han desarrollado distintos teoremas matemticos que demuestran las
distribuciones de probabilidad en que aquellas se basan. As el Teorema
Central del Lmite (De Moivre) fundamenta matemticamente la distribucin
muestral de la media, sin duda la distribucin muestral ms importante. Segn
tal teorema si de una poblacin grande (con media y varianza 2), distribuida
normalmente o no, extraemos muestras al azar de tamao grande (n>30) y
calculamos en cada una de ellas su media entonces (1) la distribucin muestral
de las medias muestrales sigue un modelo normal; (2) la media de tal
distribucin de medias coincide con (X X = ) y (3) la desviacin tpica tal
distribucin (tambin llamada error tpico o estndar de la media) coincide
con / n (s X = / n ) .

El Teorema Central del Lmite se expresa en forma abreviada as:



X = N (, )
n

Del punto (3) se deduce que la variabilidad de la distribucin muestral de


medias ser siempre menor que la de la poblacin, excepto cuando n=1, debido
a que la variabilidad de una poblacin siempre es mayor que la observada en
una muestra aleatoria de ella.

La importancia del conocimiento de las distribuciones muestrales de los


principales estadsticos estriba en que gracias a ellas podemos asociar
probabilidades a valores concretos de cada estadstico y as poder luego bien
estimar los lmites del intervalo de confianza en torno a los cuales si sita el
parmetro a estimar (tema 9) o bien contrastar hiptesis relativas a dicho
estadstico (temas 10 al 13).

7
4. PRINCIPALES DISTRIBUCIONES MUESTRALES.

4.1. MEDIA (conocida 2).



X = N (,
)
Como queda dicho n , de tal modo que, con muestras grandes, el
X
z=
estadstico tipificado / n se distribuir de acuerdo al modelo normal
normalizado z = N(0, 1) (Ej. 1.3. Pardo y San Martn, pp 69; San Martn et al, pp
145).

4.2. MEDIA (desconocida 2).


Esta distribucin muestral tiene por media y por error tpico sn-1/n. El
!!! !!!
estadstico = ! = ! sigue un modelo t con n-1 g.l.
!!! / ! !/ !!!
Cuando n>30 t=N(0,1) (Ej. 1.4. Pardo y San Martn, pp 71; San Martn et al, pp
152).

4.3. VARIANZA.

Si n 100

n1 2 2 2(n 1) 2
s 2n = 2n 1 ( n , ) s 2n 1 = 2n 1 ( 2, 2
n n 1)

(n 1) s 2n 1
!
!"! es una 2n 1
Con fines prcticos es til saber que el estadstico =
!!
2

siempre que la variable se distribuya normalmente en la poblacin.

Cuando n>100

s 2n = s2n 1 = N ( 2, 2 2)
n

s2 2
z= es N(0, 1)
por lo que el estadstico tipificado 2 2/n

(Ej. 1.5. Pardo y San Martn, pp 74; Ej. San Martn et al, pp 150).

8
4.4. PROPORCION.

La distribucin de muestras del estadstico proporcin (P), extradas de


poblaciones dicotmicas (donde la proporcin de casos asociados a uno de los
dos estados es ) y muestreo con reposicin, sigue el modelo binomial con
(1 )
media y error tpico n .

Con muestras grandes, o cuando el producto n 5, podemos utilizar la


aproximacin a la curva normal tipificando P:
P
z= es N (0, 1)
(1 )
n

(Ejs. 1.6. y 1.7, Pardo y San Martn, pp 76-77; San Martn et al, pp 153).

9
TEMA 2. ESTIMACION DE PARAMETROS.

1. ESTIMACION PUNTUAL

Cuando un estadstico es utilizado para estimar un parmetro desconocido se


^
le llama estimador ( ). Si dicha estimacin es hecha de forma puntual, es decir,
el valor de ^ se toma como estimacin concreta de hablamos de una
estimacin puntual. En el caso ms frecuente de que la estimacin de se lleve
a cabo dando unos lmites en torno a los cuales presumiblemente de halle
hablaremos de una estimacin por intrvalos (ej. San Martn et al, pp. 180).

Los estimadores puntuales deben de cumplir una serie de propiedades


matemticas (insesgamiento, consistencia, eficiencia y suficiencia). Sin
embargo, y dado que la estimacin puntual se utiliza poco, nos basta con saber
que los mejores estimadores puntuales de , y son, respectivamente, X , s n 1
y P.

2. ESTIMACION POR INTERVALOS

Se trata de estimar los lmites en torno a los cuales se encontrar el parmetro


(desconocido) a partir del conocimiento de la distribucin muestral del
estadstico ^ , asumiendo de antemano una determinada probabilidad de errar
() en nuestra estimacin . El concepto de nivel de riesgo () hace referencia a
la probabilidad (asumida por nosotros a priori; generalmente en Psicologa
=.05) de equivocarnos en la estimacin de , mientras que el concepto
complementario de nivel de confianza (1-) refleja la probabilidad de acertar en
nuestra estimacin. El intrvalo configurado por los lmites superior e inferior
de nuestra estimacin se le conoce como intrvalo de confianza.

El procedimiento para estimar el intervalo de confianza de es el siguiente


(ejemplo en San Martn et al, pp. 185-190) . Supongamos que conocemos la
distribucin muestral del estadstico ^ y que sta es normal. Sabemos entonces
que en una distribucin de tal tipo entre la 1.96 queda comprendida un rea

10
de 0.95. Por tanto en la distribucin muestral de ^ debe verificarse con E( ) =
que la probabilidad de que un valor de dicho estadstico se aleje de ms de
1.96 errores tpicos vale 0.05. En otras palabras,

[( ) (
p z1 / 2 s + z1 / 2 s )] = (1 )

- Procedimiento de clculo:
1. Establecer el nivel de riesgo (generalmente =.05)
2. Hallar en tablas las probabilidades asociadas a los valores (/2)
^
y (1-/2) correspondientes a la distribucin muestral de
(z 1 / 2 , t 1 / 2 , 21 / 2 , .. .) .
(s )
3. Hallar el error tpico del estadstico ^
4. Calcular los lmites confidenciales (si ^ se distribuye de forma
normal):
^ z s^
1 / 2

A la expresin z1 / 2 s se le conoce con el trmino de error mximo o error de


muestreo e indica los lmites en torno al cual se sita el parmetro con una
probabilidad de acertar de 1-. Por ejemplo en un sondeo publicado en un
peridico antes de unas elecciones es frecuente encontrar expresiones como
sta: "la proporcin de votantes del partido X se sita en el 35%, con un tamao
muestral de 1050 encuestas, nivel de confianza del 95 y error de muestreo 5".
Ello quiere decir que en estos momentos la proporcin de votantes a dicho
partido estara entre el 30 y el 40% con una probabilidad de errar del 5%.

11
3. PRINCIPALES INTERVALOS CONFIDENCIALES.

3.1. Intervalo confidencial para la media:

4.1.1. Conocida 2:
& &+
p )$% X z 1/ 2 $% X + z 1/ 2 = (1 )
* n' n ',

4.1.2. Desconocida 2:
s n 1 % s n 1 % +
p ()#$ X t ( n 1; 1 / 2) #X + t = (1 )
* n& $ (n 1; 1 / 2) n & ,-

(Ejs. 2.1. Pardo y San Martn, pp 105; Cuadras et al, pp. 488; San Martn et al,
pp. 192)

En el SPSS: Analizar > Explorar + Estadsticos

3.2. Intervalo confidencial para la proporcin:

4.2.1. Con muestras grandes:


)# P(1 P) % # P(1 P) % ,
p *+$ P z 1 / 2 n & $ P + z 1 / 2 n & -. = (1 )

4.2.2. Con muestras pequeas:

+ n # z 21 / 2 P(1 P) z 21 / 2 % .
,# % ' P + z + ( /
n
,$ n + z 1 / 2 & $ 2n 4n 2 &
2 1 / 2
/
p, / = (1 )
n # z 2
P(1 P) z 2 %
,, # %' P + 1 / 2
+ z 1 / 2 +
1 / 2
( //
$ n + z 2
& $ 2n n 4n 2 &
- 1 / 2 0

(Ejs. 2.3. Pardo y San Martn, pp 111; Cuadras et al, pps. 495 y 498; San Martn
et al, pp. 196).

12
3.3. Intervalo confidencial para la varianza:

4.3.1. Con muestras pequeas (n 100)

,$ (n 1)s 2 ' 2 $ (n 1)s 2 ' /


p -% 2 ( % 2 ( 0 = (1 )
.& ( n 1; / 2) ) & (n 1;1 / 2) ) 1

4.3.2. Con muestras grandes (n>100):

p )*+#$ s 2 z 1 / 2 s 2 2 % 2 # s2 + z s2 2 % ,- = (1 )
n& $ 1 / 2 n &.

(Ejs. 2.2. Pardo y San Martn, pp 108; Cuadras et al, pp. 504; San Martn et al,
pp. 204).

13
TEMA 3. CONTRASTE DE HIPOTESIS.

1. INTRODUCCION

La estadstica inferencial se aplica prioritariamente al contraste de hiptesis


cientficas: todo investigador en cualquier rama de la Ciencia comienza
plantendose unas hiptesis de trabajo que se vern corroborada o no en base a
los datos que haya obtenido en su investigacin. La estadstica as planteada le
servir para tomar decisiones: en base a los datos recogidos podr afirmar que
las hiptesis que a priori se plante son ciertas o falsas.

De forma muy esquemtica una investigacin (en cualquier rama de la ciencia)


sigue una serie de pasos:
1) Planteamiento de hiptesis
2) Eleccin del nivel de riesgo que estamos dispuestos a asumir
3) Eleccin del diseo de investigacin y seleccin de las muestras
4) Medicin de la(s) variable dependiente
5) Seleccin de la prueba estadstica a aplicar y anlisis de datos.
6) Toma de decisiones

Desarrollemos estos conceptos:


1) Planteamiento de hiptesis: Una hiptesis es una conjetura (que puede ser cierta o no)
acerca de como se relacionan varias variables. Una hiptesis estadstica es la
formulacin matemtica de una hiptesis cientfica. Hay dos tipos de hiptesis
estadsticas:

- La hiptesis nula o de la igualdad (Ho) es generalmente la hiptesis que el


investigador est interesado en refutar, siendo cierta cuando el efecto de la(s) variable
independiente (VI) sobre la variable dependiente (VD) no es significativo. Se llama de
la igualdad porque en su formulacin siempre debe de aparecer un signo =.
Imaginemos que un investigador quiere comparar la eficacia de dos medicamentos A
y B en el tratamiento del TDAH. Un modo de hacerlo podra ser tomar una muestra de
nios con TDAH y asignarlos al azar bien al grupo que toma el medicamento A bien
al grupo que toma el medicamento B. Tras el perodo de tratamiento ambos grupos
seran medidos en su sistomatologa de hiperactividad (medida p.e. mediante
cuestionarios especficos). Si es cierto que Ho es cierta entonces el nmero medio de
sntomas de hiperactividad del grupo A tender a ser igual al nmero medio de de
sntomas del grupo B, es decir, en trminos poblacionales
H o : A = B o tambien A B = 0 .

14
A su vez H0 puede ser de dos tipos:
(a) bilateral o de dos colas, cuando Ho se rechace tanto en el caso de que
A > B como en el caso de que A < B . En este caso H se planteara as:
0
H o : A = B o tambien A B = 0
(b) unilateral o de una cola, cuando Ho se rechace slo en el caso de que por
ejemplo A > B , hablndose de una H0 unilateral derecha ; cuando Ho se rechace
en el caso de que A < B entonces hablaremos de una H0 unilateral izquierda.

La distribucin muestral de Ho es siempre conocida, lo que nos permitir asociar una


probabilidad al estadstico que hayamos calculado (t, F, etc.), y en base a ella tomar
una decisin estadstica no ambiga: p.e. en el programa SPSS si dicha probabilidad
(Sig) es > de .05 entonces aceptar siempre Ho (lo que en el ejemplo anterior
supondra admitir que ambos medicamentos A y B producen resultados iguales),
mientras que si dicha probabilidad (Sig) es de .05 entonces rechazar siempre Ho
(lo que en el ejemplo anterior supondra admitir que ambos medicamentos A y B
producen resultados distintos).

- La hiptesis alternativa o de la desigualdad (H1) es generalmente la


hiptesis que el investigador est interesado en confirmar, denotando existe
evidencia suficiente para pensar que Ho es falsa. Se llama de la
desigualdad porque en su formulacin nunca debe de aparecer un signo =.
Dado que su distribicin muestral es desconocida no se utiliza para tomar
decisiones estadsticas.

2) Eleccin del nivel de riesgo (). Ya qued dicho que en Psicologa se trabaja
usualmente con niveles de riesgo de .05.

3) Eleccin del diseo de investigacin: La palabra diseo hace referencia al


modo en que el investigador decide asignar los sujetos a las condiciones o
tratamientos experimentales. Existen multitud de diseos de investigacin y se
explicarn en profundidad en el mdulo de Diseos de Investigacin en
Psicologa de 4 curso. En nuestro ejemplo ya dijimos que optamos por
asignar los sujetos al azar a las dos condiciones tratamentales.

4) Medicin de la VD: En asignaturas como Psicometra se explican cmo debe


llevarse a cabo una buena medicin psicolgica, caractersticas de la misma
(fiabilidad, validez,...), etc.

15
5) Seleccin de la prueba estadstica a aplicar (o estadstico de contraste) y
anlisis de datos: Una vez llevada a cabo la medicin se hace necesario
seleccionar la prueba estadstica a aplicar en funcin del tipo de VI elegida, y de
la naturaleza de la VD (cuantitativa, semicuantitativa o cualitativa).

En la tabla inferior se presentan las principales pruebas estadsiticas de contraste


de hiptesis que veremos en este mdulo.

En nuestro ejemplo el estadstico


(X1 X2 ) (1 2 )
t= es t n1 + n 2 2
" n1s12 + n 2s22 %" 1
$ '$ + 1 %'
# n1 + n2 2 &# n1 n 2 &

podra ser adecuado. Para su clculo introduciremos los datos individuales en el


programa SPSS, seleccionaremos la opcin Analizar > comparar medias > t
para muestras independientes y le pediremos que nos calcule dicho valor p y la
probabilidad (sig) asociada al mismo.

6) Toma de decisiones: Las reglas de decisin se expresan siempre en trminos


de probabilidad. Como ya hemos dicho antes en el SPSS rechazaremos Ho si la
probabilidad asociada a mi estadstico (sig) es menor o igual que , mientras
que aceptaremos Ho en caso contrario. En el caso de contrastes unilaterales se
debern cumplir dos condiciones para rechazar Ho: a) que las medias muestrales
vayan en la direccin prevista y b) que al dividir sig/2 el resultado siga siendo
menor o igual a .05.

16
En los manuales clsicos de Estadstica la regla de decisin se suele formular
as: "rechazaremos Ho si el valor del estadstico de contraste cae dentro de la
llamada regin crtica o de rechazo de Ho. La regin crtica se define como el
conjunto de valores del estadstico de contraste que por estar muy alejados de
Ho es muy poco probable ( ) que ocurran si Ho es verdadera. Es decir si mi
estadstico de contraste cae dentro de la regin de rechazo de Ho (zonas de /2
en la siguiente figura) entonces rechazar Ho, caso contrario la aceptar. Para
contrastes unilaterales la regin crtica quedar toda ella bien a la derecha o a la
izquierda de la distribucin de Ho.

Ejemplos de lo anteriormente dicho aparecen en ej 3.2. Pardo y San Martn, pp


142; pps. 246 y 260 de San Martn et al; pp. 33 de San Martn y Pardo, o pp.
334 (ej. 3 y 4) del Glass y Stanley, entre muchos otros libros.

17
2. TIPOS DE ERROR Y FACTORES QUE LOS AFECTAN

Cuando tomamos una decisin estadstica podemos cometer dos tipos de


errores. La teora de contraste de hiptesis de Pearson y Newman plantea los
dos tipos de error que podemos cometer al aceptar o rechazar Ho. De un lado
tenemos (error tipo I) que refleja la probabilidad de rechazar Ho cuando en
realidad es verdadera; ya qued dicho que en Psicologa y por convencin se
suele mantener en .05. De otro lado nos encontramos con el error (o error tipo
II) que refleja la probabilidad de aceptar en nuestra decisin Ho como verdadera
cuando en realidad es falsa. La interelacin que se da entre estos dos tipos de
error aparece ms clara si representamos grficamente la distribucin muestral
de Ho verdadera (conocida), junto con una de las distribuciones que representa
H1 verdadera (decimos una de las distribuciones por que hay infinitas
distribuciones que haran rechazar Ho; representaremos una sola de ella; adems
debemos recordar que la distribucin muestral de H1 es desconocida):

Ho verdadera Ho falsa
D
E Decisin error tipo II
C Acepto Ho
correcta (1 ) ()
I
S
I error tipo I Decisin
O Rechazo Ho correcta (1 )
()
N

Ho verdadera Ho falsa

/2 /2

Aceptar Ho Rechazar Ho

DECISION

18
Observemos que en este ejemplo H1 est planteada en trminos bilaterales; el
razonamiento sera similar si hubiera sido planteada unilateralmente, slo que
entonces toda la regin de rechazo se hubiese situado bien a la derecha, bien a la
izquierda de Ho.

A 1- se le llama tambin potencia de una prueba estadstica. En toda toma de


decisiones lo que interesa es minimizar y . Sin embargo podemos observar
como uno y otro error son interdependientes en el sentido que si disminuimos
uno de ellos aumentamos el otro (ejemplo Visauta y Batall, pp. 54). El
programa SPSS nos permite calcular (a travs de la probablidad -sig- asociada
al valor del estadstico de contraste) y 1- (pidindoselo en opciones).

Dado que suele tomar valores constantes iguales o inferiores a .05 lo que
interesa es pues aumentar la potencia de la prueba (1-). Las dos formas tiene el
investigador de reducir es o bien aumentar el tamao de las muestras con las
que trabaja, o bien aumentar el llamado tamao del efecto que en una escala de
0 a 1 describe el grado en que la manipulacin experimental que hago es o no
efectiva, puesto que aumentando el tamao del efecto conseguimos reducir el
grado de solapamiento de las distribuciones de Ho verdadera y Ho falsa sea
menor (ver figura anterior). El programa SPSS tambin permite calcular el
tamao del efecto (pidindoselo en opciones) a travs del clculo del estadstico
eta cuadrado parcial (2p en una escala de 0 a 1).

Por ltimo no hay que confundir la significacin estadstica con el tamao del
efecto. Muchas veces se piensa incorrectamente que una sig o p muy pequea es
indicativa de que la manipulacin de la VI sobre la VD ha sido muy efectiva, es
decir, de un tamao del efecto muy alto. Y eso no siempre es as pues p depende
del tamao muestral: una p=0.03 podr tender relevancia psicolgica ante un
n=30 p.e., pero la misma p ante un n=3000 no tiene ninguna relevancia. Por ello
la relevancia de un contraste hay que verificarla observando el tamao del
efecto.

19
3. CONTRASTES DE HIPOTESIS PARA UNA MUESTRA.

a) Contraste sobre la media:

a1) Conocida 2 :

X 0
z= es N (0, 1)
/ n

con muestras grandes. Con muestras pequeas (n<30) dicho estadstico seguir
una distribucin muestral t con n-1 g.l. (Ejs. 3.2, 3.3., 3.4 y 4.1 de Pardo y San
Martn, pps 142, 162, 169 y 187, respectivamente; San Martn et al, pp. 280).

a2) Desconocida 2 :

Supuestos: con contrastes unilaterales es necesario que las muestras sean


grandes (n>30) (Ej. 4.2. Pardo y San Martn, pp 190; San Martn et al, pp. 282;
pp. 293 Glass y Stanley).

b) Contraste sobre la proporcin:


P 0
z= es N(0, 1)
0 (1 0 )
n

Supuestos: poblacin binomial, n 5 ; (Ej. San Martn et al, pp. 284;


pp. 590 de Cuadras et al; Visauta y Batall, pps. 77 y 78).

20
c) Contraste sobre la varianza:

Si n 100

Si n>100
s2 2
z= es N(0, 1)
2 2/n

Supuestos: poblacin normal. (Ejs. San Martn et al, pp. 286; Glass y Stanley,
pp. 301; pp 88 deGotor; pp. 593 de Cuadras; Viasuata y Batall, pps. 178-180).

21
TEMA 4. CONTRASTE DE HIPTESIS PARAMTRICO

Vamos a ver en este tema las principales pruebas estadsticas utilizadas para
contrastar hiptesis relativas a dos o ms muestras o condiciones (bien sean
stas independientes o relacionadas). Por muestras independientes entendemos
muestras formadas por sujetos que no guardan ninguna relacin entre s, como
ocurre por ejemplo, cuando asignamos al azar los participantes a las distintas
condiciones (es decir, cuando la VI es inter). Por muestras relacionadas
entendemos aquellas entre las que haya sospecha de no ser realmente
independientes, como ocurre p.e. cuando la VI es intra (es decir, ante
mediciones repetidas de los mismos sujetos), o muestras formadas por
familiares, etc.

Para aplicar este tipo de pruebas (llamadas parmetricas) los datos han de
satisfacer algunos supuestos generales (la VD ha de ser cuantitativa, distribuirse
normalmente, tamao muestral suficiente no menos de 15 sujetos por
condicin-) y otros supuestos especficos de cada prueba. Cuando algunos de
estos supuestos no se cumplen los datos deben de ser analizadas mediante
pruebas no paramtricas (tema 5).

a) Contraste sobre la diferencia de dos medias independientes:

2 2
(a1) conocidas 1 y 2 )
(X1 X 2 ) ( 1 2 )
z= es N (0, 1)
21 22
n1 + n 2

Supuestos: poblaciones normales; muestras grandes (n1+n2>30) e


independientes. Si las muestras son pequeas el anterior estadstico sigue un
modelo t con n1+n2-2 gl. (Ej. 4.3. Pardo y Sanmartn, pp. 193)

22
2 2
(a2) desconocidas 1 y 2 aunque supuestamente iguales1
(X1 X 2 ) ( 1 2 )
t= es t n +n 2
" n 1s 21 + n 2 s22 %" 1 1
1 2

# & $ n + n %'
$ n1 + n 2 2 ' 1 2

Supuestos: poblaciones normales y muestras independientes. Si las muestras son


grandes el anterior estadstico sigue un modelo N(0,1). (Ej. 4.4. Pardo y
Sanmartn, pp. 196)

2 2
(a3) desconocidas 1 y 2 y diferentes2

es t con

Supuestos: poblaciones normales y muestras independientes de tamao ms o


menos similar. Si las muestras son grandes el anterior estadstico sigue un
modelo N(0,1). (Ejs. 4.5. Pardo y Sanmartn, pp. 200; San Martn et al, pp. 293;
Glass y Stanley, pp 295; Cuadras, pps. 606-610).

(a4) ante muestras relacionadas o dependientes


D
t= es t n 1
sd / n
siendo D y s d , respectivamente, la media y cuasi-desviacin tpica de la
distribucin de las diferencias. Supuestos: poblaciones normales (Ej. 4.6. Pardo
y Sanmartn, pp. 205; San Martn et al, pp. 296; Glass y Stanley, pp 298).

1 Para poner a prueba este supuesto hay que aplicar previamente el estadstico referido en el
punto b1 de este mismo tema.
2 Para poner a prueba este supuesto hay que aplicar previamente el estadstico referido en el

punto b1 de este mismo tema.

23
b) Contraste sobre el cociente entre dos varianzas:

(b1) con muestras independientes

Supuestos: poblaciones normales y muestras grandes. Poner la varianza mayor


en el numerador (s12 s22 ) y utilizar contrastes unilaterales derechos (Ej. 4.6.
Pardo y Sanmartn, pp. 214; San Martn et al, pp. 287; Cuadras, pps.598-600;
Glass y Stanley, pp. 304).

(b2) con muestras relacionadas o dependientes

(Ej. San Martn et al, pp. 290; Cuadras, pps.601; Gotor, pp. 91; Glass y Stanley,
pp. 306; Visauta y Batall, pps. 185, 186)

24
EL ANOVA

En el punto anterior hemos visto cmo a travs de un test t o z se puede poner a


prueba la hiptesis acerca de la diferencia entre dos medias. Pero en
investigacin experimental muy frecuentemente se ponen a prueba hiptesis
relativas a si existen diferencias en la eficacia de k distintos tratamientos (k>2),
es decir, hiptesis del tipo H 0 : 1 = 2 =.. .= k . Una posible solucin para el
caso de k muestras podra ser comparar por pares tales medias, hasta completar
todas las posibles (k(k-1)/2) combinaciones. Sin embargo no es sta una
solucin recomendable dado que crece exponencialmente a medida que k
aumenta: la probabilidad verdadera de cometer el error tipo I (p()) tras las
(n(n-1)/2) comparaciones viene dada por la llamada desigualdad de Bonferroni
(siendo el nivel de riesgo que a priori estamos dispuestos a asumir):

p() = 1 - (1-)k

Por ello se hace necesario desarrollar una nueva tcnica de anlisis estadstico
que permita verificar hiptesis de ese tipo manteniendo a niveles constantes .
Esta tcnica se conoce con el nombre de 'anlisis de la varianza' (o tambin
ANOVA, acrnimo de 'Analysis of variance'), y fue desarrollada por Fisher a
partir de 1930. Podemos afirmar que el ANOVA es la tcnica de anlisis
estadstico ms utilizada en la investigacin experimental y cuasi-experimental
en Psicologa (de hecho ms del 75% de las artculos revisados son analizados a
travs de ANOVA), de tal modo que hoy no se puede hablar de hacer
experimentacin en cualquier rama de la Ciencia sin conocer la tcnica bsica
de anlisis paramtrico que es el ANOVA.

Dado que no existe un nico tipo de ANOVA, daremos un breve esquema


clasificatorio de los distintos tipos de ANOVA. Como veremos ello conlleva
hablar de los distintos tipos de diseo experimental, hasta tal punto que
determinados autores (p.e. Winer, 1971) identifican el diseo con el modelo
matmatico de ANOVA que legitima su anlisis.

Podramos hablar de los siguientes tipos de ANOVA en base a estos criterios


clasificatorios:

a) Por el nmero de factores (o VIs): Si manipulamos una sola VI se habla


de ANOVA unifactorial. Cuando manipulamos ms de una VI se habla de
ANOVA factorial. En este ltimo caso si se habla de un ANOVA factorial
4 x 2, significa que manipulamos 2 Vis, la primera con 4 niveles y la
segunda con 2, lo que da un total de 8 condiciones o tratamientos
experimentales distintos. En esta asignatura slo analizaremos ANOVAS

25
unifactoriales, los ANOVAS factoriales se vern en el mdulo de Diseos
de investigacin en Psicologa (4 curso).

b) Por el modo en cmo asignemos los sujetos a los tratamientos


hablaremos de:
b1). ANOVAs inter o de grupos al azar cuando asignemos al azar un
grupo distinto de sujetos a cada uno de los tratamientos
experimentales (hablndose entonces de VI inter o entresujeto -del
ingls 'between subjects').
b2) ANOVAs intra o diseos de medidas repetidas cuando trabajemos
con una nica muestra que reciba todos los tratamientos
experimentales (hablndose entonces de VI intrasujeto -del ingls
'within subjects'-).
b3) ANOVAs factoriales mixtos cuando manipulemos al menos una
variable inter y al menos una variable intrasujeto. P.e. si se habla de
un ANOVA factorial 4 (inter) x 2 (intra), significa que manipulamos 2
Vis, la primera con 4 niveles inter (es decir con 4 muestras asignadas
al azar a dichos niveles) y la segunda con 2 niveles intra (es decir, que
las anteriores 4 muestras son medidas 2 veces en los niveles de esta
VI intra)

c) Por el nmero de VDs medidas: los ANOVAS que acabamos de ver se


refieren a experimentos donde los sujetos son medidos en una sola VD (lo
que suele ser lo ms frecuente). Pero cuando trabajamos con ms de una
VD se suele hablar de MANOVA (siglas de 'Multivariate analysis of
variance') asociados a los distintos tipos de ANOVA que acabamos de ver.

26
EL ANOVA UNIFACTORIAL INTER

El ANOVA es una tcnica que descompone la variabilidad observada en la VD


como la suma de varios componentes independientes que pueden asignarse a
causas distintas. Como dijimos arriba la hiptesis que se pone a prueba en un
diseo de un factor de grupos al azar es del tipo H 0 : 1 = 2 =.. .= k (siendo k el
nmero de niveles de la VI) frente la hiptesis alternativa que especifica que al
menos una de aquellas igualdades no es satisfecha por los datos.

Para poder aplicar un ANOVA inter de han de cumplir una serie de


condiciones:

a) La VD ha de ser cuantitativa (escala de intervalo o razn)

b) Las puntuaciones de los sujetos en la VD se han de distribuir de acuerdo


al modelo normal. La violacin de este supuesto no suele acarrear
consecuencias graves en el proceso de decisin estadstica siempre y
cuando las muestras con las que trabajemos sean grandes (n>35). De todos
modos podemos verificar este supuesto aplicando en el SPSS las pruebas
de Kolmogorov-Smirnov o de Shapiro-Wilks.

c) Las varianzas de los k grupos han de ser similares, es decir, no deben


diferir estadsticamente entre s, o lo que es lo mismo, se debe verificar
H 0 : 21 = 22 =.. .= 2k . A este requisito se le conoce como requisito de
homoscedasticidad. Su incumplimiento no suele ser grave si las muestras
son grandes y de un mismo tamao, pero si ste vara entonces la
probabilidad de cometer el error tipo I es mayor que a medida que el
grupo de tamao menor es el que ms variabilidad presenta. El SPSS
permite poner a prueba este supuesto mediante el test de Levene (en
Analizar > comparar medias > ANOVA de un factor)

El modelo terico lineal para un ANOVA inter descompone la puntuacin de un


sujeto i en el tratamiento j (Xij) como

Xij = + j + Eij (1)

es decir define la puntuacin Xij como la suma de tres componentes:


es la media general en la VD de los distintos grupos de tratamiento, la
cual es desconocida y constante para todas las observaciones.

27
j representa el efecto puro del tratamiento j en el sujeto i, y
Eij es el error experimental y representa todas las fuentes incontroladas de
variacin que afectan a la medida del sujeto i en el tratamiento j.

ESTIMACION DE LOS PARAMETROS DEL MODELO.

Se puede demostrar (ver p.e. Glass y Stanley, 1974; pp 343) que los respectivos
estimadores insesgados de , j y Eij son

= XT
j = Xj XT
E = X X
ij ij j
K
siendo XT la media general de todos los N sujetos (N = n j ) adscritos a todos los
1

tratamientos, y Xj la media de los sujetos adscritos al tratamiento j.


Podemos ahora sustituir en (1) y quedara

X ij = X T + (X j XT ) + (X ij X j )

o lo que es lo mismo

X ij X T = (X j XT ) + (X ij X j ) (2)

Esta igualdad es cierta para todas y cada una de las puntuaciones de nuestra
investigacin. Si ahora se suman todas las puntuaciones de todos los sujetos y
elevamos cada miembro de la ecuacin al cuadrado (para que los signos
positivos y negativos no se anulen, dando un valor 0) llegamos a obtener:
k ni k ni k ni
(Xij XT )2 = (X j XT )2 + (X ij X j )2 (3)
1 1 1 1 1 1

El primer trmino a la izquierda de la igualdad se conoce con el nombre de


suma de cuadrados total (SST) y representa la suma de las desviaciones al
cuadrado de cada cantidad respecto a las media total, es decir, representa la
variabilidad total de nuestros datos.
El primer trmino a la derecha de la igualdad es la suma de cuadrados
intergrupos (SSinter) o tratamental (SStrat), y representa la proporcin de
variabilidad del total debida al efecto puro de los tratamientos sobre los sujetos.
El segundo trmino a la derecha de la igualdad es la suma de cuadrados de
error o intragrupo (SSe) y representa la proporcin de variabilidad del total que

28
no es debida al efecto de los tratamientos sobre los sujetos, siendo debida a otras
causas, generalemente desconocidas y espreas (diferencias individuales entre
los sujetos que configuran cada muestra, efectos incontrolados de variables
extraas, etc.).

As pues podemos escribir (3) como

SST = SSinter + SSe

quedando descompuesta la variabilidad total de un diseo como la suma de dos


componentes aditivos, uno que refleja la variabilidad debida al efecto 'puro' de
los tratamientos y el otro que refleja la variabilidad debida a efectos espreos.

Nuestro objetivo ser ahora relacionar estas sumas de cuadrados con el contraste
de la hiptesis H 0 : 1 = 2 =.. .= k . La misin del experimentador ser intentar
reducir la SSe tanto como le sea posible mediante tcnicas de control
experimental (aleatorizacin, eleccin de un diseo adecuado,...), as como
maximizar la SSinter (aplicando los tratamientos de forma ptima), pues de este
modo, como vamos a explicar ahora, maximizar las posibilidades de rechazar
la Ho, es decir, de demostrar que sus tratamientos producen efectos en la VD.
En el mdulo de Diseos de Investigacin en Psicologa (4 curso) se incidir
mucho en estos puntos.

Pero antes presentaremos un ejemplo que clarificar estas ideas.

EJEMPLO.

Imaginemos que un investigador est interesado en comprobrar si son


igualmente eficaces o no tres mtodos de enseanza del ingls (A1, A2, A3).
Para ello toma al azar una muestra de 15 sujetos, y los asigna al azar a los 3
mtodos y tras un curso de docencia mide a dichos grupos en la misma VD (p.e.
notas en un examen de ingls). Por tanto la hiptesis que ponemos a prueba es
H 0 : A1 = A 2 = A3 frente a H1 que especifica que al menos una de esas
igualdades no es cierta.

29
Las puntuaciones con sus respectivas medias grupales y media total fueron

Representemos en un continuo las 3 medias grupales, as como la media total y


p.e. la puntuacin del segundo sujeto del grupo A1 (que es un 2).
XT

A1 A3 A2

suj 2=2 3.2 4.8 5.26 7.8

de
dinter

dT

Podemos apreciar como la igualdad (2) es cierta para el segundo sujeto del
grupo A1 (as como tambin es cierto para todos y cada uno de los 15 sujetos de
la investigacin)

X ij X T = (X j X T ) + (X ij X j )
(2 - 5.26) = (3.2 - 5.26) + (2 - 3.2)
dT = dinter + de
distancia Total = distancia inter + distancia de error

Vamos a ver ahora la relacin de esto con el contraste de Ho:

dinter representa el efecto de cada tratamiento sobre la VD, es decir,


(X j X T )
o lo que es lo mismo, la desviacin de la media de cada grupo
respecto a la media total. Se puede entender fcilmente que a medida que
las 3 dinter (relativas a los tres grupos de tratamiento) difieran ms entre s

30
ms posibilidades habr de rechazar Ho. Si esto no se ve claro pinsese por
ejemplo qu ocurrira si en nuestro ejemplo los 15 sujetos hubiesen

obtenido una puntuacin de 5 puntos. Entonces X A1 = X A 2 = X A3 = X T = 5


con lo que habra evidencia para pensar que Ho es claramente cierta.

de representa (X ij X j ) o, lo que es lo mismo, la desviacin de cada sujeto


respecto a su media grupal, es decir, el efecto distinto que un mismo
tratamiento provoca sobre cada una de las personas de una muestra (debido
a diferencias individuales,...). Probablemente si la unidad experimental
fuese, en vez de personas, por ejemplo, mquinas (o mejor robots)
probablemente de sera en cada caso 0, debido a que no existira
variabilidad intragrupal en la asimilacin del tratamiento (es decir, cada
uno de los 5 robots de cada grupo ante un mismo tratamiento daran una
misma respuesta). Un ejemplo prototpico en el que la variabilidad de error
sera nula podra ser ste:

A1 A2 A3
3.2 7.8 4.8
3.2 7.8 4.8
3.2 7.8 4.8
3.2 7.8 4.8
3.2 7.8 4.8
Xj = X T = 5.26
3.2 7.8 4.8

Entendido esto podemos preguntarnos sobre cmo calcular la variabilidad inter


e de error que hay en todos los datos de nuestro ejemplo. Para ello aplicaremos
la expresin (3) obteniendo

66.9 = 54.5 + 12.4


SST = SSinter + SSe

lo que quiere decir que de las 66.9 unidades de variabilidad que hay en nuestros
datos 54.5 son debidas a los efectos 'puros' de los tratamientos y 12.4 a otras
causas espreas desconocidas.

31
LA TABLA DE ANOVA.

Entendido el concepto de SS se hace necesario presentar un nuevo trmino


conocido como grados de libertad (gl). En nuestro ejemplo las SS inter e intra
(54.5 y 12.4) no son directamente comparables dado que el valor 12.4 viene de
hallar las diferencias cuadrticas de 15 datos respecto a sus medias grupales,
mientras que 54.5 viene de hallar las diferencias de tan slo 3 datos (las medias
grupales) respecto a la media total (si bien tales diferencias cuadrticas aparecen
repetidas 5 veces cada una de ellas). El concepto de gl viene de las ciencias
fsicas en relacin a caractersticas del movimiento de los objetos: un objeto que
se mueve en lnea recta tiene 1 gl; si se mueve en un plano tiene 2 gl; en el
espacio, 3 gl,... En ANOVA los gl se refieren a criterios de ponderacin de las
SS. En concreto los gl asociados a las tres SS vistas son

glT = N-1
gl inter = k-1
gle = N-k

siendo k el nmero de tratamientos o condiciones experimentales y N el nmero


K

total de sujetos, es decir, N = n j , verificndose siempre que glT = gl inter +


1
gle.

Si ponderamos la SSinter por sus respectivos gl obtenemos la llamada media


cuadrtica inter (MSinter), mientras que si ponderamos la SSe por sus
respectivos gl obtenemos la llamada media cuadrtica de error (MSe).

Tales MS representan varianzas1 y ya son directamente contrastables. Se


comprende ahora el porqu del nombre anlisis de la varianza?.

En nuestro ejemplo la MSinter = 27.25 y la MSe=1.03, luego podemos decir


que en nuestros datos el efecto de los tratamientos es 26.46 (27.25/1.03) veces
mayor que el efecto de factores espreos. Podemos empezar pues a sospechar
seriamente que Ho va a ser rechazada.
Sin embargo para confirmar tal sospecha se requiere aplicar un test estadstico.

1 Obsrvese si no su similitud con la frmula de la cuasi-varianza:

s = 2
(X i
X)
n 1

32
Si como hemos dicho MSinter y MSe representan varianzas, en el tema 11
vimos cmo para contrastar hiptesis acerca del cociente de dos varianzas
utilizbamos un test F. En nuestro ejemplo pues F=26.46 que contrastado contra
el centil 95 de una distribucin F con 2 gl inter asociados al numerador y 12 gle
asociados al denominador permitir rechazar Ho para un nivel de riesgo de 0.05.

Los anteriores conceptos suelen presentarse agrupados en una tabla denominada


tabla de ANOVA que para nuestros datos quedara as:

FV SS GL MS F p
inter 54.5 2 27.25 26.46 <.05
error 12.4 12 1.03
Total 66.9 14

En ella FV son las abreviaturas de 'fuente de variacin' que en este modelo


hemos visto que son (excluida la total) 2 (la inter y la de error).

El programa SPSS realiza estos clculos (as como la prueba de Levene)


mediante el comando Analizar > Comparar medias > ANOVA de un factor

PRUEBAS A POSTERIORI

Si tras un ANOVA hemos aceptado Ho (es decir la razn F no ha alcanzado la


significacin estadstica) la interpretacin de los datos es clara en el sentido que
se confirma la idea de que los tratamientos no son eficaces sobre la VD (y ah
acaba el anlisis estadstico).
Pero cuando hemos rechazado Ho lo que significa es que al menos una de las
diferencias entre pares de medias es significativamente. En nuestro ejemplo el
haber obtenido una F significativa nos lleva a concluir que los distintos mtodos
del ingls producen resultados distintos pero no podemos decir todava qu
mtodo es el ms eficaz. Es decir rechazar Ho puede significar que sea cierta
una de estas tres alternativas:

(a) A1 A 2 = A3
(b) A1 = A 2 A3
o (c) A1 A 2 A3

33
Ls pruebas estadsticas a posteriori, llamadas as por que se aplican tras haber
hallado una F significativa, nos ayudarn a elegir cul de estas tres alternativas
es la cierta. Todas ellas comparan las diferencias entre los pares de medias
muestrales.

Una primera solucin podra ser aplicar k(k-1)/2 pruebas t sobre tales pares de
medias si bien ya dijimos que no es sta una solucin recomendable dado que
crece exponencialmente a medida que k aumenta. En este caso Bonferroni
recomend rechazar Ho con niveles de riesgo menores o iguales a /(k(k-1)/2).
De este modo estas pruebas t a posteriori se denominan t de Bonferroni.

Existen otras muchas pruebas a posteriori entre las que destacan las de
Newman-Keuls, Scheff, Tukey, etc. Ms o menos todas llevan a resultado
similares. El programa SPSS realiza todas ellas (seleccionndolas en opciones
del ANOVA de un factor).

34
EL ANOVA UNIFACTORIAL INTRA

Los ANOVAS intrasujeto son aquellos en los que una sola muestra de sujetos
pasa por todas las condiciones experimentales (por lo que se llaman diseos de
medidas repetidas). Presentan una gran ventaja de economa pues al trabajar
con una nica muestra los esfuerzos materiales y humanos que se involucran en
la investigacin son menores que los utilizados en un diseo de grupos al azar.
Sin embargo presentan algunos desventajas que hay que conocer:

En primer lugar no todas las VI admiten una manipulacin intra. Slo aquellas
VI que son susceptibles de manipulacin directa y que no producen efectos
persistentes en el organismo de los participantes (es decir, que desaparecen
entre una medicin y otra) pueden manipularse intrasujeto, mientras que las
manipuladas por seleccin (p.e. el sexo, la edad, el lugar de nacimiento, etc)
slo admiten manipulacin inter.

En segundo lugar, siempre que medidos a los sujetos varias veces en el tiempo
se involucra el llamado efecto de la prctica: Cuando medimos a una muestra
varias veces, su rendimiento en la segunda medicin no slo refleja el efecto de
tal tratamiento si no la experiencia que han obtenido los sujetos en la primera
medicin, etc. Para hacer que el efecto de la prctica se reparta por igual entre
todos los tratamientos podemos hacer principalmente dos cosas: (a) aleatorizar
para cada sujeto el orden de administracin de los tratamientos o (b) emplear
procedimientos de contrabalenceo, es decir, hallar todas las posible formas de
combinar el orden de presentacin de las k condiciones experimentales (habr
k! formas posibles) y asignar cada una de ellas a uno o varios sujetos distintos
(aunque de este modo nuestra muestra tendr que ser de tamao k! o un
mltiplo de este nmero).

Por ltimo, las mediciones han de estar poco espaciadas en el tiempo dado que
en caso contrario efectos madurativos de los sujetos pueden afectar a su
rendimiento en la VD.

En el mdulo Diseos de Investigacin en Psicologa se explicarn ampliamente


los conceptos anteriores, aunque es imprescindible conocerlos al hablar de los
ANOVAS intra.

El ANOVA intra supone el cumplimiento del supuesto de esfericidad de los


datos (las varianzas y covarianzas de las puntuaciones de error (X ij X j ) han
de ser similares) que es analizado por el test W de Mauchly (y que debe de

35
darnos no significativo, sig >. 05). Si no se cumple el programa nos da otros
estadsticos alternativos (p.e. Greenhouse-Geisser), o bien podemos recurrir a
un anlisis no paramtrico (ver tema 12).

El SPSS realiza un ANOVA intra as:

- Analizar > Modelo general lineal > medidas repetidas (ponemos nombre
al factor y n de niveles)
- Comprobar si se cumple el supuesto de esfericidad (test de Mauchly)
- Para hacer las pruebas a posteriori de Bonferroni ir a Opciones y meter
nuestro factor en Mostrar las medias para, seleccionar Comparar los
efectos principales+ Ajuste del intervalo de confianza +Bonferroni

36
TEMA 5. CONTRASTE DE HIPTESIS
NO-PARAMTRICO

Las pruebas de contraste de hiptesis no paramtricas se aplican


- bien cuando la VD venga medida en una escala ordinal (variables
semicuantitativas) o categorial (variables cualitativas)
- bien cuando venga medida en una escala de intrvalo (variables cuantitativas)
pero los supuestos tericos en los que se basa la aplicacin de las pruebas
paramtricas (normalidad de la VD, independencia de los errores,
homoscedasticidad, etc.) quedan seriamente daados.

La estadstica no-paramtrica o de distribuciones libres, est libre de los


supuestos sobre la distribucin, o la dispersin e incluso es muy laxa sobre la
condicin de medida que deben respetar las observaciones, ya que no necesita
utilizar puntuaciones exactas en sentido numrico, por lo que nos encontramos
con tcnicas fciles y que slo requieren conocimientos matemticos
elementales.

En general, la estadstica no-paramtrica es la alternativa imprescindible


cuando no se puede usar la paramtrica. Sin embargo a igual de condiciones es
siempre preferible utilizar una prueba paramtrica a una prueba no paramtrica
dado que la potencia de aquellas es mayor, as como la interpretacin de los
resultados es ms completa (por ejemplo las pruebas paramtricas permiten
hallar las interacciones de las variables manipuladas, cosa que no podremos
hacer desde una perspectiva no paramtrica).

Como en el caso de la estadstica paramtrica la prueba estadstica


responde al diseo experimental planteado. En concreto, en la estadstica no-
paramtrica la seleccin de la prueba adecuada depender del nmero de
condiciones o muestras experimentales que intervengan (1 condicin, 2
condiciones o ms de dos condiciones), del tipo de relacin que se establece
entre dichas condiciones (muestras independientes vs mediciones repetidas de
una misma muestra o muestras relacionadas) y, del modelo de medicin
subyacente a los datos (escala nominal vs escala ordinal).

As mismo estas pruebas se pueden agrupar en base al objetivo que


persiguen:
a) Pruebas de bondad de ajuste (Ji-cuadrado, Kolmogorov): sirven para
comprobar si existen diferencias significativas entre las puntuaciones en la VD
de nuestra muestra y una distribucin terica conocida o supuesta bajo Ho (p.e.

37
si los datos se distribuyen uniformemente entre las distintas categoras
nominales; si se distribuyen de formal normal, etc).
b) Pruebas de posicin (prueba de los signos o binomial): sirven para
verificar si el nmero de puntuaciones que quedan por debajo de determinada
posicin o criterio (p.e. la mediana) se adeca o no a lo predicho por Ho.
c) Pruebas de independencia (Ji-cuadrado): analizan mediante tablas de
contingencia y pruebas ji-cuadrado si existe relacin entre dos variables
categoriales relativas a una misma muestra de sujetos o no (es decir que si son
variables relacionadas o independientes). Este punto se desarrollar en el tema
13.

En la tabla inferior aparecen las principales pruebas que vamos a ver en


este tema.

38
PRUEBAS NO PARAMTRICAS PARA UNA CONDICIN O
MUESTRA

De modo general y antes de presentar las tcnicas concretas conviene


sealar lo que se entiende por una condicin o muestra, ya que una muestra por
s sola no indica nada si no se la compara con algn elemento de contraste.
Hablar de una sola muestra indica, precisamente, que el elemento de
comparacin o contraste no es otra muestra sino la poblacin, o algn tipo de
distribucin o de supuesto.

2
Prueba Chi-cuadrado ( ) .

La prueba ji-cuadrado fue sugerida por Karl Pearson como una forma
de valorar la bondad del ajuste de unos datos a una distribucin de
probabilidad conocida. Desde entonces la prueba ji-cuadrado se ha
convertido en una prueba muy aceptada y aplicable a mltiples usos cuando
se dispone de datos independientes de tipo nominal. P.e. esta prueba es
equivalente a hacer un contraste de hiptesis sobre una proporcin (ver tema
10) cuando la VD es dicotmica.

La prueba ji-cuadrado ofrece un test general sobre la existencia de


diferencias entre las categoras que agrupan a los datos de la variable
dependiente. La H0 indicara que la proporcin de elementos
correspondiente a cada categora de la variable independiente es consistente
con una prediccin especfica. Por el contrario, la H1 representa una clara
inconsistencia de los elementos observados en una categora con respecto a
la prediccin especfica.

Para su clculo como primer paso se requiere conocer las frecuencias


empricas (fe) que corresponden a cada una de las k categoras. Una vez
obtenidas estas frecuencias en las distintas categoras o casillas,
comparamos el valor de cada una de ellas con el valor esperado o frecuencia
terica (ft) que es de esperar cuando Ho es cierta. El valor esperado puede
depender de una distribucin terica determinada con la que queremos
comparar nuestros datos, o bien, sencillamente, reflejar que los datos se
repartan por igual entre las distintas k categoras. A continuacin calculamos
k 2
2 (f e f t)
=
ft
1

39
2
que se distribuye segn un modelo de probabilidad k1. Luego el
centil 95 de dicha distribucin nos dar el punto que delimita la regin de
rechazo de Ho (en ji-cuadrado los contrastes son siempre unilaterales
derechos).

Para poder aplicar esta prueba es necesario el cumplimiento de una


serie de condiciones:
- si k=2 no debe utilizarse si alguna celdilla tiene una ft<5. En este
caso podra aplicarse la prueba de Kolmogorov que luego veremos.
- si k>2 no debe utilizarse si (a) ms del 20% de las celdillas tienen
ft<5 o (b) alguna tiene una ft<1. En estos casos es mejor aplicar la prueba de
Kolmogorov o agrupar categoras.

Para realizarla en el SPSS: Analizar > pruebas no paramtricas >


cuadros de dilogo antiguos > Chi-cuadrado

Ejemplos en Pardo y Sanmartn, 12.2, pp 553, 530 y 529; San Martn y


Pardo pp. 78 (ejs. 1 y 2), 82 y 83; Siegel, 66.

Prueba de Kolmogorov

Al igual que el test chi-cuadrado es una prueba de bondad de ajuste que se


aplica sobre cualquier tipo de datos (cualitativos agrupados en k categoras,
semicuantitativos o cuantitativos). La ventaja que tiene sobre el test chi-
cuadrado es que no requiere de la satisfacin de supuesto terico alguno por lo
que es ms utilizada que aquella.

Su significado radica en comparar en todas las categoras la proporcin de


frecuencias acumuladas tericas (pfat) que se da cuando Ho es cierta, contra la
proporcin de frecuencias acumuladas empricas (pfae) y analizar si el punto de
mxima discrepancia entre ambas proporciones hace rechazar Ho o no.

La prueba de Kolmogorov (as como la de Shapiro-Wilk) es condicin


suficiente y necesaria para demostrar la normalidad de una distribucin de
datos. Ejemplos en San Martn y Pardo pps. 87 y 88.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > K-S de una muestra

40
Prueba binomial o de los signos.

Es una prueba de posicin aplicada sobre datos cuantitativos o


semicuantitativos que sern luego dicotomizados en funcin de si quedan por
encima o por debajo del criterio que establece Ho (los que coinciden con el
criterio se deshechan). A los queden por encima los etiquetaremos con un signo
+, mientras que a los que queden por debajo los etiquetaremos con un signo -.
Se tratar de ver hasta qu punto el nmero de signos + y de signos - est dentro
de lo predicho por Ho.

Ejemplos 9.1, pp 419, Pardo y San Martn. Ej. 3.9 pp. 105 y pp. 92 de San
Martn y Pardo

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > binomial

41
PRUEBAS NO PARAMTRICAS PARA 2 MUESTRAS
INDEPENDIENTES

Prueba de Mann-Whitney

La prueba de Mann-Whitney es adecuada cuando se quiere analizar dos


muestras en un diseo entre sujetos cuya variable dependiente est representada
por un modelo al menos ordinal. La prueba de Mann-Whitney es una alternativa
poderosa a la paramtrica t para grupos independientes.

La prueba de Mann-Whitney analiza las diferencias globales de los


grupos, para lo cual atribuye rangos a la puntuacin de cada sujeto como si se
tratase de un solo conjunto de datos. En esta situacin, si se cumple la H0 las
diferencias entre las dos condiciones sern aleatorias y las puntuaciones
mayores y menores, y por lo mismo los rangos, se repartirn en la misma
medida en ambas condiciones experimentales. Por el contrario, si existe una
clara preponderancia de rangos bajos o altos en una condicin frente a la otra se
supone que indica la eficacia del tratamiento y el rechazo de la H0.

Ejemplos 9.3, pp 429, Pardo y San Martn; San Martn y Pardo pp. 128 y
132, Cuadras, 680, Siegel, 151.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > 2 muestras independientes

Prueba de Chi-Cuadrado

Si comparamos si dos muestras independientes difieren en las k categoras


nominales de una VD la informacin resumida se presenta en una tabla de
contingencia 2 (grupos) x k categoras. La prueba de ji-cuadrado compara las
frecuencias empricas (fe) en cada celdilla de la tabla con las frecuencias
tericas (ft) esperadas bajo Ho. Las ft se calculan as:

ftij = (total de la fila i) x (total de la columna j) / n total de casos

Obtenidas las ft para cada celdilla de la tabla de contigencia, calculamos el


estadstico ji-cuadrado as:

42
2 = i j ((feij-ftij)2 / ftij)

que sigue una distribucin de probabilidad ji cuadrado con


gl = (filas-1)(columnas-1) de la tabla de contigencia.

Para poder aplicar este estadstico las ft < 5 no deben de aparecer en ms del
20% de las celdillas de la tabla de contingencia (en caso de que esto ocurriera lo
mejor sera aplicar otra prueba como la de Kolmogorov).

La prueba de ji-ciadrado tambin se utiliza para analizar si existen diferencias


entre las proporciones (de una variable dicotmica o dicotomizada) entre dos o
ms muestras independientes.

El programa SPSS nos permite el clculo de dicho estadsitico as: Analizar >
Estadsticos descriptivos > Tablas de contingencia. En Estadsticos
seleccionaremos Chi-cuadrado. Si la sig del chi-cuadrado .05 querr decir que
hay diferencias entre ambas muestras, si sig es >.05 querr decir que no hay
diferencias. Hay que comprobar (en la nota a que aparace bajo la tabla de chi-
cuadrado) que no ms del 20% de las casillas tengan ft < 5. Por defecto el SPSS
asigna valores esperados iguales para todas las categoras, pero podemos
modificarlos asignando porcentajes distintos a cada categora (p.e. si
quisiramos asignar un 70% a la categoria 1 y un 30% a la 2 pondramos en
aadir valores 70 y 30, respectivamente)

Ejs 12.7 P&SM pp554; fichero GSS93: Se reparte por igual el sexo? Y las
preferencias religiosas?

Prueba de Kolmogorov
Se puede utilizar en los mismos casos que ji-cuadrado sin estar pendientes de
que no ms del 20% de las casillas tengan ft < 5.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > K-S de una muestra

43
PRUEBAS NO PARAMETRICAS PARA 2 CONDICIONES
RELACIONADAS

Prueba de Wilcoxon

La prueba de Wilcoxon es apropiada cuando se tiene observaciones en


pares y cuando el tipo de medicin responde al menos al modelo ordinal. La
prueba de Wilcoxon es una alternativa poderosa a la paramtrica t para grupos
relacionados.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > 2 muestras relacionadas

Ejemplos 9.4, pp 432, Pardo y San Martn; San Martn y Pardo pp. 116,
Cuadras, 693, Siegel, 101 y 104.

Prueba de McNemar

La prueba de McNemar analiza si existen cambios en una muestra medida dos


veces en el tiempo (p.e. en diseos pre-post o antes-despus) en una variable
categorial dicotmica, es decir, compara dos proporciones relacionadas. En el
SPSS bien a) selecionaremos Analizar > Estadsticos descriptivos > Tablas de
contingencia y en Estadsticos seleccionaremos McNemar, o b) Pruebas no
paramtricas > Cuadros de dialogo antiguos > 2 muestras relacionadas >
McNemar

Si la sig de McNemar es .05 querr decir que hay un cambio significativo en


entre ambos momentos temporales, mientras que si sig >.05 indicar que no ha
habido un cambio significativo.

44
PRUEBAS PARA MAS DE 2 MUESTRAS INDEPENDIENTES.

Prueba de Kruskall-Wallis.

La prueba de Kruskal-Wallis es adecuada para analizar los datos derivados


de ms de dos (k) muestras o condiciones experimentales ejecutadas por grupos
de sujetos diferentes y cuya VD soporta, al menos, un modelo ordinal. Es decir,
esta prueba es adecuada para el anlisis de un diseo entre sujetos con ms de
dos grupos medido al menos ordinalmente. La prueba de Kruskal-Wallis, puede
considerarse, por tanto como una alternativa no-paramtrica al Anlisis de la
Varianza para grupos completamente aleatorizados.

La estructura de esta prueba es similar a la de Mann-Whitney y el


razonamiento, por tanto, se debe apoyar en los mismos postulados.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > K muestras independientes

Si hemos rechazado Ho y quisiramos hacer pruebas a posteriori lo ms


correcto sera aplicar k(k-1)/2 pruebas de Mann-Whitney pero aplicando la
correccin de Bonferroni, es decir, rechazando en cada una de ellas Ho con
niveles de riesgo menores o iguales a /(k(k-1)/2).

Ejemplos 9.5, pp 436, Pardo y San Martn; San Martn y Pardo pp. 229 y
234, Siegel, 217, 220.

Prueba de Ji-Cuadrado

Es la generalizacin de la prueba de ji-cuadrado de dos muestras


independientes a tres o ms muestras independientes. En el programa SPSS
Analizar > Estadsticos descriptivos > Tablas de contingencia. En Estadsticos
seleccionaremos Chi-cuadrado.

Ejs pps 535, 539 Pardo y San Martn.

45
PRUEBAS NO PARAMETRICAS PARA MAS DE 2 CONDICIONES
RELACIONADAS.

Prueba de Friedman

Puede considerarse como una extensin de la prueba de Wilcoxon. La


prueba de Friedman es una alternativa poderosa al anlisis de varianza para un
grupo de sujetos que reciben una variable intra.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > K muestras relacionadas

Si hemos rechazado Ho y quisiramos hacer pruebas a posteriori lo ms


correcto sera aplicar k(k-1)/2 pruebas de Wilcoxon pero aplicando la
correccin de Bonferroni, es decir, rechazando en cada una de ellas Ho con
niveles de riesgo menores o iguales a /(k(k-1)/2).

Ejemplos 9.7, pp 445, o 9.16, pp 452, Pardo y San Martn. San Martn y
Pardo pp. 251, Siegel, 119.

Prueba de Cochran

Se utiliza cuando comparamos ms de 2 muestras relacionadas y la


variable dependiente es dicotmica.

Para realizarla en el SPSS: Analizar > Pruebas no paramtricas > Cuadros


de dialogo antiguos > K muestras relacionadas.

Si hemos rechazado Ho y quisiramos hacer pruebas a posteriori lo ms


correcto sera aplicar k(k-1)/2 pruebas de McNemar pero aplicando la
correccin de Bonferroni, es decir, rechazando en cada una de ellas Ho con
niveles de riesgo menores o iguales a /(k(k-1)/2).

46
TEMA 6. CONTRASTES EN ASOCIACION Y
PREDICCION

1. Inferencia sobre la asociacin entre datos categricos.

Como ya dijimos en el tema anterior, la informacin resumida relativa a dos


variables cualitativas o categoriales se presenta en las llamadas tablas de
contingencia. Para analizar el grado de asociacin entre dichas variables se
utilizan estadsticos basados en la prueba ji-cuadrado de Pearson (p.e. Phi y V
de Cramer), que analiza el supuesto de independencia de dos variables
categoriales comparando las frecuencias observadas (fo) en cada celdilla de la
tabla con las frecuencias esperadas (fe) bajo la Ho del supuesto de
independencia, que se calculan as:

feij = (total de la fila i) x (total de la columna j) / n total de casos

Obtenidas las fe para cada celdilla de la tabla de contigencia, calculamos el


estadstico ji-cuadrado as:
2 = i j ((foij-feij)2 / feij)

que sigue una distribucin de probabilidad ji cuadrado con


gl = (filas-1)(columnas-1) de la tabla de contigencia.

Para poder aplicar este estadstico las fe < 5 no deben de aparecer en ms del
20% de las celdillas de la tabla de contingencia.

La prueba de ji-cuadrado tambin se utiliza para analizar si existen diferencias


entre las proporciones (de una variable dicotmica o dicotomizada) entre dos o
ms muestras independientes: si transformamos dichas proporciones en
frecuencias observadas fo y configuramos una tabla de contingencia 2 (niveles
de la variable dicotmica) x k muestras, la prueba de ji-cuadardo nos dir si
existen o no diferencias significativas entre dichas muestras en dicha variable
dicotmica.

El programa SPSS nos permite el clculo de dicho estadsitico as: Analizar >
Estadsticos descriptivos > Tablas de contingencia. En Estadsticos
seleccionaremos Chi-cuadrado y la Phi y V de Cramer para calcular el grado de
relacin entre las dos variables en una escala de 0 a 1. Si la sig de la Phi o de la

47
V de Cramer .05 querr decir que los datos no son independientes, es decir
que estn relacionadas, mientras que si sig > .05 es que son independientes, es
decir que no hay relacin entre ambas variables categoriales. Hay que
comprobar (en la nota a que aparace bajo la tabla de chi-cuadrado) que no ms
del 20% de las casillas tengan fe < 5

Ejs pps 535, 539 Pardo y San Martn.

2. Inferencia sobre los coeficientes de regresin.

Un modelo de regresin lineal es una ecuacin de primer orden que asocia una
variable dependiente (tambin llamada criterio), cuantitativa o semicuantitativa,
a una o varias (k) variables independientes (tambin llamados predictores),
cuantitativas, semicuantitativas, o cualitativas dicotmicas de acuerdo a una
funcin lineal del tipo:

VD = a + b1VI1 + b2VI2 + ... + bkVIk

donde a es la constante de la recta (o punto donde dicha recta corta al eje de


ordenadas cuando la VI vale 0) y las b representan la proporcin de cambio que
se observa en la VD por cada unidad de cambio de cada VI.

Dado que cada VI viene medida en una escala distinta las b no son directamente
comparables entre s. Para ello el SPPS calcula tambin las betas de los
modelos de regresin (o coeficientes tipificados o estandarizados, es decir,
previa tipificacin de las VIs) y que nos sirven adems para analizar si la
aportacin de cada VI es significativa o no para nuestro modelo de regresin (si
la sig asociada a una beta es .05 entonces es significativa, si es sig > .05 no lo
es).

Estimar un modelo de regresin lineal nos permite pues analizar tres objetivos
principales: 1) analizar si el modelo en su conjunto (es decir con todas las VIs
seleccionadas) es predictivo o no, viendo la R2 (que nos dice el porcentaje de
varianza de la VD que explican las VIs) y la sig del ANOVA (si sig .05
entonces el modelo es predictivo); 2) analizar el papel relativo que cada VI
juega en el modelo (viendo las betas y su significacin: si la sig de una beta
.05 entonces dicha VI debe de ser incluida en el modelo, en caso contrario
puede ser eliminada); 3) una vez comprobado que el modelo es predictivo,
utilizarlo para pronosticar las puntuaciones en la VD de nuevos sujetos de los
que disponemos sus puntuaciones en las VIs, sustituyendo sus valores en la

48
ecuacin de regresin.

Para hacer un modelo de regresin lineal en el SPSS seleccionaremos Analizar


> Regresin > Lineales, eligiendo la variable criterio (VD) y la(s) variables
predictoras (VIs). En Estadsticos elegiremos Durbin-Watson, Diagnstico de
Colinealidad. En Guardar: residuos no tipificados. En Opciones: Valores
perdidos: reemplazar por la media.

Por ejemplo imaginemos que en el fichero GSS93 queremos predecir los


ingresos del encuestado en funcin de estas 5 VIs: aos de escolarizacin, edad
del encuestado, ttulo escolar del padre, ttulo escolar de la madre y horas diarias
viendo TV. Obtendremos los siguientes resultados:

Resumen del modelob


R cuadrado Error tp. de la
Modelo R R cuadrado corregida estimacin Durbin-Watson
1 ,459a ,210 ,205 4,754 1,887

ANOVAb
Suma de Media
Modelo cuadrados gl cuadrtica F Sig.
1 Regresin 4451,974 5 890,395 39,392 ,000a
Residual 16703,911 739 22,603
Total 21155,885 744

Coeficientesa
Coeficientes
Coeficientes no estandarizados tipificados
Modelo B Error tp. Beta t Sig.
1 (Constante) ,655 1,191 ,550 ,582
Aos de escolarizacin ,643 ,068 ,344 9,395 ,000
Ttulo escolar del padre ,044 ,178 ,010 ,249 ,804
Ttulo escolar de la madre ,043 ,229 ,008 ,190 ,850
Edad del encuestado ,097 ,015 ,225 6,564 ,000
Horas diarias viendo TV -,433 ,095 -,154 -4,554 ,000

49
Nos indicaran que el ajuste global del modelo es significativo (sig=.0001), que
dicho modelo explica el 21% de la varianza de la VD (a su vez R=.459 es la
correlacin r entre Y e Y', es decir, entre los valores reales en Y y los
pronosticados por el modelo de regresin, respectivamente), y que las variables
ttulo escolar del padre y de la madre no aportan nada al mismo, por lo que
podramos eliminarlas. La beta de aos de escolarizacin indica que por cada
ao de escolarizacin los ingresos aumentan en 0.344 unidades; la beta de edad
indica que cada ao aumenta los ingresos e .225 unidades y la beta de horas
viendo TV indica que por cada hora de promedio diaria que se ve la TV los
ingresos disminuyen en .154 unidades.
Este mismo procedimiento de anlisis es aplicable a otros modelos de regresin
no lineal.

Aspectos a tener en cuenta a la hora de estimar un modelo de regresin.

a) Un modelo de regresin descansa sobre unos supuestos tericos que han de


ser verificados y tenidos en cuenta:

a1) se asume que la relacin entre los variables implicadas en el modelo ha


de ser lineal, aunque este supuesto casi siempre se da por vlido sin
analizarlo

a2) los residuos (Yi-Yi') han de ser independientes unos de otros, es decir

no han de estar autocorrelacionados. En el SPSS este supuesto lo podemos


comprobar mediante el clculo estadstico de Durbin-Watson (Analizar >
Regresin Lineales > Estadsticos: Residuos > Durbin-Watson) que debe

50
darnos valores comprendidos entre 1.5 y 2.5 para que se cumpla dicho
supuesto. En nuestro ejemplo dicho estadstico vale 1.887 luego hay
independiencia en los residuos.

a3) la distribucin de los residuos (Yi-Yi') ha de ser normal con media = 0.

En el SPSS este supuesto lo podemos comprobar en Grficos: Grficos de


residuos tipificados > Histograma y hacer una interpretacin visual del
mismo. O tambin podemos pedirle al SPSS que nos guarde los residuos
como una nueva variable (primero en Analizar > Regresin Lineales >
Estadsticios > Residuos > Diagnstico por casos >Todos los casos , y a
continuacin en Guardar > Residuos > no tipificados) y a continuacin
hacer un test de normalidad de Kolmogorov-Smirnov o de Shapiro-Wilk
sobre ellos (Analizar > Estadsticos descriptivos > Explorar > Grficos >
Grficos con pruebas de normalidad).

a4) No debe de haber colinealidad entre las distintas VI, es decir, no deben
de estar muy correlacionadas entre s. En el SPSS este supuesto lo
podemos comprobar mediante Analizar > Regresin Lineales >
Estadsticos > Diagnsticos de la colinealidad. En la tabla de Resultados
etiquetada como "Diagnsticos de colinealidad" ningn "ndice de
condicin" debera superar el valor 15 para que se cumpla de forma ptima
el supuesto de no colinealidad (de 15 a 30 puntos indica colinealidad
creciente, pero en ningn caso podremos aceptar un modelo con ndices de
condicin superiores a 30 puntos). Adems en "proporciones de varianza"
debera de haber slo una correlacin alta por columna, siendo el resto
bajas. Si se incumple este supuesto podramos: 1) aumentar el tamao de la
muestra; 2) eliminar las VI redundantes o 3) promediar dichas VIs. En

51
nuestro ejemplo, slo el ndice de condicin igual a 18.29 parece indicar
cierta colinealidad entre las variables (aunque est alejado del valor crtico
30), pero las proporciones de varianza parecen correctas, por lo que en
general podemos decir que no hay colinealidad en nuestros datos:

Para comprender mejor el papel que juega la colinealidad entre las VIs es til
pedirle tambin al SPPS en la opcin Estadsticos que calcule las correlaciones
parciales y semiparciales. En nuestro ejemplo:
Coeficientesa
Correlaciones
Modelo Orden cero Parcial Semiparcial
1 (Constante)
Aos de escolarizacin ,368 ,327 ,307
Ttulo escolar del padre ,087 ,009 ,008
Ttulo escolar de la madre ,096 ,007 ,006
Edad del encuestado ,194 ,235 ,215
Horas diarias viendo TV -,252 -,165 -,149

Las correlaciones de orden cero son la r de cada VI con la VD. La correlacin


parcial nos indica la r de cada VI con la VD tras eliminar de ambas el efecto del
resto de VIs (es decir, tras eliminar la colinealidad). La semiparcial indica la r
entre la VD y la VI, quitando el efecto que sobre la VD tienen el resto de VIs.

b) Antes de calcular un modelo de regresin debemos prestar especial atencin


a los 'datos anmalos' (outliers; p.e. los que se salen del rango media 3
desviaciones tpicas) tanto en la VD como en las VI, dado que uno slo de
dichos datos puede cambiarnos el poder predictivo del modelo de regresin
drsticamente. Dichos datos pueden ser motivados por distintas causas: un error

52
en la transcripcin, un sujeto anmalo o muy excepcional, etc. Es muy
importante antes de calcular el modelo de regresin identificar y decidir qu
hacer con dichos datos anmalos (eliminarlos, retenerlos,...).

c) La situacin ideal para un modelo de regresin es aquella donde observando


la matriz de correlaciones entre todas las variables (criterio y predictoras)
observamos correlaciones altas entre cada una de las variables predictoras con el
criterio pero bajas entre s. En tal caso todas dichas VI deben ser incorporadas al
modelo. Muy comnmente sin embargo se dan adems intercorrelaciones altas
entre las VIs, en tal caso puede llegar a darse el caso de colinealidad entre ellas
(ver lo dicho arriba en el punto a4)

d) Con respecto al nmero ideal de predictores hay que decir lo siguiente:

d.1. La ratio tamao de la muestra / nmero de predictores es crucial a la


hora de poder generalizar nuestro modelo. Stevens propone un mnimo de
15 sujetos por cada VI que incorporemos a la ecuacin de regresin

d.2. Para resolver el problema del nmero ideal de predictores el mtodo


ms adecuado es llevar a cabo un procedimiento de 'regresin escalonada o
por pasos' (stepwise regression), de la hay que distintas versiones: a) El
mtodo de regresin escalonada hacia atrs consiste en tomar al principio
todas las variables predictoras e ir eliminando de la ecuacin de regresin
todas aquellas que no aporten nada significativo al modelo (observando la
importancia relativa de las betas de las distintas variables predictoras y
eliminando de la ecuacin de regresin aquellas VIs con betas no
significativas). En la regresin escalonada hacia adelante se van aadiendo
una a una las distintas VIs al modelo de regresin comenzando por las que
ms correlacionen con la VD hasta llegar a un punto en que aadir nuevas
VIs no aporten una mejora significativa la modelo.

Hay que tener en cuenta aqu tambin la llamada desigualdad de


Bonferroni, segn la cual aumenta de forma progresiva a medida que
vamos incluyendo ms predictores. Al respecto Stevens (pp. 68-69) llega a
proponer contrastar la significatividad de R con niveles de riesgo /p,
siendo p el nmero de variables predictoras que incorporamos al modelo.

d.3. Por ltimo hay que decir que a igualdad de condiciones es preferible
un modelo con pocas variables predictoras que con muchas (Stevens, pp
99).

53
TEMA 7. INTRODUCCION A LA ESTADISTICA
MULTIVARIADA.

En un sentido estricto las tcnicas estadsticas multivariadas son aquellas que


analizan ms de una variable dependiente (como ocurre p.e. cuando trabajamos
con encuestas, tests o cuestionarios). Se pueden dar varias importantes razones
para justificar el uso de tales tcnicas. Por ejemplo: En muchas ciencias, y en
concreto en la Psicologa, pocas veces la medicin de una sola conducta refleja
de forma precisa el influjo de las variables que la modulan, ms bien en nuestra
ciencia ocurre que 'todas las variables afectan a todas la variables'. Es decir muy
a menudo es necesario conocer las intercorrelaciones que se dan entre amplios
conjuntos de variables. El uso de las tcnicas multivariadas ha aumentado
mucho debido a la accesibilidad al uso de paquetes estadsticos computerizados.

Se encuadran aqu un amplio conjunto de tcnicas estadsticas:

(a) tcnicas de agrupacin o de reduccin de datos, cuyo objetivo es


resumir o sintetizar la informacin contenida en un conjunto de n variables
a un conjunto menor de m variables distintas (tal que m<n) de tal forma
que sean capaces de eliminar la informacin redundante contenida en
aquellas (p.e. Anlisis Factorial o de Componentes Principales; Anlisis de
Conglomerados)

(b) tcnicas de clasificacin de datos, cuyo objetivo es aplicar modelos de


regresin para la clasificacin de los sujetos en una o varias VD
categoriales (p.e. Anlisis Discriminante, Regresin logstica, etc.)

(c) tcnicas de contraste de hiptesis experimentales (p.e. MANOVA,


MANCOVA, etc.)

Vamos a presentar someramente una prueba multivariada relativa a cada una de


estas categoras.

54
TCNICAS DE AGRUPACIN DE DATOS: EL ANALISIS
FACTORIAL (AF) O DE COMPONENTES PRINCIPALES (ACP)

El AF (no confundir con Anlisis de la Varianza ni con ANOVA factorial) es un


mtodo estadstico desarrollado por Thurstone que permite explicar n variables
X1, ..., Xn mediante un reducido nmero de m variables latentes (hipotticas)
llamadas factores F1,...Fm tal que m<n. Cada uno de tales factores son
combinaciones lineales de las variables originales X1, ..., Xn , siendo adems
ortogonales (incorrelacionados) entre s. El AF es sin duda la tcnica reductora
de la dimensionalidad ms empleada en ciencias sociales, como la Psicologa.
Toda la teora de la inteligencia (factor g de Spearman, Thurstone, ...) y la
personalidad (Cattell, Guildford,...) se basa en los resultados hallados a travs
del AF. En el mdulo de Psicometra Sin embargo no es una tcnica que permita
extraer relaciones causales entre variables sino que es un tcnica descriptiva de
la dimensionalidad subyacente a un conjunto de variables.

Aunque existen en realidad distintos mtodos de AF (componentes principales,


alfa, centroide,...) nos centraremos tan slo en el primero de ellos por ser el ms
utilizado. En realidad el genricamente llamado AF coincidira (Tatsouka) con
un ACP, al que a veces se le incorporan mtodos de rotacin oblicua, con el fin
de que el resultado satisfaga el llamado 'principio de estructura simple' de
Thurstone (ver ms abajo), mejorando as su interpretabilidad. Por ello muchos
manuales y en especial los paquetes estadsticos informatizados tienden a
identificar AF con el anlisis componentes principales.

Comenzaremos explicando el significado intuitivo del AF a travs de un


ejemplo. Supongamos que pasamos 6 pruebas a 100 alumnos (vocabulario -V-,
lectura -L-, idiomas -I-, aritmtica -A-, fsica -F- y qumica -Q-) y obtenemos la
siguiente matriz de correlaciones R (que es el punto de partida del AF; en negrita
p<.01):

V L I A F Q
________________________________________________
V 1 .72 .63 .09 .09 .00
L 1 .57 .15 .16 .09
I 1 .14 .15 .09
A 1 .57 .63
F 1 .72
Q 1
_________________________________________________

55
Se puede apreciar como si tales 6 variables en realidad midiesen slo dos cosas
tal y como muestran los dos grupos de correlaciones significativas. El resultado
de aplicar un AF (de componentes principales) sobre tal matriz es la siguiente
matriz factorial o de componentes (en SPSS > Analizar > Reduccin de
dimensiones > Factor):
2
Pruebas F1 F2 h
__________________________
V .83 .01 .70
L .79 .10 .63
I .70 .10 .50
A .10 .70 .50
F .10 .79 .63
Q .01 .83 .70
__________________________
1.8231 1.8231
% var 30.385 30.385
__________________________
en negrita p<.01

Dicha tabla nos muestra cmo las 6 pruebas en realidad estn midiendo dos
factores o componentes (F1 y F2). Los nmeros que aparecen en las columas F1
y F2 reciben el nombre de saturaciones o cargas factoriales y representan la
correlacin existente entre cada variable Xi con cada componente o factor Fn
(desde ahora ain).

ain = corr (Xi, Fn)

Si las elevamos al cuadrado obtendremos la proporcin de varianza del factor


explicada por cada variable.

Las h2 reciben el nombre de comunalidades y representan la proporcin de


varianza de la variable Xi explicada por los factores F1, ..., Fm . Observando las
comunalidades podemos analizar qu variable es mejor o peor explicada por
nuestro modelo factorial.

Por ltimo, el autovalor de un factor Fi es la varianza de la matriz de


correlaciones (R) explicada por dicho factor y se define como

i = a21i + ...+a2ni

Dividiendo i entre el nmero total de variables (n) obtendremos la proporcin

56
de varianza de R expresada por Fi .

No existen criterios unvocos para determinar cundo un factor es significativo


o cuando puede ser desechado de la matriz factorial. Muy comnmente en AF
se suelen considerar como factores significativos aquellos con 1 (criterio de
Kaiser), pero podemos optar tambin por desechar aquellos cuya varianza
explicada no alcance un valor mnimo (p.e. del 15%). Por defecto el SPSS
extrae los factores con autovalores mayores de 1 (criterio de Kaiser).

Existen infinitas soluciones factoriales para una misma matriz de datos. La


forma de conseguir una sola solucin es imponer ciertos criterios que definen
otros tantos tipos de AF (de componentes principales, centroide, de mxima
verosimilitud, tipo de rotacin, etc).

Rotaciones ortogonales y oblicuas.

Como seal Thurstone en la mayora de los casos es difcil encontrar una


matriz factorial que defina unos factores claramente interpretables. La finalidad
de la rotacin es conseguir dar una mayor capacidad explicativa a los factores
(principio de parsimonia). Con las ideas de estructura simple y de rotacin de
los factores intent Thurstone resolver el problema.

Una forma simple de entender el concepto de rotacin factorial es concebir un


espacio de m dimensiones ortogonales y representar en l las distintas cargas
factoriales de la matriz factorial. P.e. podemos representar la matriz factorial de
nuestro ejemplo sobre los dos factores hallados (izquierda) y rotarlos luego
(manteniendo su ortogonalidad) un determinado nmero de grados (derecha):

57
F1
F1
1
V
.80 V
L
L
I
I
.60

.40

.20
A F
Q F2 A F
Q
0
.20 .40 .60 .80 1

F2

Como se puede apreciar la posicin de las 6 variables en el espacio bifactorial


es la misma, pero al rotar los ejes cambian sus coordenadas de proyeccin
(cargas factoriales). Pues bien el objetivo de la rotacin factorial es dar con una
posicin idnea de los factores sobre los que proyectar las variables,
maximizando algunas saturaciones (aunque sea en detrimento de otras) para que
los factores comunes queden destacados. En nuestro ejemplo es la figura de la
izquierda la solucin rotada mejor.

La equivalencia entre una solucin ortogonal rotada y no rotada se aprecia en


que las comunalidades de las distintas variables siguen siendo las mismas,
debido a que como queda dicho la solucin factorial nunca es nica. En nuestro
ejemplo:

ROTADA NO ROTADA
2
Pruebas F1 F2 h F1 F2
________________________________________
V .83 .01 .70 .60 -.58
L .79 .10 .63 .63 -.49
I .70 .10 .50 .56 -.43
A .10 .70 .50 .56 .43
F .10 .79 .63 .63 .49
Q .01 .83 .70 .60 .58
_________________________________________

Sin embargo se puede apreciar que los autovalores varan.

Existen diversos mtodos de rotacin ortogonal (varimax, quartimax,...).

58
En las rotaciones oblicuas (menos utilizadas) se permite que los factores dejen
de ser ortogonales, es decir que sean correlacionados. Los factores oblicuos son
entonces variables correlacionadas entre s.

Para orientar al investigador en sus tcnicas de rotacin Thurstone desarroll


cinco principios aplicables tanto a rotaciones ortogonales como oblicuas
conocidos como el 'Principio de Estructura Simple' y que definen la solucin
factorial ptima:

1) Cada fila de la matriz factorial debe de tener al menos una carga cercana
a 0.
2) En cada columna debe de haber, por lo menos, tantas cargas cercanas a
0 como factores haya.
3) Entre cada par de columnas debe de haber cargas altas en un factor y
bajas en el otro (o a la inversa).
4) Ante 4 o ms factores es interesante que una gran proporcin de
variables tengan cargas cercanas a 0 ante cada par de factores
5) En cualquier par de columnas de la matriz factorial debe de haber un
nmero pequeo de variables con cargas altas en ambas.

Estos criterios buscan encontrar variables 'puras', es decir, que saturen mucho en
algunos factores y muy poco en otros en aras de facilitar la interpretacin de los
resultados.

AF de segundo orden.

Si correlacionamos las cargas factoriales de la matriz factorial A obtenidas tras


haber llevado a cabo un AF, y a su vez factorizamos dicha matriz de
correlaciones habremos llevado a cabo un AF de segundo orden. En l
utilizamos los factores de primer orden como si fueran variables empricas en
aras de encontrar "factores detrs de los factores". El factor G de Spearman o el
rasgo introversin-extroversin de Cattel han sido hallados de este modo.

AF exploratorio y AF confirmatorio.

Como acabamos de ver, generalmente el objetivo del AF es explorar la


dimensionalidad subyacente a un cierto nmero de variables empricas del
modo ms sencillo posible (AF exploratorio o simplemente AF). Sin embargo

59
otras veces el anlisis se realiza con un conocimiento previo del nmero y/o
estructura de los factores denominndose AF confirmatorio, pues pone a prueba
si la hiptesis formulada a priori es cierta o no. Dicha hiptesis se plantea bien
sobre el nmero de factores, su naturaleza (oblicuos, ortogonales, mixtos) o
sobre las saturaciones de la matriz factorial. Un test chi2 permite confirmar la
estructura formulada.

60
TCNICAS DE CLASIFICACIN DE DATOS: EL ANALISIS
DISCRIMINANTE (AD)

El AD es un modelo de regresin donde las VIs predictores son cuantitativas (o


semicuantitativas, o incluso cualitativas dicotmicas) y la VD o criterio es
cualitatativa (o semicuantitativa). Su objetivo es hallar la combinacin lineal de
variables predictoras (o funcin discriminante) que consiga discriminar mejor la
pertenencia de las sujetos a las diferentes categoras de la VD. Una vez
conocida dicha funcin discriminante podremos aplicarla para clasificar nuevos
casos (p.e. devolver este cliente el prstamo si se lo concedemos?;
desarrollar alguna patologa clnica?, ser un buen trabajador en nuestra
empresa?, etc.). Cuando las VIs sean cualitativas es mejor emplear otra tcnica
clasificatoria llamada regresin logstica.

Tengamos N sujetos medidos, de forma continua en p variables predictoras, y


de forma nomimal en una variable criterio donde quede explicita la pertenecia
de cada sujeto a tal o cual grupo (1, 2, ..., k grupos de clasificacin). As, p.e:
Crit. Predictores
Y X1, X2, ... Xp
1 1 23, 24 , ... 112
2 1 24, 54, ... 78
Sujetos

. . . . .
6 3 34, 45, ... 12
. . . . ... .

N k 56, 87,... 32

Asumiendo que las VIs se distribuyen de acuerdo al modelo normal


multivariado (se puede demostrar comprobando la normalidad de los
componentes principales de p los predictores), que las matrices de covarianzas
de las poblaciones no difieren entre s (test de Box), que ninguna variable
predictora sea una combinacin lineal perfecta de otra (multicolinealidad), y que
la ratio (N/p) 20 (ver Stevens, pp. 236, para que los resultados del anlisis
sean generalizables) entonces podemos llevar a cabo un AD sobre los datos, el
cual nos permitir hallar un doble objetivo (ver Klecka, 1980, pp. 8 y 9;
Stevens, pp. 232):

(a) Dar con las funciones discriminantes que mejor discriminen a los k grupos
en las p variables predictoras. (b) Valernos de ellas para predecir la asignacin

61
de los nuevos sujetos a los distintos grupos.

Una funcin discriminate del tipo Y= v1 X1+ v2 X2 + ...+ vp Xp es pues aquella


que maximiza las diferencias entre grupos de clasificacin con el fin de
minimizar el nmero de sujetos mal clasificados. Las v1+ v2+ ...+ vp reciben el
nombre de coeficientes discriminantes (bien brutos o estandarizados).

Para realizar un AD en SPSS seleccionaremos Analizar > Clasificar >


Discriminante. Luego definiremos el rango de la VD y seleccionaremos los
predictores. En Estadsticos seleccionaremos Medias, M de Box, ANOVAs
Univariados (para analizar qu predictores son significativos) y coeficientes de
la funcin no tipificados. En Clasificar seleccionaremos: Probablidades previas:
Calcular segn tamaos de los grupos. En Visualizacin: Tabla resumen. Y
reemplazar valores perdidos por la media (para no perder muchos sujetos del
anlisis).

Pongamos un ejemplo (basado en los datos del fichero GSS93): queremos


predecir si una persona est a favor en contra de tener armas en casa (1: a favor;
2: en contra) en base a las respuestas de los sujetos a estas 6 VIs: edad, nmero
de hijos, sexo, ingresos del encuestado, casado o no y aos de escolarizacin.
Los resultados fueron.

Resultados de la prueba
M de Box 15,930
F Aprox. ,743
gl1 21
gl2 132650,922
Sig. ,792

El test de BOX que las matrices de covarianzas son iguales.

Lambda de Wilks
Contraste de las Lambda de
funciones Wilks Chi-cuadrado gl Sig.
1 ,944 36,116 6 ,000

La Lambda de Wilks nos indica si la funcin discriminante obtenida abajo es o


no significativa: En nuestro caso lo es y por lo tanto podramos utilizarla para el

62
pronstico de nuevos casos.

Coeficientes estandarizados de las


funciones discriminantes cannicas
Funcin
1
Edad del encuestado ,289
Nmero de hijos -,280
Sexo del entrevistado ,899
Ingresos del encuestado ,056
1991
Casado? ,169
Aos de escolarizacin ,199

Los coeficientes estandarizados de arriba son directamente comparables entre s


(pues estn tipificados en una misma escala de medida) y nos dicen qu VI
aparta ms a la funcin discriminante y cul menos. En nuestro ejemplo el sexo
es la que ms aporta al modelo: como hombre=1 y mujer=2 y .899 lleva signo
positivo quiere decir que las mujeres son ms reacias a tener armas que los
hombres. A continuacin viene la edad (a mayor edad se est ms en contra de
tener armas), ....

Coeficientes de las funciones


cannicas discriminantes
Funcin
1
Edad del encuestado ,023
Nmero de hijos -,184
Sexo del entrevistado 1,838
Ingresos del encuestado ,011
1991
Casado? ,340
Aos de escolarizacin ,072
(Constante) -5,020
Coeficientes no tipificados

63
Estos son los coeficientes discriminantes brutos (sin tipificar). Es decir si
quisiramos pronosticar el comportamiento de un nuevo sujeto en la VD
entonces sustituiramos sus puntuaciones en los predictores de la siguiente
ecuacin y as sabramos si estara a favor (1) o en contra (2) de tener armas en
casa (le asignaramos a 1 o 2 en funcin del valor pronosticado ms prximo a
uno u otro):

VD = -5.02 +.023*edad -.184*hijos + 1.838*sexo +.011*Ingresos + .34*casado


+.07*Aos escolarizacin

Resultados de la clasificacina
Grupo de pertenencia
Oposicin a los pronosticado
permisos de armas A Favor En Contra Total
Original Recuento A Favor 811 0 811
En Contra 173 0 173
Casos desagrupados 516 0 516
% A Favor 100,0 ,0 100,0
En Contra 100,0 ,0 100,0
Casos desagrupados 100,0 ,0 100,0
a. Clasificados correctamente el 82,4% de los casos agrupados originales.

Esta tabla nos indica que el modelo clasifica correctamente el 82.4% de los
datos originales.

64
TCNICAS MULTIVARIADAS DE CONTRASTE DE HIPTESIS:
EL MANOVA

Es el equivalente multivariado del ANOVA donde comprobamos si la


manipulacin de una o varias VIs afecta o no sobre varias VDs.

Como el ANOVA, el MANOVA requiere de la satisfacin de determinados


supuestos tericos para poder ser aplicado (ver p.e. Bray y Maxwell, 1985; pp.
32; Stevens, pp. 205):
1) Las observaciones han de ser independientes, por lo que lo mejor es al
azar los sujetos a los tratamientos de la VI.
2) Las observaciones de las VDs han de seguir una distribucin
multivariada normal. Hay que resear que la normalidad de cada una de las
VDs no garantiza una normalidad multivariante. Un test de normalidad
sobre sus componentes principales s es condicin necesaria y suficiente de
normalidad multivariante.
3) Todos los grupos han de tener matrices de covarianzas similares, lo que
se verifica llevando a cabo tests de homoscedasticidad sobre cada una de
las VDs (test de Box).

Para hacer un MANOVA con el SPSS selecionaremos Analizar > Modelo


general lineal > Multivariante. En opciones seleccionaremos Pruebas de
homogeneidad y en Post Hoc seleccionaremos una prueba a psoteriori (p.e.
Scheff).

Pongamos un ejemplo. 15 sujetos son asignados al azar a 3 condiciones de una


VI y son medidos luego en 2 VDs. Analizamos los datos con un MANOVA y
obtenemos los siguientes resultados:

Prueba de Box sobre la


igualdad de las matrices de
covarianzasa
M de Box 9,372
F 1,183
gl1 6
gl2 3588,923
Sig. ,312

El test de Box muestra que se cumple el supuesto de igual de las matrices de


covarianzas.

65
Contrastes multivariadosc
Gl de la
Efecto Valor F hiptesis Gl del error Sig.
vi Traza de Pillai 1,192 5,907 6,000 24,000 ,001
a
Lambda de Wilks ,007 41,648 6,000 22,000 ,000
Traza de 121,334 202,223 6,000 20,000 ,000
Hotelling
Raz mayor de 121,083 484,332b 3,000 12,000 ,000
Roy

Los resultados de la tabla anterior muestran que la VI afecta de forma


significativa sobre ambas VD conjuntamente

Pruebas de los efectos inter-sujetos


Suma de
Variable cuadrados Media
Origen dependiente tipo III gl cuadrtica F Sig.
a
Model vd1 23794,600 3 7931,533 108,108 ,000
b
vd2 548,200 3 182,733 322,471 ,000
vi vd1 23794,600 3 7931,533 108,108 ,000
vd2 548,200 3 182,733 322,471 ,000
Error vd1 880,400 12 73,367
vd2 6,800 12 ,567
Total vd1 24675,000 15
vd2 555,000 15
a. R cuadrado = ,964 (R cuadrado corregida = ,955)
b. R cuadrado = ,988 (R cuadrado corregida = ,985)

Los resultados de la tabla anterior muestran que la VI afecta de forma


significativa a ambas VD de forma individual

66
Pruebas post hoc

vd1
a,b,c
Scheffe
Subconjunto
vi N 1 2
1 5 24,8000
2 5 44,2000
3 5 46,8000
Sig. 1,000 ,892

vd2
Scheffea,b,c
Subconjunto
vi N 1 2 3
1 5 2,8000
2 5 6,4000
3 5 7,8000
Sig. 1,000 1,000 1,000

Los resultados de la tabla vd1 muestran que la condicin 1 difiere


significativamente de las condiciones 2 y 3 (entre las que no hay diferencias)

Los resultados de la tabla vd2 muestran que existen diferencias significativas


entre las 3 condiciones de la VI.

67
TABLAS ESTADISTICAS

68
69
70
71
72
73

You might also like