You are on page 1of 42

ANALISIS ESTADISTICO PROGRAMA S.P.S.S.

Análisis Estadístico
SPSS es uno de los grandes programas, frecuentemente aludidos como paquetes
estadísticos, existentes en el mercado. Tiene implementados un elevadísimo número de
análisis estadísticos, la mayoría de ellos bajo el epígrafe “Analizar” del menú principal. Un
conocimiento profundo de los datos y una idea clara de las preguntas que se desean responder
facilitarán el correcto uso y el máximo aprovechamiento de los análisis estadísticos
disponibles. A continuación se describe brevemente una serie de análisis estadísticos básicos
de uso frecuente, utilizando la versión 19.

Análisis Descriptivo.
El primer paso, una vez introducidos los datos, es realizar un análisis descriptivo de la
muestra. Nos permitirá controlar la presencia de posibles errores en la fase de introducción de
los datos, es decir, detectaremos con él valores fuera de rango o ilógicos (p. ej. Una edad de
197 años es claramente un dato extraño, presencia de alguna patología 4, siendo que sólo es 1
ó 2 es decir presencia o no, etc), o la presencia de valores perdidos. Este análisis inicial
también nos proporcionará una idea de la forma que tienen los datos: su posible distribución
de probabilidad con sus parámetros de centralización; media, mediana y moda; así como sus
parámetros de dispersión; varianza, desviación típica, etc.

El SPSS proporciona varias herramientas para realizar esta descripción, todas ellas bajo
el menú “Analizar” y, dentro de él, la opción “Estadísticos descriptivos”. Estos métodos son:
Frecuencias, Descriptivos y Explorar. La opción frecuencia la observamos en tabla -33.

Frecuencias.
La ejecución de este subprograma, resultan un gran número de gráficos y de tablas con
información numérica. Una vez decidida/s la/s variable/s a analizar, se solicitan los
estadísticos y las gráficas que queremos obtener. Los estadísticos posibles se muestran en la
y la elección de uno u otro dependerá del tipo de variable a analizar. En el caso de variables
cuantitativas tiene sentido la solicitud de estadísticos de centralización, dispersión y forma de
la distribución, mientras en el caso de variables cualitativas esto no tiene sentido. En este
segundo caso, el interés se centrará en la obtención de la tabla de frecuencias, cuyo formato
podemos particularizar como, ordenar según el valor de la variable o según las frecuencias
observadas (tablas-34 y 35).

En el caso de variables cuantitativas habrá que desactivar mostrar tablas de frecuencias,


(esta opción aparece activa por defecto) sería muy larga dado el alto número de valores
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 2

distintos de la variable. No cumpliría con la utilidad de dichas tablas, presentar de una forma
resumida los datos.

Tabla-33

Tabla-33

En tabla-33 se presentan los resultados estadísticos solicitados, correspondientes a las


distintas variables cuantitativas del fichero y las gráficas de dos de ellas.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 3

Estadísticos

Hemoglobina
Tiempo de Hemoglobina Hemoglobina a los dos Ferritina Ferritina Ferritina a los
Supervivencia inicial al mes meses inicial al mes dos meses
N Válidos 100 100 100 100 100 100 100
Perdidos 0 0 0 0 0 0 0
Media 19,65 12,2410 12,2604 12,2216 569,8200 590,7400 616,4600
Mediana 14,00 12,3000 12,3250 12,2500 639,5000 658,5000 663,0000
Desv. típ. 17,984 1,35297 1,36295 1,34851 234,63711 234,65589 240,46165
Mínimo 0 9,80 9,70 9,65 118,00 130,00 142,00
Máximo 72 14,80 14,80 14,85 880,00 906,00 983,00
Suma 1965 1224,10 1226,04 1222,16 56982,00 59074,00 61646,00
Percentiles 25 5,00 11,2000 11,1625 11,2500 399,0000 402,7500 415,2500
50 14,00 12,3000 12,3250 12,2500 639,5000 658,5000 663,0000
75 29,00 13,3000 13,3875 13,2500 784,0000 804,0000 835,2500

Tabla-33
En tabla-34 se presentan los resultados estadísticos solicitados de nuevo (tablas de
frecuencias) correspondientes a las distintas variables cualitativas del fichero y distintas
posibilidades de representaciones gráficas (gráficos de barras y gráficos de sectores).

sexo

Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos hombre 48 48,0 48,0 48,0
mujer 52 52,0 52,0 100,0
Total 100 100,0 100,0

Clasificación histológica

Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Astrocitoma 51 51,0 51,0 51,0
Glioblastoma 23 23,0 23,0 74,0
Meningioma 26 26,0 26,0 100,0
Total 100 100,0 100,0

Localización

Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Supratentoriales 70 70,0 70,0 70,0
Infratentoriales 30 30,0 30,0 100,0
Total 100 100,0 100,0

Tabla - 34
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 4

Si el objetivo del análisis se centra en realizar una descripción de la muestra estratificada


según una variable cualitativa, recuérdese la posibilidad de segmentar el archivo de acuerdo a
dicho criterio.

Descriptivos.
De forma similar al anterior procedimiento de frecuencias, aunque algo más limitado
pues no cuenta con la posibilidad de generar gráficas, realiza descripciones numéricas de las
variables cuantitativas (media, desviación, varianza, etc.). Los pasos necesarios para ejecutar
este análisis, se muestran en la tabla-36, así como sus opciones en las que se pueden elegir
los distintos estadísticos que se desea incluir en la tabla de resultados como podemos observar
en la tabla-37. Como podemos observar no nos permite como en la opción “Frecuencias”,
obtener cuartiles ni percentiles, que en algún momento puede resultar de interés.

Tabla – 36

Estadísticos descriptivos

N Mínimo Máximo Media Desv. típ.


Hemoglobina inicial 100 9,80 14,80 12,2410 1,35297
N válido (según lista) 100

Tabla – 37
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 5

Explorar.

Aunque la presentación de este procedimiento se ha dejado para el final, su lugar


debería ser preponderante sobre los anteriores. A excepción de las tablas de frecuencias, que
sólo es posible obtenerlas a través del análisis de frecuencias, mediante “Explorar”, se puede
obtener el resto de resultados antes expuestos. Además de esta particularidad, este
procedimiento permite estratificar los resultados sin necesidad de segmentar el archivo de
datos. Si decidimos utilizar esta opción de estratificar podemos decidir también la forma en
que deseamos agrupar los resultados, sea por estratos o sea por variables dentro de los estratos
tal y como podemos observar en Tabla-38. Dentro del procedimiento Explorar se puede
solicitar, tabla-39, el cálculo de distintos estadísticos y la generación de distintas gráficas, en
esta ventana se pueden solicitar pruebas de normalidad que presentaremos y comentaremos en
el apartado “Normalidad de los datos”

Tabla- 38
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 6

Descriptivos

sexo Estadístico Error típ.


Hemoglobina inicial hombre Media 12,5646 ,18200
Intervalo de confianza Límite inferior 12,1984
para la media al 95% Límite superior
12,9307

Media recortada al 5% 12,5782


Mediana 12,5500
Varianza 1,590
Desv. típ. 1,26095
Mínimo 10,10
Máximo 14,80
Rango 4,70
Amplitud intercuartil 1,78
Asimetría -,132 ,343
Curtosis -,670 ,674
mujer Media 11,9423 ,19108
Intervalo de confianza Límite inferior 11,5587
para la media al 95% Límite superior
12,3259

Media recortada al 5% 11,9167


Mediana 11,8000
Varianza 1,899
Desv. típ. 1,37789
Mínimo 9,80
Máximo 14,50
Rango 4,70
Amplitud intercuartil 2,43
Asimetría ,269 ,330
Curtosis -1,033 ,650

Tabla-39

Realización de Gráficos.
Además de las gráficas producidas por los anteriores subprogramas descriptivos, SPSS
cuenta con un menú dedicado expresamente a la producción de resultados gráficos. Sirvan
estas notas como una breve exposición de las características generales en el manejo de los
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 7

gráficos. Una exposición más detallada de los mismos, requeriría una extensión que
sobrepasaría los objetivos de este documento.

El procedimiento estándar de generación de gráficos se inicia con la elección, desde el


menú principal, del tipo de gráfico deseado. Tras esta elección el programa solicita mayor
información acerca de las características del gráfico. Esto generalmente se realiza a través de
un cuadro de dialogo específico, así en el caso relativo a un gráfico de barras (tabla-41), se
puede elegir entre las opciones de generar un gráfico de barras simple o un gráfico que
represente dos variables simultáneamente, bien sea agrupándolas o apilándolas. Igualmente se
puede elegir entre representar, con la altura de las barras, la frecuencia de cada una de las
categorías de las variables representadas (resúmenes por grupos de casos) o alguna otra
función que resuma una o más variables, como por ejemplo la media. Siempre seleccionando
aquella que se ajuste mejor a nuestros objetivos y al tipo o tipos de variables.

Continuando con las generalidades de los procedimientos gráficos decir que, una vez
decidida la gráfica a realizar, se debe concretar en la definición de la misma. Para un gráfico
de barras, el cuadro de diálogo correspondiente solicitará información acerca de las variables
a representar así como otros tipos de información acerca de dicho gráfico. (tabla -40)

Tabla – 40
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 8

Una vez confirmada la definición del gráfico mediante el correspondiente botón de


“aceptar”, en el visor de resultados aparece el gráfico creado. Seleccionándolo con el ratón y
pulsando dos veces sobre el mismo se podrá desdoblar el editor de gráficos. Tabla-41

Mediante este editor se pueden modificar todas las propiedades del gráfico. Reseñar que
el gráfico está compuesto de distintos “objetos” (las barras, los ejes, la leyenda, el título, las
marcas de los ejes, etc.). Cada uno de estos objetos puede ser seleccionado se abrirá una
ventana donde se pueden modificar las propiedades del objeto seleccionado

.
Tabla – 41

Por último, destacar la posibilidad de guardar una plantilla con todas las modificaciones
realizadas para, posteriormente, poder aplicar dicha plantilla a un nuevo gráfico del mismo
tipo.Tras finalizar con la edición del gráfico, cerrando el editor gráfico se actualiza el
resultado en el visor de resultados.

Normalidad de los datos.


Antes de realizar cualquier análisis estadístico se deben tener presentes las condiciones
de aplicación del mismo. En casi todos los análisis estadísticos, la asunción de “normalidad”
es un común denominador. Esta circunstancia la podemos determinar bien por la opción que
conocemos de “explorar” en gráficos con pruebas de normalidad que incluye prueba
Prueba de Kolmogorov – Smirnov con corrección de Lilliefors y de Shapiro-wilkl (tabla-42) o
también “Prueba de Kolmogorov – Smirnov”, sin corrección, que se halla en el menú
“Analizar”, dentro de la opción de “Pruebas no paramétricas” y finalmente bajo el nombre
abreviado de “K-S de una muestra...” . (tabla-43)
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 9

Es importante notar que a veces las asunciones se refieren a la Normalidad de las


poblaciones que se comparan, por lo que esta prueba de K-S debe repetirse para cada una de
las muestras a comparar.

Tabla – 42

Tabla – 43

De nuevo, la segmentación del archivo de datos de acuerdo a la variable que define los
grupos a comparar es una herramienta de gran utilidad, pues así, nos haría el análisis para
subgrupos que quisiéramos comparar.

Los resultados para la variable hemoglobina son los que podemos observar
respectivamente en las tablas 44 y 45, también las gráficas solicitadas de la opción gráficos
con pruebas de normalidad de “explorar” (tabla-46).

Dado que desconocemos los parámetros poblacionales tomaremos la prueba de


normalidad de Kolmogorov-Smirnov con la corrección de Lilliefors y dado y que p = 0,20
superior al nivel de significación establecido (= 0,05) en cada sexo, no rechazamos la
hipótesis nula de normalidad, por lo que podemos asumir normalidad de la variable
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 10

hemoglobina en hombres y en mujeres. Dicho valor p (grado de significación) corresponde a


lo que en la tabla se indica como “Sig.”.

En adelante haremos constante referencia en todos los test a este término p (grado de
significación) y si no se indica lo contrario se comparará con el nivel de de significación =
0,05. Si el valor de Sig. que se obtiene es .000, “p” se debería expresar como p<0,0001
Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
sexo Estadístico gl Sig. Estadístico gl Sig.
Hemoglobina inicial hombre ,073 48 ,200* ,975 48 ,379
mujer ,107 52 ,200* ,948 52 ,024
*. Este es un límite inferior de la significación verdadera.
a. Corrección de la significación de Lilliefors

Tabla – 44

Prueba de Kolmogorov-Smirnov para una muestra

Hemoglobina
sexo inicial
hombre N 48
Parámetros normales a,b Media 12,5646
Desviación típica
1,26095

Diferencias más Absoluta ,073


extremas Positiva ,061
Negativa -,073
Z de Kolmogorov-Smirnov ,503
Sig. asintót. (bilateral) ,962
mujer N 52
Parámetros normales a,b Media 11,9423
Desviación típica
1,37789

Diferencias más Absoluta ,107


extremas Positiva ,107
Negativa -,066
Z de Kolmogorov-Smirnov ,769
Sig. asintót. (bilateral) ,595
a. La distribución de contraste es la Normal.
b. Se han calculado a partir de los datos.

Tabla – 45

Tabla – 46
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 11

Análisis Comparativo.
Comparación de Medias
Dentro del menú “Analizar”, la opción “Comparar medias” permite realizar
comparaciones de medias en distintas situaciones, de una muestra con una poblacional, de dos
muestras independientes, de dos muestras relacionadas y el anova de un factor o lo que es lo
mismo comparar varias muestras.

Además de las anteriores pruebas estadísticas, dentro de este menú se permite realizar
una descripción de la muestra mediante la obtención de una tabla con distintos estadísticos
muestrales, si no lo hemos hecho anteriormente con la descriptiva. Esta descripción se realiza
mediante la primera de las opciones denominada “medias” (tabla - 47).

Tabla – 47

Tabla – 48
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 12

Tabla – 49

Las tablas de medias y otros estadísticos se pueden estratificar de acuerdo a una o


varias variables categóricas. Esta estratificación se realiza de acuerdo a la definición de
distintas capas (tabla-48). Es decir, si se introducen dos capas, por ejemplo sexo y
localización, dentro de cada uno de los sexos, los estadísticos solicitados (media y desviación
típica) aparecerán desglosados para ambos sexos y dentro de cada uno por localización
supratentorial o infratentorial (tabla-49).

Prueba t de Student de una muestra


Para contrastar si la media de una población difiere significativamente de un valor dado,
el contraste indicado es “la Prueba T para una muestra”. En el cuadro de diálogo (tabla –50)
correspondiente se debe introducir la variable a analizar y el valor de la media con el que se
quiere comparar, que en este caso es 13.

Los resultados del ejemplo de la hemoglobina, los podemos observar en la Tabla-51. En


base a que se considere en la población general una media de 13 gr/dl, observamos que hay
diferencias significativas de la media muestral con la poblacional (p<0,0001).

Tabla – 50
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 13

Prueba para una muestra

Valor de prueba = 13
95% Intervalo de
confianza para la
Diferencia diferencia
t gl Sig. (bilateral) de medias Inferior Superior
Hemoglobina inicial -5,610 99 ,000 -,75900 -1,0275 -,4905

Tabla – 51

Prueba t de Student para muestras independientes


Esta opción debe utilizarse cuando la comparación se realice entre las medias de dos
poblaciones independientes (los individuos de una de las poblaciones son distintos a los
individuos de la otra) como por ejemplo en el caso de la comparación de las poblaciones de
hombres y mujeres.

La matriz de datos debe estar configurada como es habitual, es decir, existe una columna
para los datos de la variable de interés y una segunda columna con los códigos que definen las
poblaciones objeto de comparación.

Para el análisis, en el cuadro de diálogo correspondiente debemos configurar el campo


relativo a la “variable de agrupación” (tabla-52) y posteriormente se deben definir los grupos
a comparar mediante el botón “definir”. Esta operación sustituirá los signos de interrogación
que aparecen en la casilla de la variable de agrupación por los códigos de los grupos
comparados (tabla-53)

Los resultados de las órdenes dadas en las ventanas de la tabla-52 y 53, en la que
queremos comparar la Hemoglobina entre sexos, los podemos observar en la tabla-54, ya que
previamente hemos comprobado que siguen distribución normal (tabla-44). En dicha tabla-54,
en un principio vemos la igualdad de varianzas con la prueba de Levene como no es
significativo p= 0,303 consideramos iguales las varianzas. Tomando la línea superior tal y
como observar en la tabla–54 (dado que se han asumido varianzas iguales), vemos es
significativo para una p = 0,021, si hemos tomado = 0,05. Se rechaza la hipótesis nula de
igualdad de medias, lo que nos indica que los niveles medios de hemoglobina inicial en los
hombres son significativamente distintos al de las mujeres.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 14

Tabla – 52

Tabla – 53

Prueba de muestras independientes

Prueba de Levene
para la igualdad de
varianzas Prueba T para la igualdad de medias
95% Intervalo de
confianza para la
Diferencia Error típ. de diferencia
F Sig. t gl Sig. (bilateral) de medias la diferencia Inferior Superior
Hemoglobina inicial Se han asumido
1,071 ,303 2,350 98 ,021 ,62228 ,26483 ,09673 1,14782
varianzas iguales
No se han asumido
2,358 97,994 ,020 ,62228 ,26389 ,09860 1,14595
varianzas iguales

Tabla – 54

Prueba t de Student para muestras relacionadas


Existe una segunda alternativa para contrastar dos medias. Ésta se refiere al supuesto
caso en el que las dos poblaciones no sean independientes, es decir, el caso en el que se trate
de poblaciones relacionadas. Esta situación se encuentra, por ejemplo, en los “diseños
apareados”, diseños en los que los mismos individuos son observados antes y después de una
determinada intervención o en los diseños en los que las muestras son emparejadas de acuerdo
a una serie de variables para controlar su efecto (como por ejemplo en los diseños de casos y
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 15

controles, el análisis de una variable antes o después, etc). Para la realización de este análisis,
las dos muestras deben estar en dos variables distintas de la matriz de datos y debe formarse
la pareja de muestras antes de poder ser añadida la comparación a la lista de variables
relacionadas del cuadro diálogo.

Así en un ejemplo con datos de este tipo sería el que podemos ver en la tabla – 55, en el
que las dos muestras están en dos variables distintas de la matriz de datos, hemoglobina en
diferentes momentos. El procedimiento a seguir sería con el cuadro de diálogo de la Tabla –
56, realizar los pares de datos que deseemos, que únicamente lo vamos a realizar con la
hemoglobina en dos instantes, para ver el procedimiento y que posteriormente en la tabla –
57, podremos observar los resultados del mismo.

Tabla – 55

Tabla – 56

En la tabla- 57, podemos ver que se ha comprobado normalidad, tal y como podemos
observar en el primer resultado, seguidamente lo obtenido en la prueba t, un cuadro con las
características de cada uno de los grupos de sus respectiva variable, el coeficiente de
correlación y en el ultima tabla la comparación entre los momentos analizados, hay
diferencias significativas p= 0,028.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 16

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Hemoglobina inicial ,067 100 ,200* ,967 100 ,013
Hemoglobina al mes ,075 100 ,179 ,969 100 ,019
*. Este es un límite inferior de la significación verdadera.
a. Corrección de la significación de Lilliefors

Prueba T
Estadísticos de muestras relacionadas

Desviación Error típ. de


Media N típ. la media
Par 1 Hemoglobina inicial 12,2410 100 1,35297 ,13530
Hemoglobina al mes 12,2604 100 1,36295 ,13630

Correlaciones de muestras relacionadas

N Correlación Sig.
Par 1 Hemoglobina inicial y
100 ,998 ,000
Hemoglobina al mes

Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
confianza para la
Desviación Error típ. de diferencia
Media típ. la media Inferior Superior t gl Sig. (bilateral)
Par 1 Hemoglobina inicial -
-,01940 ,08676 ,00868 -,03661 -,00219 -2,236 99 ,028
Hemoglobina al mes

Tabla – 57

Comparaciones múltiples con ANOVA


ANOVA son las siglas de Análisis de la Varianza. Es una prueba estadística
desarrollada para realizar simultáneamente la comparación de las medias de más de dos
poblaciones. A la asunción de “Normalidad” debe añadirse la de la “homogeneidad de las
varianzas”, es decir, “Homocedasticidad” de las poblaciones a comparar. Esta condición
previa de aplicación se verificará estadísticamente mediante una de las “opciones” que se
encuentran dentro de la configuración del ANOVA. La configuración del análisis se realiza en
el cuadro de diálogo correspondiente.

Para la realización de este tipo de prueba estadística, se debe seleccionar del menú
“Analizar”, la opción “Comparación de medias” y dentro de ella el submenú “ANOVA de
un factor” (tabla – 58).
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 17

Tabla – 58
En este cuadro se debe introducir la variable a analizar (variable dependiente) en este
caso hemoglobina inicial, así como la variable que define los grupos a comparar (factor)
clasificación histológica (tabla – 59).

Tabla – 59

La aludida prueba de homogeneidad de varianzas se solicita en las “Opciones” del


análisis (tabla – 60).

Tabla – 60
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 18

Si el ANOVA resultase en el rechazo de la hipótesis nula de igualdad de medias, se debe


proseguir el análisis con la realización de los contrastes a posteriori (Post Hoc...) (Tabla – 61)

Tabla – 61

En las tablas 62, podemos ver los resultados referentes al análisis de la Hemoglobina
con respecto a la clasificación histológica, en primer lugar se han incluido los resultados que
prueban que cumplen la condición de normalidad (Astrocitoma, p=0,20; Glioblastoma,
p=0,20 y Meningioma, p=0,054) y en las siguientes tablas podemos ver el resultado de la
prueba de homogeneidad de varianzas p= 0,436 por tanto no rechazamos la hipótesis nula de
igualdad de varianzas y en la última tabla no rechazamos la hipótesis nula de igualdad de
medias p= 0,786, por tanto no hay diferencias significativas entre las medias de hemoglobina
para cada tipo .
Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Clasificación histológica Estadístico gl Sig. Estadístico gl Sig.
Hemoglobina inicial Astrocitoma ,096 51 ,200* ,966 51 ,149
Glioblastoma ,131 23 ,200* ,936 23 ,147
Meningioma ,169 26 ,054 ,940 26 ,135
*. Este es un límite inferior de la significación verdadera.
a. Corrección de la significación de Lilliefors

Prueba de homogeneidad de varianzas

Hemoglobina inicial
Estadístico
de Levene gl1 gl2 Sig.
,838 2 97 ,436

ANOVA

Hemoglobina inicial
Suma de Media
cuadrados gl cuadrática F Sig.
Inter-grupos ,895 2 ,448 ,241 ,786
Intra-grupos 180,327 97 1,859
Total 181,222 99

Tabla – 62
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 19

Atendiendo a estos resultados, si hubiese salido significativo el ANOVA, tendríamos


que comparar dos a dos las distintas medias, con pruebas cuya premisa es que sean las
varianzas iguales, y dado que los grupos son equilibrados, hemos utilizado Tukey, es uno de
los métodos de mayor aceptación. Evidentemente no se encuentra ninguna diferencia
significativa dos a dos, tabla-63.

Comparaciones múltiples

Variable dependiente: Hemoglobina inicial


HSD de Tukey
Intervalo de confianza al
95%
(I) Clasificación (J) Clasificación Diferencia de Límite
histológica histológica medias (I-J) Error típico Sig. Límite inferior superior
Astrocitoma Glioblastoma -,16624 ,34246 ,878 -,9814 ,6489
Meningioma ,10249 ,32856 ,948 -,6796 ,8845
Glioblastoma Astrocitoma ,16624 ,34246 ,878 -,6489 ,9814
Meningioma ,26873 ,39029 ,771 -,6603 1,1977
Meningioma Astrocitoma -,10249 ,32856 ,948 -,8845 ,6796
Glioblastoma -,26873 ,39029 ,771 -1,1977 ,6603

Tabla – 63

Si las varianzas hubiesen sido distintas, se hubiese aplicado el test de Games-Howell en


el contraste 2 a 2. y para contrastar las medias los test de Welch o de Brown-Forsythe,
disponibles en la ventana de opciones, tabla-60

Anova de medidas repetidas


Esta situación es análoga a la estudiada al comparar dos medias con datos apareados (t
de Student para datos apareados) pero ahora hay más de dos datos apareados o situaciones
experimentales.
Por tanto se puede considerar como una extensión del test de la t de Student para datos
apareados.
Para la realización de este tipo de prueba estadística, se debe seleccionar del menú
“Analizar”, la opción “Modelo lineal general” y dentro de ella el submenú “Medidas
repetidas” (Tabla-64),
El diseño consta una variable dependiente hemoglobina con tres niveles del factor
(inicial, al mes y a los dos meses) al que hemos decidido llamar momentos. Se procede según
Tabla-64.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 20

Tabla – 64

En la tabla-65 presentamos los resultados solicitados, se ha incluido en primer lugar la


información sobre el test de normalidad para cada momento, como ya sabemos debemos de
solicitarlo en la opción explorar.

Los contrastes multivariados ofrecen distintos estadísticos para poner a prueba la


hipótesis del factor tiempo. Puesto que el nivel crítico p=0,028 en cualquiera de ellos es
inferior al nivel de significación 0,05 podemos rechazar la hipótesis nula de igualdad de
medias y concluir que la hemoglobina media no es la misma en los tres momentos.

En los modelos de medidas repetidas es necesario trabajar con el supuesto de que las
varianzas de las diferencias entre cada dos niveles del factor son iguales, asumir esto es
equivalente a afirmar que la matriz de varianzas covarianzas es circular o esférica, para
contrastarlo recurriremos a la prueba de esfericidad de Muchly, Tabla- 66
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 21

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Hemoglobina inicial ,067 100 ,200* ,967 100 ,013
Hemoglobina al mes ,075 100 ,179 ,969 100 ,019
Hemoglobina a los
,074 100 ,197 ,970 100 ,024
dos meses
*. Este es un límite inferior de la significación verdadera.
a. Corrección de la significación de Lilliefors

Factores intra-sujetos

Medida: MEASURE_1
Variable
factor1 dependiente
1 hb1
2 hb2
3 hb3

Contrastes multivariados b

Gl de la
Efecto Valor F hipótesis Gl del error Significación
factor1 Traza de Pillai ,048 5,000a 1,000 99,000 ,028
Lambda de Wilks ,952 5,000a 1,000 99,000 ,028
Traza de Hotelling ,051 5,000a 1,000 99,000 ,028
Raíz mayor de Roy ,051 5,000a 1,000 99,000 ,028
a. Estadístico exacto
b.
Diseño: Intersección
Diseño intra sujetos: factor1

Tabla – 65

Prueba de esfericidad de Mauchlyb

Medida: MEASURE_1

a
Epsilon
Chi-cuadrado Greenhous
Efecto intra-sujetos W de Mauchly aprox. gl Significación e-Geisser Huynh-Feldt Límite-inferior
factor1 ,000 . 2 . ,500 ,500 ,500
Contrasta la hipótesis nula de que la matriz de covarianza error de las variables dependientes transformadas es proporcional a
una matriz identidad.
a. Puede usarse para corregir los grados de libertad en las pruebas de significación promediadas. Las pruebas corregidas
se muestran en la tabla Pruebas de los efectos inter-sujetos.
b.
Diseño: Intersección
Diseño intra sujetos: factor1

Tabla – 66

Como la prueba de esfericidad de Mauchly resulta no significativa, no rechazamos la


hipótesis nula de esfericidad asumida.
En este caso es preferible utilizar la aproximación univariada Tabla-67 (esfericidad
asumida) para contrastar la hipótesis nula, puesto que es más potente que los estadísticos
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 22

multivariados Tabla-65, sobre todo con muestras pequeñas. Por tanto si se incumpliera la
esfericidad recurriríamos a los multivariados.

Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
factor1 Esfericidad asumida ,075 2 ,038 5,000 ,008
Greenhouse-Geisser ,075 1,000 ,075 5,000 ,028
Huynh-Feldt ,075 1,000 ,075 5,000 ,028
Límite-inferior ,075 1,000 ,075 5,000 ,028
Error(factor1) Esfericidad asumida 1,490 198 ,008
Greenhouse-Geisser 1,490 99,000 ,015
Huynh-Feldt 1,490 99,000 ,015
Límite-inferior 1,490 99,000 ,015

Tabla – 67

Rechazaremos también la hipótesis nula, como hay diferencia significativa habrá que
comprobar las comparaciones dos a dos. Para ello en opciones de tabla 64 aparece la siguiente
ventana Tabla-68 se procederá según se indica, es decir, el factor “momentos” lo pasamos al
cuadro de “mostrar las medias para”, al mismo tiempo marcamos “comparar los efectos
principales” y seleccionamos “Bonferroni”.

Tabla – 68

Los resultados se obtienen en la tabla- 69 (p= 0,083) con lo que no se encuentran


diferencias significativas en ninguna de las comparaciones dos a dos.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 23

Estimaciones

Medida: MEASURE_1
Intervalo de confianza al
95%.
Límite
momentos Media Error típ. Límite inferior superior
1 12,241 ,135 11,973 12,509
2 12,260 ,136 11,990 12,531
3 12,222 ,135 11,954 12,489

Comparaciones por pares

Medida: MEASURE_1

Intervalo de confianza al 95
a
Diferencia % para la diferencia
entre Límite
a
(I) momentos (J) momentos medias (I-J) Error típ. Significación Límite inferior superior
1 2 -,019 ,009 ,083 -,041 ,002
3 ,019 ,009 ,083 -,002 ,041
2 1 ,019 ,009 ,083 -,002 ,041
3 ,039 ,017 ,083 -,003 ,081
3 1 -,019 ,009 ,083 -,041 ,002
2 -,039 ,017 ,083 -,081 ,003
Basadas en las medias marginales estimadas.
a. Ajuste para comparaciones múltiples: Bonferroni.

Tabla – 69

Pruebas no paramétricas
Dentro del menú “Analizar”, tenemos las “Pruebas no paramétricas” que engloban
una serie de pruebas estadísticas, más o menos heterogéneas en cuanto a las hipótesis que
contrastan, pero que tienen como denominador común la ausencia de asunciones acerca de la
ley de probabilidad que sigue la población de la que ha sido extraída la muestra. Por esta
razón es común referirse a ellas como pruebas de distribución libre. A continuación vamos a
ver brevemente algunas de las pruebas realizadas con el SPSS como: U de Mann-Whitney, T
de Wilcoxon, Kruskal-Wallis y Friedman.

Prueba U de Mann-Whitney (2 muestras independientes)


La alternativa no paramétrica para el contraste de dos muestras independientes es la
“prueba U de Mann-Whitney”.

Para acceder, desde el menú “Analizar”, se selecciona la opción “Pruebas no


paramétricas” y dentro de éstas la opción “2 muestras independientes” (tabla – 70), para a
continuación abrir las ventanas de diálogo que podemos ver en tablas – 71 y 72.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 24

Tabla – 70

Tabla –71

Tabla – 72

En “Contrastar variables”, se pone la variable numérica que queremos analizar, y en


“Variable agrupación” la variable que especifica los grupos entre los que queremos comparar
la variable a contrastar tabla-71 y se deberá especificar los códigos de grupo tabla -72, El
resultado de esta prueba U de Mann-Whitney se muestra en la tabla – 73.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 25

En la cual se ha incluido la información sobre las pruebas de normalidad, Como vemos


el tiempo de supervivencia en ambos sexos no se distribuyen normalmente, pues la prueba de
Kolmogorov-Smirnov es significativa para hombres (p= 0,001) y mujeres (p=0,008), por lo
que se rechaza la H0 de normalidad.

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
sexo Estadístico gl Sig. Estadístico gl Sig.
Tiempo de Supervivencia hombre ,169 48 ,001 ,886 48 ,000
mujer ,145 52 ,008 ,880 52 ,000
a. Corrección de la significación de Lilliefors

Rangos

Rango Suma de
sexo N promedio rangos
Tiempo de Supervivencia hombre 48 43,38 2082,00
mujer 52 57,08 2968,00
Total 100

Estadísticos de contraste a

Tiempo de
Supervivencia
U de Mann-Whitney 906,000
W de Wilcoxon 2082,000
Z -2,362
Sig. asintót. (bilateral) ,018
a. Variable de agrupación: sexo

Tabla – 73

Seguidamente aparece información sobre los rangos y sobre el estadístico de contraste


que se utiliza para comparar los valores de tiempo de supervivencia entre hombres y mujeres,
es el test no paramétrico para datos independientes, U de Mann-Whitney.

El valor de p =0,018, nos especifica que son diferentes significativamente, es decir, que
los tiempos de supervivencia en las mujeres, es significativamente distinto a la de los
hombres.

Prueba H de Kruskal-Wallis (más 2 muestras independientes)


La alternativa no paramétrica para el contraste de más dos muestras independientes es la
“prueba H de Kruskal-Wallis”.

Para acceder a él, desde el menú “Analizar”, se selecciona la opción “Pruebas no


paramétricas” y dentro de éstas la opción “k muestras independientes” (tabla – 74), para a
continuación abrir las ventanas de diálogo que podemos ver en tabla – 75 y resultados en la
tabla- 76.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 26

En la tabla -76 se ha incluido la información sobre las pruebas de normalidad. Como


vemos los tres tipos histológico se no distribuyen normalmente, pues la prueba de
Kolmogorov-Smirnov, es significativa p<0,0001 en astrocitoma. p = 0,002 en glioblastoma y
p= 0,005 en Meningioma.
Seguidamente aparece información sobre los rangos y sobre el estadístico de contraste
que se utiliza para comparar los valores de Ferritina en los tres grupos, es el test no
paramétrico para datos independientes, prueba de Kruskal-Wallis.

Tabla – 74

Tabla – 75
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 27

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Clasificación histológica Estadístico gl Sig. Estadístico gl Sig.
Ferritina inicial Astrocitoma ,176 51 ,000 ,895 51 ,000
Glioblastoma ,232 23 ,002 ,874 23 ,008
Meningioma ,209 26 ,005 ,834 26 ,001
a. Corrección de la significación de Lilliefors

Prueba de Kruskal-Wallis
Rangos

Rango
Clasificación histológica N promedio
Ferritina inicial Astrocitoma 51 49,19
Glioblastoma 23 49,93
Meningioma 26 53,58
Total 100

Estadísticos de contraste a,b

Ferritina
inicial
Chi-cuadrado ,406
gl 2
Sig. asintót. ,816
a. Prueba de Kruskal-Wallis
b. Variable de agrupación: Clasificación histológica

Tabla – 76

En tabla-76 además aparece, los resultados de la prueba de Kruskal-Wallis para


comparar los valores de Ferritina en los tres grupos, aparece información sobre los rangos y
sobre el estadístico de contraste, en este caso Comprobamos que no hay diferencias
significativas entre los valores de los tres grupos histológicos de tumores. p = 0,816

Si hubiese salido significativo, en las comparaciones dos a dos con la U de Mann-


Whitney, haríamos una corrección semejante a la de Bonferroni, es decir, que si trabajamos
con un nivel de significación de 0,05, como son tres comparaciones dos a dos, el nivel
verdadero para decir si son significativas sería 0,016, que como observamos, hay diferencias
significativas de los momentos entre sí.

Prueba de Wilcoxon (2 muestras relacionadas)


Para el contraste no paramétrico de dos muestras relacionadas se utiliza la “prueba de
Wilcoxon”. Al igual que la anterior prueba U de Mann-Whitney, ésta de Wilcoxon se
presenta como alternativa a la t de Student cuando el supuesto de normalidad no es asumible.
Para acceder a esta prueba, partiendo del menú “Analizar”, se accede a las “Pruebas no
paramétricas” y dentro de éstas la opción “2 muestras relacionadas” (tabla – 77) y el cuadro
de diálogo que podemos ver en la tabla – 78.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 28

Al igual que en el caso del análisis de medias de dos muestras relacionadas, en el


cuadro anterior se deben seleccionar simultáneamente dos variables antes de poder trasladar
la pareja a la lista de pares a contrastar. Una vez realizada la selección adecuada se puede
ejecutar el análisis.
El resultado de esta prueba de Wilcoxon se muestra en la tabla – 79. En la tabla se ha
incluido la información sobre las pruebas de normalidad.

Como vemos ambos momentos de la determinación de ferritina, no se distribuyen


normalmente, pues la prueba de Kolmogorov-Smirnov, es significativa p<0,0001 tanto en la
inicial como al mes.

Por tanto, utilizaremos para comparar ambos grupos la T de Wilcoxon para datos
relacionados.

Tabla – 77

Tabla – 78
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 29

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Ferritina inicial ,189 100 ,000 ,894 100 ,000
Ferritina al mes ,169 100 ,000 ,901 100 ,000
a. Corrección de la significación de Lilliefors

Prueba de los rangos con signo de Wilcoxon


Rangos

Rango Suma de
N promedio rangos
Ferritina al mes Rangos negativos 14a 39,79 557,00
- Ferritina inicial Rangos positivos 86b 52,24 4493,00
Empates 0c
Total 100
a. Ferritina al mes < Ferritina inicial
b. Ferritina al mes > Ferritina inicial
c. Ferritina al mes = Ferritina inicial

Estadísticos de contraste b

Ferritina
al mes -
Ferritina
inicial
Z -6,775a
Sig. asintót. (bilateral) ,000
a. Basado en los rangos negativos.
b. Prueba de los rangos con signo de Wilcoxon

Tabla – 79

En tabla-79 además aparece, los resultados de la prueba de los rangos con signo de
Wilcoxon para comparar los valores de Ferritina en los dos grupos, aparece información sobre
los rangos y sobre el estadístico de contraste, en este caso el valor de p<0,0001, nos especifica
que los niveles de ferritina inicial y al mes son significativamente diferentes.

Prueba de Friedman (más 2 muestras relacionadas)


Para el contraste no paramétrico de dos muestras relacionadas se utiliza la “prueba de
Friedman”. Al igual que prueba H de Kruskal-Wallis es la alternativa al ANOVA para datos
independientes, ésta de Friedman se presenta como alternativa al ANOVA para datos
repetitivos, cuando el supuesto de normalidad no es asumible. Para acceder a esta prueba,
partiendo del menú “Analizar”, se accede a las “Pruebas no paramétricas” y dentro de éstas
la opción “k muestras relacionadas” (tabla – 80) y el cuadro de diálogo que podemos ver en
la tabla – 81.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 30

Se deben seleccionar simultáneamente las K variables y marcar el Test de Friedman.


Una vez realizada la selección adecuada se puede ejecutar el análisis y obtener los resultados
(tabla-82). En la tabla se ha incluido la información sobre las pruebas de normalidad.

Como vemos los tres momentos no se distribuyen normalmente, pues la prueba de


Kolmogorov-Smirnov, es significativa p<0,0001 para los tres momentos de ferritina.
Luego utilizaremos para comparar los valores de Ferritina en los tres momentos el test no
paramétrico para datos repetidos de Friedman.

Tabla – 80

Tabla – 81
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 31

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Ferritina inicial ,189 100 ,000 ,894 100 ,000
Ferritina al mes ,169 100 ,000 ,901 100 ,000
Ferritina a los dos meses ,135 100 ,000 ,922 100 ,000
a. Corrección de la significación de Lilliefors

Prueba de Friedman
Rangos

Rango
promedio
Ferritina inicial 1,28
Ferritina al mes 2,00
Ferritina a los dos meses 2,72

Estadísticos de contraste a

N 100
Chi-cuadrado 103,680
gl 2
Sig. asintót. ,000
a. Prueba de Friedman

Tabla – 82

En tabla-82 además aparece, los resultados de la prueba de Friedman para comparar los
valores de Ferritina en los tres grupos, aparece información sobre los rangos y sobre el
estadístico de contraste, en este caso el valor de p<0,0001, nos especifica que hay diferencias
entre los valores de la ferritina en los tres momentos.
Ahora habría que hacer la T de Wilcoxon, dos a dos para ver entre cuales hay
diferencias:

Ferritina al mes - Ferritina a los dos meses - Ferritina a los dos meses -
Ferritina inicial Ferritina inicial Ferritina al mes
Z -6,775(a) -6,733(a) -6,695(a)
Sig. asintót.
,000 ,000 ,000
(bilateral)
a Basado en los rangos negativos.
b Prueba de los rangos con signo de Wilcoxon
Tabla – 83

Para ver la significación, haríamos como una corrección semejante a la de Bonferroni,


es decir, que si trabajamos con un nivel de significación de 0,05, como son tres
comparaciones dos a dos, el nivel verdadero para decir si son significativas sería 0,016, que
como observamos, hay diferencias significativas de los momentos entre sí.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 32

Análisis con Tablas de Contingencia


Por “Tablas de contingencia” se entiende aquellas tablas de doble entrada donde se
realiza una clasificación de la muestra de acuerdo a un doble criterio de clasificación.

Por ejemplo, la clasificación de unos individuos de acuerdo a su sexo y localización,


crearía una tabla donde cada celda de la tabla representaría la “frecuencia bivariante” de las
características correspondientes a su fila y columna (p. ej. mujeres con localización
infratentorial).

Con estas tablas se puede obtener una descripción cuantitativa de las distintas cualidades
bivariantes de la muestra, en forma de frecuencias y porcentajes. Estos últimos pueden ser
relativos al total de la muestra, al total de una fila o al total de una columna. Además de lo
anterior, el SPSS realiza diversos contrastes acerca de la distribución de las frecuencias
observadas en dicha tabla, de acuerdo a distintas hipótesis. El más clásico de estos contrastes
es el “contraste de independencia” que propone, como hipótesis nula, que ambos criterios de
clasificación o ambas variables son independientes. Es decir, la pertenencia de un individuo a
una clase de una de las variables de clasificación no afecta a la probabilidad de pertenencia a
las distintas clases del otro criterio.

Para la realización de este tipo de prueba estadística, se debe seleccionar del menú
“Analizar”, la opción “Estadísticos Descriptivos” y dentro de ella el submenú “Tablas de
contingencia” (Tabla – 84).

Tabla - 84

En el cuadro de diálogo correspondiente tabla 85, debemos definir qué variables


categóricas definirán las filas y columnas de la tabla. Obsérvese que en el mismo cuadro se
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 33

pueden definir, mediante otras variables cualitativas, nuevas dimensiones a esta tabla, es
decir, estratificar la muestra de acuerdo a criterios adicionales.

Tabla - 85

En la ventana anterior, podemos seleccionar los “estadísticos” (Tabla- 86) que


deseamos obtener, así como la información que deseamos incluir en cada una de las celdas de
dicha tabla “Casillas” (tabla - 87).

Entre los estadísticos tabla-86, además del “Chi-cuadrado” para el contraste de


independencia, se encuentra la opción de calcular entre otras medidas de grado asociación Phi
Y V de Cramer y medidas de riesgo entre las más frecuentemente conocidas esta la “Odds
Ratio (OR)” que aparece en los resultados bajo la denominación de razón de ventajas. Estas
medidas de riesgo sólo se calcularán en el caso particular de tablas 2x2.

Tabla – 86
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 34

Tabla – 87

Podemos ver en la tabla–87, que se pueden solicitar porcentajes atendiendo a filas,


columnas y totales así como los residuos, particularmente interesantes por la información que
aporten lo tipificados corregidos. Los resultados solicitados en las Tablas de la 88 a la 91.

Hay asociación entre sexo y localización Chi-cuadrado de Pearson 20,635 p< 0,0001
tabla-89. Si no se cumplieran las condiciones de aplicación del test de chi-cuadrado (en este
ejemplo si se cumplen tal y como nos informa al pie de tabla), se debería utilizar el estadístico
exacto de Fisher, p< 0,0001.

Los residuos corregidos nos informan, que están relacionados los hombres con la
localización Supratentorial y las mujeres con el infratentorial, tabla-88. En la tabla-90 Phi =
0,454, nos indica un grado de asociación medio y en la tabla-81, OR =11, RR=1,83
Tabla de contingencia sexo * Localización

Localización
Supratent Infratentor
oriales iales Total
sexo hombre Recuento 44 4 48
% de sexo 91,7% 8,3% 100,0%
Residuos corregidos 4,5 -4,5
mujer Recuento 26 26 52
% de sexo 50,0% 50,0% 100,0%
Residuos corregidos -4,5 4,5
Total Recuento 70 30 100
% de sexo 70,0% 30,0% 100,0%

Tabla -88
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 35

Pruebas de chi-cuadrado

Sig. asintótica Sig. exacta Sig. exacta


Valor gl (bilateral) (bilateral) (unilateral)
Chi-cuadrado de Pearson 20,635b 1 ,000
Corrección por
a 18,698 1 ,000
continuidad
Razón de verosimilitudes 22,549 1 ,000
Estadístico exacto de
,000 ,000
Fisher
Asociación lineal por
20,429 1 ,000
lineal
N de casos válidos 100
a. Calculado sólo para una tabla de 2x2.
b. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada
es 14,40.

Tabla -89

Medidas simétricas

Sig.
Valor aproximada
Nominal por Phi ,454 ,000
nominal V de Cramer ,454 ,000
N de casos válidos 100
a. Asumiendo la hipótesis alternativa.
b. Empleando el error típico asintótico basado en la hipótesis
nula.

Tabla –90

Estimación de riesgo

Intervalo de confianza
al 95%
Valor Inferior Superior
Razón de las
ventajas para sexo 11,000 3,452 35,052
(hombre / mujer)
Para la cohorte
Localización = 1,833 1,379 2,438
Supratentoriales
Para la cohorte
Localización = ,167 ,063 ,443
Infratentoriales
N de casos válidos 100

Tabla – 91

Análisis Predictivo y relacional.


Procedimiento Regresión.
Mediante las técnicas de regresión se pretende modelizar la relación existente entre una
“variable dependiente” y una o varias “variables independientes”. En el caso de la
“regresión lineal simple”, el modelo generado asume la existencia de una relación lineal
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 36

entre una variable dependiente y una única variable independiente. Éste será el caso que nos
ocupe en este documento.

Bajo la opción de “Regresión” del menú “Analizar” se engloban todas las técnicas de
modelización de entre las cuales seleccionaremos la opción Lineal (tabla – 92). Esta opción
agrupa tanto a la regresión Simple como a la Múltiple sólo diferenciándose ambas por el
número de variables independientes que se introduzcan en el cuadro de diálogo (tabla – 93).

Tabla – 92

Tabla – 93

Una vez seleccionadas la variable dependiente y la independiente, podemos definir un


filtrado de los casos. Esto provocaría que el análisis se realizara sobre aquel grupo con
determinados valores para una de las variables de la matriz (variable de selección).
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 37

Igualmente podemos decidir si deseamos que en los gráficos aparezca una identificación de
los puntos. Ésta se realizará de acuerdo a la variable introducida como etiquetas de casos.

En la tabla-94 resultante con estos coeficientes y con el resultado del contraste de la


hipótesis de que estos coeficientes son cero.

La ecuación de la recta según los resultados de los coeficientes  de la tabla-94 es:

Hemoglobina a los dos meses = 0,995 hemoglobina inicial + 0,046

Variables introducidas/eliminadasb

Variables Variables
Modelo introducidas eliminadas Método
1 Hemoglobina . Introducir
a inicial
a. Todas las variables solicitadas introducidas
b. Variable dependiente: Hemoglobina a los dos meses

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,998a ,996 ,996 ,08690
a. Variables predictoras: (Constante), Hemoglobina inicial

ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 179,288 1 179,288 23744,280 ,000a
Residual ,740 98 ,008
Total 180,028 99
a. Variables predictoras: (Constante), Hemoglobina inicial
b. Variable dependiente: Hemoglobina a los dos meses

Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) ,046 ,079 ,580 ,563
Hemoglobina inicial ,995 ,006 ,998 154,092 ,000
a. Variable dependiente: Hemoglobina a los dos meses

Tabla – 94

Para la aplicación de este análisis se debe asumir la “linealidad”, “homocedasticidad” y


“normalidad de los residuos”. Éstos se calculan como la diferencia, para cada valor de la
variable independiente, entre el valor de la variable dependiente y el valor predicho por el
modelo lineal.
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 38

La linealidad la valoraremos al realizar el diagrama de dispersión en la ventana de


gráficos y la homocedasticidad y normalidad también se valorará gráficamente mediante las
“opciones gráficas” de regresión lineal, tabla 95.

Tabla – 95

Tabla – 96
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 39

Asumimos la normalidad de los residuos si se aproximan a la diagonal del gráfico


como vemos en la Tabla 96

Tabla – 97
Asumimos la homocedasticidad de los residuos si se están distribuidos por todo el
gráfico como vemos en la tabla – 97.
También podemos solicitar realizar el “diagrama de dispersión” en el menú gráficos.

Para la realización de este tipo de prueba estadística, se debe seleccionar del menú
“Gráficos, la opción “Cuadro de diálogos antiguos” y dentro de ella el submenú
“Dispersión/puntos” (tabla – 98).

Solicitando el gráfico necesario según se indica en las distintas subventanas


ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 40

Tabla-98
Se obtendrá el diagrama de dispersión

Tabla-99

Procedimiento Correlación
Aunque al pedir la recta de regresión, el paquete calcula el coeficiente de correlación de
Pearson, se ha comprobado en el apartado anterior que se cumple las condiciones para su
cálculo, pues es una medida que sigue una distribución normal.

Hemos de tener en cuenta que solo nos proporciona su valor, sin tener en cuenta el
signo. Para conocer el signo de este coeficiente, deberemos fijarnos en la pendiente de la nube
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 41

de puntos (si es positiva el signo será positivo y si es negativa, el signo será negativo) o bien
pedir el cálculo del mismo en correlación de la ventana analizar.

Para la realización de este tipo de prueba estadística, se debe seleccionar del menú
“Analizar”, la opción “correlaciones” y dentro de ella el submenú “Bivariadas” (tabla– 100).

Tabla – 100

Correlaciones

Hemoglobina
Hemoglobina a los dos
inicial meses
Hemoglobina inicial Correlación de Pearson 1 ,998**
Sig. (bilateral) ,000
N 100 100
Hemoglobina a los Correlación de Pearson ,998** 1
dos meses Sig. (bilateral) ,000
N 100 100
**. La correlación es significativa al nivel 0,01 (bilateral).

Tabla – 101
En este caso el signo sí es positivo,
ANALISIS ESTADISTICO PROGRAMA S.P.S.S. 42

R de Spearman
Es una medida de correlación no paramétrica
Primero verificamos si son normales las distribuciones de la ferritina inicial y a los dos
meses.

Como vemos ambos momentos de la determinación de ferritina, no se distribuyen


normalmente, pues la prueba de Kolmogorov-Smirnov, es significativa p < 0’0001 tanto en la
inicial como a los dos meses.

Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Ferritina inicial ,189 100 ,000 ,894 100 ,000
Ferritina a los dos meses ,135 100 ,000 ,922 100 ,000
a. Corrección de la significación de Lilliefors

Tabla – 102

Podemos calcular, el coeficiente de correlación rho de Sperman, solicitándolo según


tabla-100, no así la recta al no ser normales sus distribuciones.
Correlaciones

Ferritina Ferritina a los


inicial dos meses
Rho de Spearman Ferritina inicial Coeficiente de
1,000 ,951**
correlación
Sig. (bilateral) . ,000
N 100 100
Ferritina a los dos meses Coeficiente de
,951** 1,000
correlación
Sig. (bilateral) ,000 .
N 100 100
**. La correlación es significativa al nivel 0,01 (bilateral).

Tabla – 103

You might also like