Professional Documents
Culture Documents
FIGURA 1.1
¿Qué hace? Apela al estudio de muestras, que son subconjuntos de la población original, con
menos elementos, pero que intentan representarla del modo más fiel posible. En algún sentido
puede decirse que una muestra seleccionada honestamente es un “modelo reducido a escala” de
la población. Por supuesto, al tomar la muestra siempre se producen errores y se pierden detalles,
pero es mucho más lo que se gana respecto a la información que ella puede proporcionar.
Existen numerosas técnicas para seleccionar muestras. Este paso es de importancia vital en un
estudio estadístico, porque las conclusiones que se obtienen dependen muy esencialmente de la/s
muestra/s analizada/s. Las técnicas que proporcionan las mejores muestras son las aleatorias, en
las que cualquier integrante de la población tiene la misma probabilidad de ser elegido.
La cantidad de elementos que integran la muestra (el tamaño de la muestra) depende de múltiples
factores, como el dinero y el tiempo disponibles para el estudio, la importancia del tema analizado,
la confiabilidad que se espera de los resultados, las características propias del fenómeno
analizado, etcétera.
Elaboración de un modelo
Se establece un modelo teórico de comportamiento de la variable de estudio. En ocasiones no es
posible diseñar el modelo hasta realizar un estudio previo.
Extracción de la muestra
Se usa alguna técnica de muestreo o un diseño experimental para obtener información de una
pequeña parte de la población.
Contraste de hipótesis
Los contrastes de hipótesis son técnicas que permiten simplificar el modelo matemático bajo
análisis. Frecuentemente el contraste de hipótesis recurre al uso de estadísticos muéstrales.
Conclusiones
Se critica el modelo y se hace un balance. Las conclusiones obtenidas en este punto pueden servir
para tomar decisiones o hacer predicciones.
El estudio puede comenzar de nuevo a partir de este momento, en un proceso cíclico que permite
conocer cada vez mejor la población y características de estudio.
FIGURA 1.2
3.- En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor
aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra.
6.- En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para
estimar un parámetro desconocido de la población.
2.1.2 ESTIMACIÓN
La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos
que se usan en función de las características y propósitos del estudio:
Estimación puntual:
Método de los momentos
Método de la máxima verosimilitud
Método de los mínimos cuadrados
Estimación por intervalos
Estimación bayesiana
Características de la estimación.
2. El sujeto que debe hacer la valoración tiene alguna información. Referencia o experiencia sobre
la situación que debe enjuiciar.
5. El valor asignado no tiene que ser exacto pero si adecuado para tomar decisiones.
Causas de la estimación.
En una primera tipificación se pueden distinguir cuatro posibles causas, que obligan a estimar.
Existe gran variedad de situaciones en las que no es posible conocer los valores exactos de las
cantidades que en ellas intervienen, por ello, si queremos tratar estas situaciones
cuantitativamente, no queda otra elección que hacerlo mediante estimaciones. Cabe mencionar
que hay tres tipos importantes de causas.
a) Valor desconocido: Esto ocurre en situaciones en que pretendemos predecir razonablemente el
futuro y en aquellas otras en las que hacemos suposiciones acerca del pasado.
b) Valores variables: Son situaciones en las que una cantidad puede cambiar su valor con cierta
frecuencia a consecuencia de diversas causas.
Hay situaciones en las que conocemos el valor exacto pero debido al sistema numérico, y a su
empleo en la medida, este resulta insuficiente para tratar de forma exacta determinados valores.
En estos casos nos vemos obligados a estimar.
a) Dominio limitado: Un valor puede tener sentido expresado solo como número natural y, por ello,
hay que ajustar los resultados obtenidos.
c) Cálculo con estimaciones: No solo hacemos cálculos con aproximaciones cuando uno de los
operandos es un irracional. En ocasiones los números con los que calculamos son estimaciones
hechas con anterioridad.
d) Márgenes de seguridad: La idea de que cometemos un error cuando operamos con números
aproximados, se emplea de un modo más general y sistemático en situaciones prácticas de la vida
real.
* Limitaciones Humanas y carencia de medios. Las causas para estimar vistas hasta aquí son
objetivas ya que vienen impuestas desde el exterior y poco podemos hacer para eludirlas. Sin
embargo, en determinadas ocasiones, las estimaciones son producto de las propias limitaciones de
las personas o bien de la carencia de medios en un momento determinado. Causas debidas a
limitaciones Humanas y carencia de medios.
a) Claridad numérica: las limitaciones de las personas son notorias al tratar con números grandes y
también con números decimales pequeños.
b) facilitar el cálculo: en la sociedad actual, los calculo se realizan fundamentalmente por uno de
estos tres medios: mentalmente, con papel y lápiz o mediante calculadora.
* Consistencia de la información:
Por consistencia de la información se entiende la coherencia interna entre los distintos datos que la
componen. Cuando una información aparece periódicamente, se tiende a expresarla siempre con
el mismo orden de unidades.
Utilidad y uso social de la estimación:Las situaciones en las que se emplea la estimación son
tan amplias y variadas como aquellas en las que se emplea el número. La estimación es una
estrategia para trabajar con números en situaciones reales, que nos permite hacer una asignación
rápida de valores numéricos manteniendo al mismo tiempo un cierto control sobre la validez de esa
valoración.
CONCEPTO
Afirmación acerca de los parámetros de la población.
Etapas Básicas en Pruebas de Hipótesis.
Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro
poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así
como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional ().
Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético
sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.
Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor
hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable
cuando la hipótesis es cierta.
Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%,
entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor
hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una
probabilidad de 1.05 o menos.
Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística
muestral (el estimador no segado del parámetro que se prueba) o una versión transformada de esa
estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se
toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se
transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba.
Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado
la hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se
produce a establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de
esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.
Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor
hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la
media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la
media muestral en un valor de z.
Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor
(o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras
decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar
de desempeño o cuál de dos estrategias de mercadotecnia utilizar.
La distribución apropiada de la prueba estadística se divide en dos regiones: una región
de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede
rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.
Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la
distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede
rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de
rechazo.
PASOS DE LA PRUEBA DE HIPÓTESIS
Expresar la hipótesis nula
Expresar la hipótesis alternativa
Especificar el nivel de significancia
Determinar el tamaño de la muestra
Establecer los valores críticos que establecen las regiones de rechazo de las de no
rechazo.
Determinar la prueba estadística.
Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada.
Determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo.
Determinar la decisión estadística.
Expresar la decisión estadística en términos del problema.
CONCEPTOS BÁSICOS PARA EL PROCEDIMIENTO DE PRUEBAS DE HIPÓTESIS.
Hipótesis Estadística:
Al intentar alcanzar una decisión, es útil hacer hipótesis (o conjeturas) sobre la población aplicada.
Tales hipótesis, que pueden ser o no ciertas, se llaman hipótesis estadísticas.
Son, en general, enunciados acerca de las distribuciones de probabilidad de las poblaciones.
FIGURA 1.3
Hipótesis Nula.
En muchos casos formulamos una
hipótesis estadística con el único
propósito de rechazarla o
invalidarla. Así, si queremos
decidir si una moneda está
trucada, formulamos la hipótesis
de que la moneda es buena (o
sea p = 0,5, donde p es la
probabilidad de cara).
Analógicamente, si deseamos
decidir si un procedimiento es
mejor que otro, formulamos la hipótesis de que no hay diferencia entre ellos (o sea. Que cualquier
diferencia observada se debe simplemente a fluctuaciones en el muestreo de la misma población).
Tales hipótesis se suelen llamar hipótesis nula y se denotan por Ho.
Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis
nula.
La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.
Por ejemplo, supongamos que un investigador cree que si un grupo de jóvenes se somete a
un entrenamiento intensivo de natación, éstos serán mejores nadadores que aquellos que no
recibieron entrenamiento. Para demostrar su hipótesis toma al azar una muestra de jóvenes, y
también al azar los distribuye en dos grupos: uno que llamaremos experimental, el cual recibirá
entrenamiento, y otro que no recibirá entrenamiento alguno, al que llamaremos control. La hipótesis
nula señalará que no hay diferencia en el desempeño de la natación entre el grupo de jóvenes que
recibió el entrenamiento y el que no lo recibió.
Una hipótesis nula es importante por varias razones:
Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.
El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los
grupos, si esta diferencia es significativa, y si no se debió al azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es
aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la
causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.
Otro ejemplo:
Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.
Hipótesis Alternativa.
Toda hipótesis que difiere de una dada se llamará una hipótesis alternativa. Por ejemplo: Si una
hipótesis es p = 0,5, hipótesis alternativa podrían ser p = 0,7, p " 0,5 ó p > 0,5.
Una hipótesis alternativa a la hipótesis nula se denotará por H1.
Al responder a un problema, es muy conveniente proponer otras hipótesis en que
aparezcan variables independientes distintas de las primeras que formulamos. Por tanto, para no
perder tiempo en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como
respuesta a un mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su
comprobación.
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando.
En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de
obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable
que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de
problema social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de
qué elementos está compuesto.
Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X poseen,
en alguna medida, las característica Y". Por ejemplo, podemos decir que todas las naciones
poseen algún comercio internacional, y dedicarnos a describir, cuantificando, las relaciones
comerciales entre ellas. También podemos hacer afirmaciones del tipo "X pertenece al tipo Y",
como cuando decimos que una tecnología es capital - intensiva. En estos casos, describimos,
clasificándolo, el objeto de nuestro interés, incluyéndolo en un tipo ideal complejo de orden
superior.
Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde estaremos en
presencia de una relación entre variables.
Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de aceptación del
Ho o de la Ha, puede incurrirse en error:
Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser
aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α
Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando
de hecho es falsa y debía ser rechazada.
En cualquiera de los dos casos se comete un error al tomar una decisión equivocada.
En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las
consecuencias posibles. Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de
forma que minimice los errores de decisión. En la práctica un tipo de error puede tener más
importancia que el otro, y así se tiene a conseguir poner una limitación al error de mayor
importancia. La única forma de reducir ambos tipos de errores es incrementar el tamaño de la
muestra, lo cual puede ser o no ser posible.
La probabilidad de cometer un error de tipo II denotada con la letra griega beta β, depende de la
diferencia entre los valores supuesto y real del parámetro de la población. Como es más fácil
encontrar diferencias grandes, si la diferencia entre la estadística de muestra y el correspondiente
parámetro de población es grande, la probabilidad de cometer un error de tipo II, probablemente
sea pequeña.
El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán apoyado
exclusivamente en el análisis de una parte de ésta. De la probabilidad con la que estemos
dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la muestra requerida. Las
contrastaciones se apoyan en que los datos de partida siguen una distribución normal
Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta, β
disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadísticas. Lo
ideal sería establecer α y β.En la práctica se establece el nivel α y para disminuir el Error β se
incrementa el número de observaciones en la muestra, pues así se acortan los limites de confianza
respecto a la hipótesis planteada. La de las pruebas estadísticas es rechazar la hipótesis
planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o sea, incrementar
lo que se llama poder de la prueba (1- β) La aceptación de la hipótesis planteada debe
interpretarse como que la información aleatoria de la muestra disponible no permite detectar la
falsedad de esta hipótesis.
CALCULO DE VALOR ESTADISTICO DE PRUEBA
Valor determinado a partir de la información muestral, que se utiliza para determinar si se rechaza
la hipótesis nula., existen muchos estadísticos de prueba para nuestro caso utilizaremos los
estadísticos z y t. La elección de uno de estos depende de la cantidad de muestras que se toman,
si las muestras son de la prueba son iguales a 30 o más se utiliza el estadístico z, en caso
contrario se utiliza el estadístico t.
Tipos de prueba
Ejemplo
H0 : µ = 200
H1 : µ ≠ 200
H0 : µ ≥ 200 H0 : µ ≤ 200
En las pruebas de hipótesis para la media (μ), cuando se conoce la desviación estándar (σ)
poblacional, o cuando el valor de la muestra es grande (30 o más), el valor estadístico de prueba
es z y se determina a partir de:
SE establece las condiciones específicas en la que se rechaza la hipótesis nula y las condiciones
en que no se rechaza la hipótesis nula. La región de rechazo define la ubicación de todos los
valores que son tan grandes o tan pequeños, que la probabilidad de que se presenten bajo la
suposición de que la hipótesis nula es verdadera, es muy remota
Distribución muestral del valor estadístico z, con prueba de una cola a la derecha
Valor crítico: Es el punto de división entre la región en la que se rechaza la hipótesis nula y la
región en la que no se rechaza la hipótesis nula.
El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor
numérico. Como tal, tiene sentido calcular su esperanza, su varianza y otras características propias
de las variables aleatorias.
Por supuesto, cualquier función de la muestra, con la definición anterior, podría ser un estimador,
pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto
modo, al parámetro que se desea estimar.
• Una estimación por puntos que proporciona un número que puede utilizarse Como una
aproximación a un parámetro (Como la desviación estándar de la muestra, que estima la
desviación estándar de la población).
Ejemplo:
Una afirmación como la siguiente: “Se estima que la emisión total es de 100 kt y que su coeficiente
de variación es de 5%”, se basa en estimaciones por puntos de la media muestral y la desviación
estándar, mientras que la afirmación de que, por ejemplo, “La emisión total está entre 90 y 110 kt
con una probabilidad del 95%”expresa los resultados de la estimación en términos de un intervalo
de confianza.
DEFINICIÓN DE ESTIMADOR
Definición estadística: Un estimador es una fórmula que indica de qué manera se calcula el valor
estimado de la muestra de un parámetro de una población a partir de los datos de la muestra.
Por ejemplo: los factores de emisión se suelen estimar como las medias muestrales de los
conjuntos de mediciones.
Puede haber más de un estimador para un parámetro de una población, y en general cada
estimador tiene sus propias características de muestreo, entre ellas la coherencia y el
insesgamiento como dos de las más importantes.
Son ejemplos de estimadores por puntos la media aritmética x, que es un estimador comúnmente
utilizado del valor esperado (media), y la varianza de la muestra s2, que se usa habitualmente
como estimador de la varianza.
equivale a
En efecto, si una muestra X=(X1,X2,...,Xn)t procede de una población de media μ, quiere decir que:
E[Xi] = μ para cualquier i=1...n. La media aritmética o media muestral, con lo que, al aplicar las
propiedades de linealidad de la esperanza matemática se tiene que:
2.2.1 EFICIENCIA
Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del
primero es menor que la del segundo. Por ejemplo, si y son ambos estimadores de θ y
2.2.2 CONSISTENCIA
1. cuando
2. cuando
ROBUSTEZ
SUFICIENCIA
Se dice que un estimador es suficiente cuando resume toda la información relevante contenida en
la muestra, de forma que ningún otro estimador pueda proporcionar información adicional sobre el
parámetro desconocido de la población.
Invarianza
Se dice que un estimador es invariante cuando el estimador de la función del parámetro coincide
con la función del estimador del parámetro, . Ejemplo.- Si para estimar la
varianza poblacional utilizamos la varianza muestral, entonces para estimar la desviación típica
poblacional será razonable utilizar la desviación típica muestral.
En estadística, se llama intervalo de confianza a un par de números entre los cuales se estima
que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente,
estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor
desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa
con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error
aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación
mediante tal intervalo.
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo
más amplio tendrá más posibilidades de acierto (mayor nivel de confianza), mientras que para un
intervalo más pequeño, que ofrece una estimación más precisa, aumentan sus posibilidades de
error.
Es el rango de valores entre los cuales se encuentra el parámetro con una determinada
precisión
Un intervalo de confianza del 95% entre “x” y “y” quiere decir que si se repite el
procedimiento de selección de muestra y de medición 100 veces, en 95 oportunidades el
verdadero valor se encontrará entre las cantidades “x” y “
El Intervalo de Confianza
La Teoría Estadística ha desarrollado un postulado probabilístico fundamental en el desarrollo de la
investigación planificada que involucra la responsabilidad del que investiga y la necesidad de quién
creerá en los resultados de la investigación. Este se formaliza como:
Pr {xo −z (s ) ≥μ ≤xo +z (s )} ≤1 −α
En donde:
• El promedio de la población que se quiere estimar se indica como µ ;
• El límite inferior para µ lo establece el promedio de la muestra menos z veces la
desviación estándar;
• El límite superior para µ lo establece el promedio de la muestra más z veces la desviación
estándar.
• La probabilidad que determina a z se conoce como α o nivel de confianza.
Métodos de estimación
Estimación puntual: Utilización de datos de la muestra para calcular un solo número para estimar
el parámetro de interés.
Estimación de intervalo: Ofrece un intervalo de valores razonables dentro del cual se pretende
que esté el parámetro de interés, en este caso la media poblacional, con un cierto grado de
confianza.
La prevalencia y la incidencia acumulada son proporciones, por tanto sus IC se calculan como
tales:
IC = proporción ± p ∗q / n
5 0,01 = 1%
pˆ =
500
Y el intervalo de confianza:
Qué significa? La verdadera prevalencia de diabetes está comprendida entre 0,1% y 0,19%
con un 95% de confianza.
¿Es suficientemente preciso? Habrá que juzgarlo con criterios clínicos
INTERVALOS DE CONFIANZA DE UN PROMEDIO
Donde:
n= tamaño de muestra
S=varianza de la población
Ejemplo: Intervalo de confianza para un promedio
Para una muestra de 81 habitantes de cierta población se obtuvo una estatura media de 167 cm.
Por estudios anteriores se sabe que la desviación típica de la altura de la población es de 8 cm. El
intervalo de confianza para la estatura media de la población al 95% es:
8
IC = 167 ±
81
IC = 167 ± 0.9
Límite inferior: 167 - 0.9 = 166.1
Límite superior: 167 – 0.9 = 167.9
2.6.1 Estimación puntual y por intervalo
Las medias o desviaciones estándar calculadas de una muestra se denominan ESTADÍSTICOS,
podrían ser consideradas como un punto estimado de la media y desviación estándar real de
población o de los parámetros.
¿Qué pasa si no deseamos una estimación puntual como media basada en una muestra, qué otra
cosa podríamos
obtener como margen, algún
tipo de error?
ESTIMADOR PUNTUAL: Utiliza un número único o valor para localizar una estimación del
parámetro.
ESTIMADOR POR INTERVALO DE CONFIANZA: Denota un rango dentro del cual se puede
encontrar el parámetro y el nivel de confianza que el intervalo contiene al parámetro.
LIMITES DE CONFIANZA: Son los límites del intervalo de confianza inferior (LIC) y superior (LSC),
se determinan sumando y restando a la media de la muestra X un cierto número Z (dependiendo