You are on page 1of 23

INTRODUCCIÓN

La inferencia estadística es, realmente, la parte más


interesante y con mayor cantidad de aplicaciones en
problemas concretos. ¿De qué se ocupa? El planteo,
a grandes rasgos, es más o menos el siguiente: el
investigador se encuentra estudiando una gran
población (personas, o tornillos, o palomas, o
automóviles, o lo que sea) y quiere disponer de
algunos valores (promedios, desvíos, tendencias,
forma de la distribución, etcétera) que sean válidos
en forma general, para toda la población en estudio.
Sin embargo, le resulta imposible acceder a toda la
información, medir la variable analizada en todos y
cada uno de los integrantes de la población.

FIGURA 1.1
¿Qué hace? Apela al estudio de muestras, que son subconjuntos de la población original, con
menos elementos, pero que intentan representarla del modo más fiel posible. En algún sentido
puede decirse que una muestra seleccionada honestamente es un “modelo reducido a escala” de
la población. Por supuesto, al tomar la muestra siempre se producen errores y se pierden detalles,
pero es mucho más lo que se gana respecto a la información que ella puede proporcionar.

Existen numerosas técnicas para seleccionar muestras. Este paso es de importancia vital en un
estudio estadístico, porque las conclusiones que se obtienen dependen muy esencialmente de la/s
muestra/s analizada/s. Las técnicas que proporcionan las mejores muestras son las aleatorias, en
las que cualquier integrante de la población tiene la misma probabilidad de ser elegido.

La cantidad de elementos que integran la muestra (el tamaño de la muestra) depende de múltiples
factores, como el dinero y el tiempo disponibles para el estudio, la importancia del tema analizado,
la confiabilidad que se espera de los resultados, las características propias del fenómeno
analizado, etcétera.

A partir de la muestra seleccionada se realizan algunos cálculos y se estima el valor de los


parámetros de la población tales como la media, la varianza, la desviación estándar, o la forma de
la distribución, etcétera. Existen dos formas de estimar parámetros: la estimación puntual y la
estimación por intervalo de confianza. En la primera se busca, con base en los datos muéstrales,
un único valor estimado para el parámetro. Para la segunda, se determina un intervalo dentro del
cual se encuentra el valor del parámetro, con una probabilidad determinada.
2.1 INFERENCIA ESTADISTICA

Planteamiento del problema


Suele iniciarse con una fijación de objetivos o algunas preguntas como ¿cuál será la media de esta
población respecto a tal característica?, ¿se parecen estas dos poblaciones?, ¿hay alguna relación
entre...?

En el planteamiento se definen con precisión la población, la característica a estudiar, las variables,


etcétera.

Elaboración de un modelo
Se establece un modelo teórico de comportamiento de la variable de estudio. En ocasiones no es
posible diseñar el modelo hasta realizar un estudio previo.

Los posibles modelos son distribuciones de probabilidad.

Extracción de la muestra
Se usa alguna técnica de muestreo o un diseño experimental para obtener información de una
pequeña parte de la población.

Tratamiento de los datos


En esta fase se eliminan posibles errores, se depura la muestra, se tabulan los datos y se calculan
los valores que serán necesarios en pasos posteriores, como la media muestral, la varianza
muestral

Los métodos de esta etapa están definidos por la estadística descriptiva.

Estimación de los parámetros


Con determinadas técnicas se realiza una predicción sobre cuáles podrían ser los parámetros de la
población.

Contraste de hipótesis
Los contrastes de hipótesis son técnicas que permiten simplificar el modelo matemático bajo
análisis. Frecuentemente el contraste de hipótesis recurre al uso de estadísticos muéstrales.

Conclusiones
Se critica el modelo y se hace un balance. Las conclusiones obtenidas en este punto pueden servir
para tomar decisiones o hacer predicciones.
El estudio puede comenzar de nuevo a partir de este momento, en un proceso cíclico que permite
conocer cada vez mejor la población y características de estudio.

FIGURA 1.2

2.1.1 CONCEPTOS DE INFERENCIA ESTADÍSTICA


1.- La inferencia estadística o estadística inferencial es una parte de la Estadística que comprende
los métodos y procedimientos para deducir propiedades (hacer inferencias) de una población, a
partir de una pequeña parte de la misma (muestra).

2.- En estadística una muestra estadística es un subconjunto de casos o individuos de


una población estadística.

3.- En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor
aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra.

4.- Población estadística, en estadística, también llamada universo o colectivo, es el conjunto de


elementos de referencia sobre el que se realizan las observaciones.

5.- Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de


hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se
supone cumple una población estadística es compatible con lo observado en una muestra de dicha
población.

6.- En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para
estimar un parámetro desconocido de la población.
2.1.2 ESTIMACIÓN

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos
que se usan en función de las características y propósitos del estudio:

 Estimación puntual:
 Método de los momentos
 Método de la máxima verosimilitud
 Método de los mínimos cuadrados
 Estimación por intervalos
 Estimación bayesiana

Características de la estimación.

1. Consiste en valorar una cantidad o el resultado de una operación.

2. El sujeto que debe hacer la valoración tiene alguna información. Referencia o experiencia sobre
la situación que debe enjuiciar.

3. La valoración se realiza por lo general de forma mental.

4. Se hace con rapidez y empleando números lo más sencillos posibles.

5. El valor asignado no tiene que ser exacto pero si adecuado para tomar decisiones.

6. El valor asignado admite distintas aproximaciones, dependiendo de quién realice la valoración.

Causas de la estimación.

En una primera tipificación se pueden distinguir cuatro posibles causas, que obligan a estimar.

* Imposibilidad de un valor exacto

Existe gran variedad de situaciones en las que no es posible conocer los valores exactos de las
cantidades que en ellas intervienen, por ello, si queremos tratar estas situaciones
cuantitativamente, no queda otra elección que hacerlo mediante estimaciones. Cabe mencionar
que hay tres tipos importantes de causas.
a) Valor desconocido: Esto ocurre en situaciones en que pretendemos predecir razonablemente el
futuro y en aquellas otras en las que hacemos suposiciones acerca del pasado.

b) Valores variables: Son situaciones en las que una cantidad puede cambiar su valor con cierta
frecuencia a consecuencia de diversas causas.

c) Limitación de las medidas: las medidas físicas son todas inexactas.

* Imposibilidad de tratamiento numérico exacto:

Hay situaciones en las que conocemos el valor exacto pero debido al sistema numérico, y a su
empleo en la medida, este resulta insuficiente para tratar de forma exacta determinados valores.
En estos casos nos vemos obligados a estimar.

Tipos de causas que imposibilitan un tratamiento numérico exacto.

a) Dominio limitado: Un valor puede tener sentido expresado solo como número natural y, por ello,
hay que ajustar los resultados obtenidos.

b) Limitaciones del sistema decimal: En el sistema de numeración decimal no se pueden expresar


todos los números con un numero finito de cifras decimales.

c) Cálculo con estimaciones: No solo hacemos cálculos con aproximaciones cuando uno de los
operandos es un irracional. En ocasiones los números con los que calculamos son estimaciones
hechas con anterioridad.

d) Márgenes de seguridad: La idea de que cometemos un error cuando operamos con números
aproximados, se emplea de un modo más general y sistemático en situaciones prácticas de la vida
real.

* Limitaciones Humanas y carencia de medios. Las causas para estimar vistas hasta aquí son
objetivas ya que vienen impuestas desde el exterior y poco podemos hacer para eludirlas. Sin
embargo, en determinadas ocasiones, las estimaciones son producto de las propias limitaciones de
las personas o bien de la carencia de medios en un momento determinado. Causas debidas a
limitaciones Humanas y carencia de medios.
a) Claridad numérica: las limitaciones de las personas son notorias al tratar con números grandes y
también con números decimales pequeños.

b) facilitar el cálculo: en la sociedad actual, los calculo se realizan fundamentalmente por uno de
estos tres medios: mentalmente, con papel y lápiz o mediante calculadora.

* Consistencia de la información:

Por consistencia de la información se entiende la coherencia interna entre los distintos datos que la
componen. Cuando una información aparece periódicamente, se tiende a expresarla siempre con
el mismo orden de unidades.

Utilidad y uso social de la estimación:Las situaciones en las que se emplea la estimación son
tan amplias y variadas como aquellas en las que se emplea el número. La estimación es una
estrategia para trabajar con números en situaciones reales, que nos permite hacer una asignación
rápida de valores numéricos manteniendo al mismo tiempo un cierto control sobre la validez de esa
valoración.

2.1.3 PRUEBA DE HIPÓTESIS

CONCEPTO
Afirmación acerca de los parámetros de la población.
Etapas Básicas en Pruebas de Hipótesis.
Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro
poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así
como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional ().
Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético
sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.
Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor
hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable
cuando la hipótesis es cierta.
Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%,
entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor
hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una
probabilidad de 1.05 o menos.
Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística
muestral (el estimador no segado del parámetro que se prueba) o una versión transformada de esa
estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se
toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se
transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba.
Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado
la hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se
produce a establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de
esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.
Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor
hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la
media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la
media muestral en un valor de z.
Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor
(o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras
decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar
de desempeño o cuál de dos estrategias de mercadotecnia utilizar.
La distribución apropiada de la prueba estadística se divide en dos regiones: una región
de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede
rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.
Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la
distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede
rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de
rechazo.
PASOS DE LA PRUEBA DE HIPÓTESIS
Expresar la hipótesis nula
 Expresar la hipótesis alternativa
 Especificar el nivel de significancia
 Determinar el tamaño de la muestra
 Establecer los valores críticos que establecen las regiones de rechazo de las de no
rechazo.
 Determinar la prueba estadística.
 Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada.
 Determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo.
 Determinar la decisión estadística.
 Expresar la decisión estadística en términos del problema.
CONCEPTOS BÁSICOS PARA EL PROCEDIMIENTO DE PRUEBAS DE HIPÓTESIS.
Hipótesis Estadística:
Al intentar alcanzar una decisión, es útil hacer hipótesis (o conjeturas) sobre la población aplicada.
Tales hipótesis, que pueden ser o no ciertas, se llaman hipótesis estadísticas.
Son, en general, enunciados acerca de las distribuciones de probabilidad de las poblaciones.
FIGURA 1.3
Hipótesis Nula.
En muchos casos formulamos una
hipótesis estadística con el único
propósito de rechazarla o
invalidarla. Así, si queremos
decidir si una moneda está
trucada, formulamos la hipótesis
de que la moneda es buena (o
sea p = 0,5, donde p es la
probabilidad de cara).
Analógicamente, si deseamos
decidir si un procedimiento es
mejor que otro, formulamos la hipótesis de que no hay diferencia entre ellos (o sea. Que cualquier
diferencia observada se debe simplemente a fluctuaciones en el muestreo de la misma población).
Tales hipótesis se suelen llamar hipótesis nula y se denotan por Ho.
Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis
nula.
La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.
Por ejemplo, supongamos que un investigador cree que si un grupo de jóvenes se somete a
un entrenamiento intensivo de natación, éstos serán mejores nadadores que aquellos que no
recibieron entrenamiento. Para demostrar su hipótesis toma al azar una muestra de jóvenes, y
también al azar los distribuye en dos grupos: uno que llamaremos experimental, el cual recibirá
entrenamiento, y otro que no recibirá entrenamiento alguno, al que llamaremos control. La hipótesis
nula señalará que no hay diferencia en el desempeño de la natación entre el grupo de jóvenes que
recibió el entrenamiento y el que no lo recibió.
Una hipótesis nula es importante por varias razones:
Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.
El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los
grupos, si esta diferencia es significativa, y si no se debió al azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es
aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la
causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.
Otro ejemplo:
Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.
Hipótesis Alternativa.
Toda hipótesis que difiere de una dada se llamará una hipótesis alternativa. Por ejemplo: Si una
hipótesis es p = 0,5, hipótesis alternativa podrían ser p = 0,7, p " 0,5 ó p > 0,5.
Una hipótesis alternativa a la hipótesis nula se denotará por H1.
Al responder a un problema, es muy conveniente proponer otras hipótesis en que
aparezcan variables independientes distintas de las primeras que formulamos. Por tanto, para no
perder tiempo en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como
respuesta a un mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su
comprobación.
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando.
En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de
obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable
que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de
problema social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de
qué elementos está compuesto.
Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X poseen,
en alguna medida, las característica Y". Por ejemplo, podemos decir que todas las naciones
poseen algún comercio internacional, y dedicarnos a describir, cuantificando, las relaciones
comerciales entre ellas. También podemos hacer afirmaciones del tipo "X pertenece al tipo Y",
como cuando decimos que una tecnología es capital - intensiva. En estos casos, describimos,
clasificándolo, el objeto de nuestro interés, incluyéndolo en un tipo ideal complejo de orden
superior.
Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde estaremos en
presencia de una relación entre variables.

TIPOS DE ERRORES DE UNA PRUEBA DE HIPOTESIS.

Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de aceptación del
Ho o de la Ha, puede incurrirse en error:

Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser
aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α

Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando
de hecho es falsa y debía ser rechazada.
En cualquiera de los dos casos se comete un error al tomar una decisión equivocada.

En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las
consecuencias posibles. Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de
forma que minimice los errores de decisión. En la práctica un tipo de error puede tener más
importancia que el otro, y así se tiene a conseguir poner una limitación al error de mayor
importancia. La única forma de reducir ambos tipos de errores es incrementar el tamaño de la
muestra, lo cual puede ser o no ser posible.

La probabilidad de cometer un error de tipo II denotada con la letra griega beta β, depende de la
diferencia entre los valores supuesto y real del parámetro de la población. Como es más fácil
encontrar diferencias grandes, si la diferencia entre la estadística de muestra y el correspondiente
parámetro de población es grande, la probabilidad de cometer un error de tipo II, probablemente
sea pequeña.

El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán apoyado
exclusivamente en el análisis de una parte de ésta. De la probabilidad con la que estemos
dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la muestra requerida. Las
contrastaciones se apoyan en que los datos de partida siguen una distribución normal

Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta, β
disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadísticas. Lo
ideal sería establecer α y β.En la práctica se establece el nivel α y para disminuir el Error β se
incrementa el número de observaciones en la muestra, pues así se acortan los limites de confianza
respecto a la hipótesis planteada. La de las pruebas estadísticas es rechazar la hipótesis
planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o sea, incrementar
lo que se llama poder de la prueba (1- β) La aceptación de la hipótesis planteada debe
interpretarse como que la información aleatoria de la muestra disponible no permite detectar la
falsedad de esta hipótesis.
CALCULO DE VALOR ESTADISTICO DE PRUEBA

Valor determinado a partir de la información muestral, que se utiliza para determinar si se rechaza
la hipótesis nula., existen muchos estadísticos de prueba para nuestro caso utilizaremos los
estadísticos z y t. La elección de uno de estos depende de la cantidad de muestras que se toman,
si las muestras son de la prueba son iguales a 30 o más se utiliza el estadístico z, en caso
contrario se utiliza el estadístico t.

Tipos de prueba

a) Prueba bilateral o de dos extremos: la hipótesis planteada se formula con la igualdad

Ejemplo

H0 : µ = 200

H1 : µ ≠ 200

b) Pruebas unilateral o de un extremo: la hipótesis planteada se formula con ≥ o ≤

H0 : µ ≥ 200 H0 : µ ≤ 200

H1 : µ < 200 H1 : µ > 200

En las pruebas de hipótesis para la media (μ), cuando se conoce la desviación estándar (σ)
poblacional, o cuando el valor de la muestra es grande (30 o más), el valor estadístico de prueba
es z y se determina a partir de:

El valor estadístico z, para muestra grande y desviación estándar poblacional desconocida se


determina por la ecuación:
En la prueba para una media poblacional con muestra pequeña y desviación estándar poblacional
desconocida se utiliza el valor estadístico t.

Paso 4: Formular la regla de decisión

SE establece las condiciones específicas en la que se rechaza la hipótesis nula y las condiciones
en que no se rechaza la hipótesis nula. La región de rechazo define la ubicación de todos los
valores que son tan grandes o tan pequeños, que la probabilidad de que se presenten bajo la
suposición de que la hipótesis nula es verdadera, es muy remota

Distribución muestral del valor estadístico z, con prueba de una cola a la derecha

Valor crítico: Es el punto de división entre la región en la que se rechaza la hipótesis nula y la
región en la que no se rechaza la hipótesis nula.

Paso 5: Tomar una decisión.


En este último paso de la prueba de hipótesis, se calcula el estadístico de prueba, se compara con
el valor crítico y se toma la decisión de rechazar o no la hipótesis nula. Tenga presente que en una
prueba de hipótesis solo se puede tomar una de dos decisiones: aceptar o rechazar la hipótesis
nula. Debe subrayarse que siempre existe la posibilidad de rechazar la hipótesis nula cuando no
debería haberse rechazado (error tipo I). También existe la posibilidad de que la hipótesis nula se
acepte cuando debería ha berse rechazado (error de tipo II).
2.1.4 MÉTODO CLÁSICO ESTIMACIÓN PUNTUAL
Esencialmente son tres los parámetros de interés:
- En el caso de que investiguemos una variable cuantitativa:
a) Para la media de la población μ tomaremos como aproximación la media de la muestra. b) Para
la varianza de la población σ2 tomaremos la cuasi-varianza de la muestra.
- Si el estudio se centra en el estudio de un carácter cualitativo el parámetro de interés será la
proporción de elementos de la población que pertenecen a cierta categoría C que lo
aproximaremos con la correspondiente proporción en la muestra.
Si a partir de las observaciones de una muestra se calcula un solo valor como estimación de un
parámetro de la población desconocido, el procedimiento denomina estimación puntual.
Por ejemplo queremos estimar la nota media de los alumnos de bachiller en la asignatura de
matemáticas que notaremos. Sea X la variable aleatoria que indica la nota obtenida por cada
estudiante. Tomamos una muestra de tamaño n y denotamos la nota media de la muestra. Un
estimador puntual T de un parámetro es cualquier estadística que nos permita a partir de los datos
muéstrales obtener valores aproximados del parámetro.
Para indicar que T es un estimador del parámetro escribimos =T.
Con esto queremos decir que empleamos la expresión dada mediante T para obtener valores
próximos al valor del parámetro.
Es muy probable que haya error cuando un parámetro es estimado. Es cierto que si el número de
observaciones al azar se hace suficientemente grande, éstas proporcionarían un valor que casi
sería semejante al parámetro; pero a menudo hay limitaciones de tiempo y de recursos y se tendrá
que trabajar con unas cuantas observaciones. Para poder utilizar la información que se tenga de la
mejor forma posible, se necesita identificar las estadísticas que sean “buenos” estimadores. Hay
cuatro criterios que se suelen aplicar para determinar si una estadística es un buen estimador:
Anegamiento, eficiencia, consistencia y suficiencia.
2.1.5 ESTIMADOR INSESGADO

Un estimador de un parámetro poblacional es una función de los datos muéstrales, también


llamado para realizar estimaciones. estadístico. En pocas palabras, es una fórmula que depende
de los valores obtenidos de una muestra.

El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor
numérico. Como tal, tiene sentido calcular su esperanza, su varianza y otras características propias
de las variables aleatorias.

Por supuesto, cualquier función de la muestra, con la definición anterior, podría ser un estimador,
pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto
modo, al parámetro que se desea estimar.

Con este propósito, se dice que un estimador de un parámetro θ es insesgado si su esperanza es


el propio θ.
DEFINICION DE ESTIMACION
Definición estadística: La estimación es la evaluación del valor de una cantidad o de su
incertidumbre mediante la asignación de valores numéricos de observación en una fórmula de
estimación, o estimador.

Los resultados de una estimación pueden expresarse de la siguiente manera:

• Una estimación por puntos que proporciona un número que puede utilizarse Como una
aproximación a un parámetro (Como la desviación estándar de la muestra, que estima la
desviación estándar de la población).

• Una estimación del intervalo que especifica un nivel de confianza.

Ejemplo:

Una afirmación como la siguiente: “Se estima que la emisión total es de 100 kt y que su coeficiente
de variación es de 5%”, se basa en estimaciones por puntos de la media muestral y la desviación
estándar, mientras que la afirmación de que, por ejemplo, “La emisión total está entre 90 y 110 kt
con una probabilidad del 95%”expresa los resultados de la estimación en términos de un intervalo
de confianza.
DEFINICIÓN DE ESTIMADOR
Definición estadística: Un estimador es una fórmula que indica de qué manera se calcula el valor
estimado de la muestra de un parámetro de una población a partir de los datos de la muestra.
Por ejemplo: los factores de emisión se suelen estimar como las medias muestrales de los
conjuntos de mediciones.
Puede haber más de un estimador para un parámetro de una población, y en general cada
estimador tiene sus propias características de muestreo, entre ellas la coherencia y el
insesgamiento como dos de las más importantes.
Son ejemplos de estimadores por puntos la media aritmética x, que es un estimador comúnmente
utilizado del valor esperado (media), y la varianza de la muestra s2, que se usa habitualmente
como estimador de la varianza.

DEFINICION DE ESTIMADOR INSESGADO

Definición estadística: Un estimador insesgado es un estadístico cuyo valor esperado es igual al


valor del parámetro que se está estimando. Cabe advertir que este término tiene un significado
estadístico específico, y que una estimación de una cantidad calculada a partir de un estimador
insesgado puede carecer de sesgo en el sentido estadístico, pero puede estar sesgado en el
sentido más general de la palabra si la muestra se ha visto afectada por un error sistemático
desconocido. Por lo tanto, en sentido estadístico, un estimador sesgado puede entenderse como
una deficiencia en la evaluación estadística de los datos reunidos, y no en los datos propiamente
dichos o en el método utilizado para medirlos o recopilarlos. Por ejemplo: la media aritmética
(promedio) x es un estimador insesgado del valor esperado (media).
y un valor que debe sumarse y restarse para obtener el límite superior e inferior, por ejemplo:

equivale a

PROPIEDADES DE LOS ESTIMADORES


Sesgo. Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado)
del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea
insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que
se desea estimar. Por ejemplo, si se desea estimar la media de una población, la media aritmética
de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es
igual a la media de la población.

En efecto, si una muestra X=(X1,X2,...,Xn)t procede de una población de media μ, quiere decir que:
E[Xi] = μ para cualquier i=1...n. La media aritmética o media muestral, con lo que, al aplicar las
propiedades de linealidad de la esperanza matemática se tiene que:
2.2.1 EFICIENCIA
Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del

primero es menor que la del segundo. Por ejemplo, si y son ambos estimadores de θ y

diremos que es más eficiente que . Un estimador es más eficiente


(más preciso), por tanto, cuanto menor es su varianza.

La eficiencia de los estimadores está limitada por las características de la distribución de


probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la
varianza de un estimador insesgado de un parámetro θ es, como mínimo,

donde f(X;θ) es la función de densidad de probabilidad de la muestra


en función del parámetro θ, (denominada función de verosimilitud).
Si un estimador alcanza esta cota mínima, entonces se dice que el estimador es de mínima
varianza.

2.2.2 CONSISTENCIA

Si no es posible emplear estimadores de mínima varianza, el requisito mínimo deseable para un


estimador es que a medida que el tamaño de la muestra crece, el valor del estimador tienda a ser
el valor del parámetro, propiedad que se denomina consistencia. Existen diversas definiciones de
consistencia, más o menos restrictivas, pero la más utilizada es la denominada consistencia en
media cuadrática que exige que:

1. cuando

2. cuando

ROBUSTEZ

El estimador será un estimador robusto del parámetro θ si la violación de los supuestos de


partida en los que se basa la estimación (normalmente, atribuir a la población un determinado tipo
de función de distribución que, en realidad, no es la correcta), no altera de manera significativa
los resultados que éste proporciona.

SUFICIENCIA

Se dice que un estimador es suficiente cuando resume toda la información relevante contenida en
la muestra, de forma que ningún otro estimador pueda proporcionar información adicional sobre el
parámetro desconocido de la población.
Invarianza

Se dice que un estimador es invariante cuando el estimador de la función del parámetro coincide
con la función del estimador del parámetro, . Ejemplo.- Si para estimar la
varianza poblacional utilizamos la varianza muestral, entonces para estimar la desviación típica
poblacional será razonable utilizar la desviación típica muestral.

2.2 INTERVALOS DE CONFIANZA

En estadística, se llama intervalo de confianza a un par de números entre los cuales se estima
que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente,
estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor
desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa
con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error
aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación
mediante tal intervalo.

El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo
más amplio tendrá más posibilidades de acierto (mayor nivel de confianza), mientras que para un
intervalo más pequeño, que ofrece una estimación más precisa, aumentan sus posibilidades de
error.

Para la construcción de un determinado intervalo de confianza es necesario conocer


la distribución teórica que sigue el parámetro a estimar, θ. Es habitual que el parámetro presente
una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de
Chebyshov.

En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro


poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del tipo
[θ1, θ2] tal que P [θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad de θ.
INTERVALOS DE CONFIANZA

 Es el rango de valores entre los cuales se encuentra el parámetro con una determinada
precisión
 Un intervalo de confianza del 95% entre “x” y “y” quiere decir que si se repite el
procedimiento de selección de muestra y de medición 100 veces, en 95 oportunidades el
verdadero valor se encontrará entre las cantidades “x” y “

El Intervalo de Confianza
La Teoría Estadística ha desarrollado un postulado probabilístico fundamental en el desarrollo de la
investigación planificada que involucra la responsabilidad del que investiga y la necesidad de quién
creerá en los resultados de la investigación. Este se formaliza como:
Pr {xo −z (s ) ≥μ ≤xo +z (s )} ≤1 −α
En donde:
• El promedio de la población que se quiere estimar se indica como µ ;
• El límite inferior para µ lo establece el promedio de la muestra menos z veces la
desviación estándar;
• El límite superior para µ lo establece el promedio de la muestra más z veces la desviación
estándar.
• La probabilidad que determina a z se conoce como α o nivel de confianza.

Interpretación del Intervalo de Confianza

• El Postulado Probabilístico establece límites para el parámetro del promedio de la


población µ usualmente desconocido considerando puntos importantes como:
• El nivel de confianza α es la probabilidad que establece el investigador para no emitir una
recomendación equivocada;
• Esta probabilidad determina, en La Distribución Normal Estándar el escalador z;
• Qué, multiplicado por La Desviación Estándar de la muestra establece La Precisión de la
Estimación, que espera quién hará uso de las recomendaciones.
• Una combinación de confiabilidad y precisión.

Métodos de estimación

Estimación puntual: Utilización de datos de la muestra para calcular un solo número para estimar
el parámetro de interés.

Estimación de intervalo: Ofrece un intervalo de valores razonables dentro del cual se pretende
que esté el parámetro de interés, en este caso la media poblacional, con un cierto grado de
confianza.

INTERVALOS DE CONFIANZA DE UNA PROPORCIÓN

La prevalencia y la incidencia acumulada son proporciones, por tanto sus IC se calculan como
tales:
IC = proporción ± p ∗q / n

Ejemplo para una proporción:

 En una muestra de 100 pacientes sometidos a un cierto tratamiento se obtienen 80


curaciones. Calcular el intervalo de confianza al 95% de la eficacia del tratamiento.
 ¿Qué significa? La verdadera proporción de curaciones está comprendida entre 72% y
88% con un 95% de confianza.
 ¿Es suficientemente preciso? Habrá que juzgarlo con criterios clínicos
0,01 ±1,96 0,01 ∗0,99 / 500
Ejemplo:

 En una muestra aleatoria de 500 personas de un área, hay 5 diabéticos. La prevalencia


estimada es:

5 0,01 = 1%
pˆ =
500
Y el intervalo de confianza:

0,01 ±1,96 0,01 ∗0,99 / 500

 Qué significa? La verdadera prevalencia de diabetes está comprendida entre 0,1% y 0,19%
con un 95% de confianza.
 ¿Es suficientemente preciso? Habrá que juzgarlo con criterios clínicos
INTERVALOS DE CONFIANZA DE UN PROMEDIO

Para la media o promedio


S
IC = promedio ±
n

Donde:

n= tamaño de muestra
S=varianza de la población
Ejemplo: Intervalo de confianza para un promedio
Para una muestra de 81 habitantes de cierta población se obtuvo una estatura media de 167 cm.
Por estudios anteriores se sabe que la desviación típica de la altura de la población es de 8 cm. El
intervalo de confianza para la estatura media de la población al 95% es:

8
IC = 167 ±
81

IC = 167 ± 0.9
Límite inferior: 167 - 0.9 = 166.1
Límite superior: 167 – 0.9 = 167.9
2.6.1 Estimación puntual y por intervalo
Las medias o desviaciones estándar calculadas de una muestra se denominan ESTADÍSTICOS,
podrían ser consideradas como un punto estimado de la media y desviación estándar real de
población o de los parámetros.

¿Qué pasa si no deseamos una estimación puntual como media basada en una muestra, qué otra
cosa podríamos
obtener como margen, algún
tipo de error?

“Un Intervalo de Confianza”

ESTIMADOR PUNTUAL: Utiliza un número único o valor para localizar una estimación del
parámetro.
ESTIMADOR POR INTERVALO DE CONFIANZA: Denota un rango dentro del cual se puede
encontrar el parámetro y el nivel de confianza que el intervalo contiene al parámetro.
LIMITES DE CONFIANZA: Son los límites del intervalo de confianza inferior (LIC) y superior (LSC),
se determinan sumando y restando a la media de la muestra X un cierto número Z (dependiendo

del nivel o coeficiente de confianza) de errores estándar de la media σX .


INTERPRETACIÓN DEL INTERVALO DE CONFIANZA: Tener un 95% de confianza en que la
media poblacional real y desconocida se encuentra entre los valores LIC y LSC.
NIVEL DE SIGNIFICANCIA = 1 INTERVALO DE CONFIANZA = ERROR TIPO 1 = ALFA
¿Cómo obtenemos un intervalo de confianza?
Estimación puntual + error de estimación
¿De dónde viene el error de estimación?
Desv. Estándar X multiplicador de nivel de confianza deseado Zα /2

You might also like