You are on page 1of 18

MATERIA: estadística administrativa.

TITULO: trabajo de investigación unidad i Y ii

Equipo:
Barbosa Arizpe teresa de Jesús.
Carmona García Gabriela.
Carrera Miramón juan.
Coyote villaba Jesús Eduardo.
Martínez cruz Jorge adrián.
Ortega cabrera blanca.

PROFESOR: Carlos Gutiérrez reynaga.

Grupo: 4c11.

UNIDAD I. DISTRIBUCIONES DE FRECUENCIA


1.1 Concepto de estadística y su clasificación
La estadística es el arte y la ciencia de reunir, analizar,
presentar e interpretar datos.
La estadística se divide en dos áreas:
• La estadísticadescriptiva consiste en datos resumidos y
presentados en forma de que un lector los pueda
entender.
• La inferencia estadística es un procedimiento que sirve
para deducir o inferir algo acerca de un conjunto de
datos.
Población. Es el conjunto de todos los elementos de interés
en determinado estudio.
Muestra. Es un subconjunto de población.
1.2 Recopilación de datos
Datos. Son los hechos y los números que se reúnen, analizan y
resumen para su presentación e interpretación.
Discretos
Cuantitativos
Continuos
DATOS
ESTADISTICOS
Nominales o
Categóricos
Cualitativos

Ordinales o
Jerarquizados

Datos cuantitativos. Datos que indican cuanto o cuantos. Los


datos cuantitativos siempre son numéricos.
• Discretos. Son números enteros que se pueden enumerar,
estos pueden ser finitos o infinitos. Ejemplo: núm. de
alumnos, número de lápices, etc.
• Continuos. Son generalmente infinitos que se encuentran
en un rango. Ejemplo: peso, estatura.
Datos cualitativos. Datos que aparecen en etiquetas o nombres
de determinada característica de un elemento. Los datos
cualitativos pueden ser numéricos o no numéricos.
• Nominales o categóricos. Son aquellos datos que
establecen alguna característica.
• Ordinales o jerarquizados. Se refiere a las
características de un objeto.

1.3 Distribución de frecuencias


Una distribución de frecuencias es un resumen de un conjunto
de datos que muestran la frecuencia de artículos en cada una
de varias clases que no se traslapan.
El objetivo de elaborar una distribución de frecuencias es
proporcionar una perspectiva de los datos, perspectiva que no
se puede obtener rápidamente con sólo examinarlos.

Distribución de frecuencias relativas y de frecuencias


porcentuales

La frecuencia relativa de una clase es la proporción de la


cantidad total de datos que pertenecen a esa clase.
Para un conjunto de datos con n observaciones, la frecuencia
relativa de cada clase se determina mediante la fórmula:

frecuencia relativa=frecuencia de la clasen

La frecuencia porcentual de una clase es la frecuencia


relativa multiplicada por cien.

frecuencia porcentual=frecuencia relativa x 100


1.3.1 Histogramas, Polígonos de frecuencia, Ojiva.
Histograma
Es una presentación grafica de una distribución de
frecuencias, frecuencias relativas o de frecuencias
porcentuales de datos cuantitativos; se traza colocando los
intervalos de clase sobre el eje horizontal y las frecuencias
sobre el eje vertical.

Polígono de frecuencia
Si se divide a la mitad la parte superior de cada una de las
barras o rectángulos y los unimos uno a continuación del
otro, obtenemos una línea poligonal.
Ojivas
1.4 Medidas de tendencia central para un conjunto de datos y
datos no agrupados

1.4.1 Media, media ponderada


Media. Es la suma de todos los valores observados, dividido
por el número total de observaciones. Si los datos proceden
de una muestra, el promedio se representa con x; si proceden
de una población, se utiliza la letra griega µ.

Media de la muestra para datos no agrupados

x=i=1nxin

Media de la muestra para datos agrupados

x=fiMin

Mi =Punto medio de la clase i


f i= Frecuencia de la clase i
n=fi= Tamaño de la muestra

Media de la población para datos no agrupados

μ=i=1nxiN

Media de la población para datos agrupados

μ=fiMiN

Media ponderada
1.4.2 Mediana
Datos no agrupados
La mediana es otra medida de localización central de los
datos. Es el valor intermedio, cuando los valores de los
datos se ordenan en forma ascendentes. Si hay una cantidad
impar de elementos, la mediana es el valor del elemento
intermedio; si la cantidad es par, no hay un elemento
intermedio, y en este caso se sigue la convención de definir
la mediana como el promedio de los valores de los dos
elementos intermedios.

Ejemplo:
Apliquemos esta definición para calcular la mediana del
tamaño de grupo para la muestra de cinco grupos en la
escuela. Al disponer los cinco valore de datos en orden
ascendente, se obtiene la siguiente lista ordenada.

32, 42, 46, 46, 54

Como n = 5 es impar, la media es el elemento intermedio de la


lista ordenad. Así, la mediana del tamaño de clase es 46
alumnos.

Formula para la mediana de datos agrupados

Me=L.med+ n2-f+ med*c

1.4.3 Moda
Datos no agrupados
La moda es el valor de los datos que se presenta con más
frecuencia. La moda es una medida importante de localización
de datos cualitativos.

Ejemplo:
¿Cuál es la moda de los siguientes números?
23, 24, 24, 25, 25,25, 26,27
Como podemos observar la moda es 25 puesto que es el número
que mas se repite en la muestra.

Formula para la moda de datos agrupados

Mo=Li+d1d1+ d2*c

1.4.4 Relación entre media, mediana y moda

1.5 Medidas de dispersión para un conjunto de datos y datos


agrupados

1.5.1 Rango
Es la medida de dispersión, definida como el valor máximo
menos el valor mínimo.

Rango=Valor máximo-Valor mínimo

1.5.2 Desviación media


Es la media de un conjunto de n observaciones, la desviación
media de cada observación es xi- x y la suma de todas las
desviaciones es 0.

D.M=xi=xn
1.5.3 Varianza
Es la medida de dispersión para un conjunto de datos, basada
en las desviaciones de los valores de los datos respecto a la
media, elevadas al cuadrado.

Formula de la varianzade la muestra para datos no agrupados

s2=i=1n(xi-x)2n-1

Formula de la varianza de la muestra para datos agrupados

s2=fiMi- x2n-1

Formula de la varianza de la población para datos no


agrupados

σ2=i=1n(xi-μ)2N
Formula de la varianza de la población para datos agrupados

σ2=fiMi- μ2N

1.5.4 Desviación estándar


Es la medida de la dispersión de un conjunto de datos: se
calcula sacando la raíz cuadrada positiva de la varianza.

Formula de la desviación estándar muestral

s=s2

Formula de la desviación estándar muestral

σ=σ2

1.6 Coeficiente de variación


Es la medida de la dispersión relativa de un conjunto de
datos; se calcula dividiendo la desviación estándar entre la
media y multiplicando el cociente por 100.

Desviación estándarPromedio×100
1.7 Coeficiente de asimetría de Pearson

Coeficiente de correlación r de Pearson

En éste capítulo, se describirá un método directo para


obtener r, junto con la naturaleza, uso y limitaciones, de la
r de Pearson. Este valor estadístico es uno de varios
coeficientes de ese tipo y también el más frecuente.
La correlación es básicamente una medida de la relación entre
dos variables.

Promedio de la r de Pearson

Dado que los coeficientes r de Pearson no son unidades


uniformes, no deben ser sumados o promediados. Para
determinar un coeficiente de correlación promedio, se
convierte cada r a suZutilizando la tabla del Apéndice G,
luego se promedian estos calores de Z, y mediante la misma
tabla, se vuelve a convertir esta Z en una r que representa
la r promedio.

Condiciones que intervienen en la interpretación de r

Antes de que se calcule r, debe examinarse el diagrama de


dispersión y a veces poner a prueba los datos para verificar
si se cumplen dos condiciones. La primera en ver si existe
regresión lineal. Esto significa que los puntos del diagrama
de dispersión tienden a agruparse en una recta.

Coeficiente de correlación Producto-Momento de Pearson

De los diversos coeficientes de correlación que existen, el


que utiliza con más frecuencia se denomina coeficiente de
correlación producto-momento de Pearson, cuyo símbolo es
también r. La magnitud de este coeficiente de correlación
varía de + 1 a 0 y -1.

La r de Pearson se definió originalmente como:

r=zy zy N

Lo que quiere decir la r de Pearson es la medida del producto


de las puntuaciones z. A fin de obtener una r para un
conjunto de datos mediante éste método, se convierte toda
puntuación en cada distribución en una puntuación z después
de obtener las dos medias y las dos desviaciones estándares.
Posteriormente, las dos puntuaciones z para casa caso se
multiplican y se suman los productos. La suma obtenida se
divida luego entre el número de personas, N, y el cociente
es la r de Pearson. Esta no es una fórmula tan práctica como
las demás fórmulas y métodos que han aparecido desde la época
de Pearson.

Relación negativa perfecta

Esta vez los puntos caen en una recta, la cual va desde la


porción superior izquierda del dispersograma hasta la parte
inferior derecha. Esto representa una relación negativa
perfecta.

Condiciones que intervienen en la interpretación de r

Antes de que se calcule r, debe examinarse el diagrama de


dispersión y a veces poner a prueba los datos para verificar
si se cumplen dos condiciones. La primera es ver si existe
regresión lineal. Esto significa que los puntos del diagrama
de dispersión tienden a agruparse en una recta.

EJERCICIO DE DATOS NO AGRUPADOS

Una empresa instala mecanismos automáticos para la apertura


de las puertas de un garaje. La siguiente lista indica el
número de minutos necesarios para tal instalación en una
muestra de 20 puertas:

28,40,24,46, 44,40,43,38,32,42,44,30,45,46,45,31,31,40,42,54

Obtén las medidas de tendencia central

A) Media= 34.25

B) Mediana = 41

C) Moda = 40

D) Rango = 30

E) Varianza muestral = 57.14

F) Desviación estándar muestral: 7.55

Media

Formula

x=i=1nxin = 78520 = 34. 5

Mediana

Me = 40+422 = 822 = 41

24,28,30,31,31,32,38,40,40,40,42,42,43,44,44,45,45,46,46,54

Número que más Median


se repite

Moda

Mo = 40

Rango

Formula Rango=Valor máximo-Valor mínimo = 54-24 = 30

Varianza muestral

Formula

s2=i=1n(xi-x)2n-1
s2 = 28-39.25 2+40-39.25 2+24-39.25 2 +46-39.25 2+44-39.25 2+43-39.25 2+28-
39.25 2+32-39.25 2+ 42-39.25 2 +44-39.25 2+ 30-39.25 2+ 45-39.25 2 + 46-39.25
2+ 45-39.25 2+31-39.25 2+ 31-39.25 2+40-39.25 2+ 42-39.25 2+ 31-39.25 2

20-1

s2= 1,085.6619 = 57.14

Desviación estándar muestral

Formula

s=s2 = 57.14 = 7.55

UNIDAD II. INTRODUCCIÓN A LA PROBABILIDAD Y VALOR ESPERADO

2.1 Introducción a la probabilidad

Muchos de los eventos que ocurren en la vida diaria no pueden


ser predichos con exactitud desde antes por diversas razones,
pues la mayoría de los hechos están influidos por factores
externos. Además, existen aquellos sucesos que están
directamente influidos por el azar, es decir, por procesos
que no se está seguro de lo que va a ocurrir. Sin embargo, la
probabilidad nos permite acercarnos a esos sucesos y
estudiarlos, ponderando las posibilidades de su ocurrencia y
proporcionando métodos para tales ponderaciones.
Precisamente, algunos de esos métodos proporcionados por la
probabilidad nos llevan a descubrir que algunos sucesos
tienen una mayor o menor probabilidad de ocurrir que la
ponderación asignada a través del sentido común. Nuestros
sentidos, la información previa que poseemos, nuestras
creencias o posturas, nuestras inclinaciones, son algunos de
los factores que intervienen para no permitirnos hacer
ponderaciones reales y sistemáticas. La probabilidad nos
permitirá estudiar los eventos de una manera sistemática y
más cercana a la realidad, retribuyéndonos con información
más precisa y confiable y, por tanto, más útil para las
disciplinas humanas.

2.1.1 Definición y expresión


La probabilidad es la parte de las matemáticas que trata de
manejar con números la incertidumbre.
La probabilidad se mide por un número entre cero y uno: si un
suceso no ocurre nunca, su probabilidad asociada es cero,
mientras que si ocurriese siempre su probabilidad sería igual
a uno. Así, las probabilidades suelen venir expresadas como
decimales, fracciones o porcentajes.
Para definir la probabilidad y determinar valores de
probabilidad, se han desarrollado 3 enfoques conceptuales:
a) Enfoque clásico de la probabilidad
b) Enfoque de frecuencias relativas
c) Enfoque subjetivo de la probabilidad

A. Enfoque clásico de la probabilidad. Este enfoque permite


determinar valores de probabilidad antes de ser observado el
experimento por lo que se le denomina enfoque a priori.
El enfoque clásico es aplicado cuando todos los resultados
son igualmente probables y no pueden ocurrir al mismo tiempo.
B.Enfoque de frecuencias relativas. Este enfoque permite
determinar la probabilidad con base en la proporción de veces
que ocurre un resultado favorable en cierto número
experimentos.
No implica ningún supuesto previo de igualdad de
probabilidades.
C.Enfoque subjetivo de la probabilidad.Se diferencia de lo
dos enfoques anteriores, debido a que tanto el enfoque
clásico como el de frecuencia relativa producen valores de
probabilidad objetivos.
El enfoque señala que la probabilidad de un evento es el
grado de confianza que una persona tiene en que el evento
ocurra, con base en toda la evidencia que tiene disponible,
fundamentado en la intuición, opiniones, creencias personales
y otra información indirecta.

2.2 Eventos mutuamente excluyentes y no excluyentes

Evento: un evento es un conjunto de puntos muéstrales.


Eventos mutuamente excluyentes. Se dice que dos eventos son
mutuamente excluyentes si no tiene puntos muéstrales en
común.
Esto es si los eventos a y b son mutuamente excluyentes si,
cuando ocurre uno el otro no puede ocurrir. Así un requisito
para a y b sean mutuamente excluyentes es que su intersección
no deben contener puntos muéstrales.
2.3 Regla de adición
Regla especial de adición: Para aplicar la regla especial de
adición, los eventos deben de ser mutuamente excluyentes (que
cuando ocurre un evento, ninguno de los otros puede suceder
al mismo tiempo).
Si dos eventos A y B son mutuamente excluyentes, la regla
especial de la adición indica que la probabilidad de que
ocurra uno u otro de los eventos, es igual a la suma de sus
probabilidades. Esta regla se expresa en la formula
siguiente:

PA ∪ B=PA+PB

Para tres eventos mutuamente excluyentes, representados por


A, B y C, la regla se expresa como:

PA o B o C=PA+PB+PC
El cálculo de P A ∪Bcuando son mutuamente no excluyentes la
probabilidad del evento A o B, puede expresar en la siguiente
regla de la adición general:

PA ∪ B=PA+PB-PA ∩ B

2.4 Eventos independientes, dependientes, y probabilidad


condicional
Eventos independientes

Dos eventos, A y B, son independientes si

PA/B=PA

o si
PB/A=PB

Delo contrario, los eventos son independientes.

Probabilidad condicional

PA/B= P∩BPB
o sea

PB !A= PA∩BPA

Una vez ocurrido el evento B:


Entonces, PB !A= PA∩BPA

2.5 Reglas de multiplicación


La formula para la probabilidad condicional puede manipularse
algebraicamente de forma tal que la probabilidad conjunta P A
y B pueda determinarse a partir de la probabilidad
condicional de un evento. Usando la ecuación:

P A /B=P A y BPB

Y resolviendo para la probabilidad conjunta P A yB, tenemos la


regla general de la multiplicación:

P Ay B=PABPB

L a regla especial de multiplicación requiere que dos eventos


A y B sean independientes. Dos eventos son independientes si
la ocurrencia de uno no altera la probabilidad de que suceda
el otro. De manera que si los eventos A y B son
independientes, la ocurrencia de A no altera la probabilidad
de B.

Independiente.La ocurrencia de un evento no tiene efecto en


la probabilidad de la ocurrencia de cualquier otro evento.

Si dos eventos A y B son independientes, la probabilidad de


que ocurran A Yb se obtiene multiplicando las dos
probabilidades, Esta es la regla especial de multiplicación,
que expresada en forma simbólica es:

P A y B=PAPB
Si esta regla se cumple para dos eventos, A y B, entonces A y
B son estadísticamente independientes. Por lo tanto, hay dos
formas de determinar la independencia estadística.
1. Los eventos A y B son estadísticamente independientes si
y solo si PA/B=PA.
2. Los eventos A y B son estadísticamente independientes si
y solo P A y B=PAPB.

Para tres eventos independientes A, B, C la regla especial de


multiplicación que se utiliza para determinar la probabilidad
de que ocurran los tres eventos es:

P A y B y C=PAPBPC

2.6 Diagrama de árbol


Un diagrama de árbol es una representación grafica útil para
organizar cálculos que abarcan varia etapa. Cada segmento en
el árbol es una etapa del problema. Las probabilidades
escritas cerca de las ramas son las probabilidades
condicionales del experimento.

Ejemplo:

2.7 Combinaciones y permutaciones


Combinación. Si el orden en los objetos seleccionados no es
importante, a cualquier selección se le llama una
combinación. La formula para contar el número de
combinaciones r objetos de un conjunto de n objetos es:

nnCr= n!r!n-r!

n = Es el numero total de objetos.


r = Es el numero de objetos seleccionados

Permutación. Un arreglo o disposición de r objetos


seleccionados de un solo grupo de n objetos posibles.
Observe que los arreglos a, b, c y el b, a, c, son
permutaciones diferentes. La formula que se utiliza para
contar el número total de permutaciones distintas es:

nnPr= n!n-r!
En donde:

n = Es el numero total de objetos.


r = Es el numero de objetos seleccionados

2.8 Análisis combinatorio


Al hallar probabilidades de sucesos complicados, suele
resultar difícil y tediosa una enumeración de los casos. E l
análisis combinatorio facilita mucho esa tarea.

Principio fundamental
Si un suceso puede ocurrir de n1 maneras, y si cuando este ha
ocurrido otro suceso puede ocurrir de n2 maneras, entonces el
número de maneras en que ambos pueden ocurrir en el orden
especificado es n1n2.

Ejemplo:
Si hay 3 candidatos para gobernador y 5 para alcalde, los dos
cargos pueden ocuparse de 3*5 = 15 formas.

Factorial de n
La factorial de n, denotada por n!, se define como:

n!=nn-1n-2…1

Así, 5! = 5*4*3*2*1= 120, y 4!3! = (4*3*2*1) (3*2*1)=144.


Conviene definir 0!=1

2.9 Teorema de Bayes


Al aplicar la probabilidad condicional indicamos que una fase
importante del análisis de probabilidades es su
actualización cuando se adquiere información adicional.
Entonces, con base en fuentes como una muestra un informe
especial o la prueba de un producto, obtenemos cierta
información adicional sobre los eventos. Con esa información
modificamos los valores de las probabilidades previas
mediante el cálculo de las probabilidades actualizadas a las
que llamamos probabilidades posteriores o a posteriori.
ElTeorema de Bayesproporciona un método para calcular esas
probabilidades en la figura 4.9 se observan las etapas del
proceso de actualización.
Figura 4.9.Actualización de probabilidades empleando el
Teorema de Bayes

Probabilidades Información Aplicación del Probabilidadesp


previas nueva Teorema de osteriores
Bayes

2.10 Valor esperado o esperanza matemática

El valor esperado, o media de una variable aleatoria es una


medida de la localización central (o tendencia central) de
esa variable. La ecuación matemática del valor esperado de
una variable aleatoria discreta xes la siguiente:

E(x)= µ =i=1x*px

El valor esperado representa el valor promedio de la variable


aleatoria, con frecuencia se necesita conocer una medida de
dispersión o variabilidad

BIBLIOGRAFIA

1. Estadística para administración y economía vol.1


David R. Anderson, Dennis J. Sweeney y Thomas A. Williams
Editorial International Thomson Editores
65-160 páginas

2.Estadística básica en administración, conceptos y


aplicaciones
Mark L. Berenson y David M. Levine
Editorial Prentice Hall Hispanoamericana, S.A.
214-224 páginas

3.Estadística para administración y economía


Douglas A. Lind, William G. Marchal y Robert D. Mason
Editorial Alfaomega
158- 228 páginas

4.Estadística
Murray R. Spiegel
Editorial Mc. Graw Hill
134-135 páginas

You might also like