domingo, 26 de mayo de 2013


DISTRIBUCIÓN BINOMIAL
En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
 X~B(n,p)
La distribución binomial es la base del test binomial de significación estadística.

EJEMPLOS
Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:
·         Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10, 1/6)
·         Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2, 1/2)
·         Una partícula se mueve unidimensionalmente con probabilidad p de moverse de aquí para allá y 1-q de moverse de allá para acá


EXPERIMENTO BINOMIAL
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad binomial, y se denota B(n,p).


DISTRIBUCIÓN DE PROBABILIDAD CONTINUA
En teoría de la probabilidad una distribución de probabilidad se llama continua si sufunción de distribución es continua. Puesto que la función de distribución de unavariable aleatoria X viene dada por , la definición implica que en una distribución de probabilidad continua X se cumple P[X = a] = 0 para todonúmero real a, esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la distribución de X es continua, se llama a X variable aleatoria continua.
En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:

Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta aparente paradoja se resuelve por el hecho de que la probabilidad de que X tome algún valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adición simple de probabilidades de valores individuales. Formalmente, cada valor tiene una probabilidad infinitesimal que estadísticamente equivale a cero.
Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad continua" se reserva a distribuciones que tienen función de densidad de probabilidad. Estas funciones se llaman, con más precisión, variables aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).

Las distribuciones de variable continua más importantes son las siguientes:



DISTRIBUCION DE PROBABILIDAD NORMAL
En estadística y probabilidad se llama distribución normaldistribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelarnumerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:
·         caracteres morfológicos de individuos como la estatura;
·         caracteres fisiológicos como el efecto de un fármaco;
·         caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;
·         caracteres psicológicos como el cociente intelectual;
·         nivel de ruido en telecomunicaciones;
·         errores cometidos al medir ciertas magnitudes;
·         etc.
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las mediasmuestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.

El Teorema del Límite Central 
Descripción: http://upload.wikimedia.org/wikipedia/commons/thumb/9/9f/Normal_approximation_to_binomial.svg/325px-Normal_approximation_to_binomial.svg.png
Descripción: http://bits.wikimedia.org/static-1.22wmf3/skins/common/images/magnify-clip.png
Gráfica de la función de distribución de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomialcon n = 48 y p = 1/4
El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.
La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:
·         Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np yn(1 − p) son ambos, al menos, 5; en este caso se debería aplicar unacorrección de continuidad).
La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
·         Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
La distribución normal aproximada tiene parámetros μ = σ2 = λ.
La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.



La probabilidad Condicional y Distribución de variables Aleatorias Discretas


TEOREMA DE BAYES 

En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado Ay la distribución de probabilidad marginal de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.
Si A 1, A 2 ,... , Ason:
Sucesos incompatibles 2 a 2.
Y cuya unión es el espacio muestral  (A 1 Descripción: unión A 2 Descripción: unión... Descripción: unión A n = E).
Y B es otro suceso.
Resulta que


Las probabilidades p(A1)     se denominan     probabilidades a priori.
Las probabilidades p(Ai/B)  se denominan     probabilidades a posteriori.
Las probabilidades p(B/Ai)  se denominan     verosimilitudes.
Ejemplos
El 20% de los empleados de una empresa son ingenieros y otro 20% son economistas. El 75% de los ingenieros ocupan un puesto directivo y el 50% de los economistas también, mientras que los no ingenieros y los no economistas solamente el 20% ocupa un puesto directivo. ¿Cuál es la probabilidad de que un empleado directivo elegido al azar sea ingeniero?












La probabilidad de que haya un accidente en una fábrica que dispone de alarma es 0.1. La probabilidad de que suene esta sí se ha producido algún incidente es de 0.97 y la probabilidad de que suene si no ha sucedido ningún incidente es 0.02.
En el supuesto de que haya funcionado la alarma, ¿cuál es la probabilidad de que no haya habido ningún incidente?
Sean los sucesos:
I = Producirse incidente.

A = Sonar la alarma.







ESPERANZA MATEMÁTICA


En estadística la esperanzamatemática (también llamada esperanzavalor esperadomedia poblacional o media) de una variable
Aleatoria, X  es el número E(X) que formaliza la idea de valor medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.

Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo

y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.

Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de 1€, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los 35€.

La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.





DEFINICIÓN

Descripción: E[X]=x_1p(X=x_1)+...+x_np(X=x_n)=E[X]=\sum_{i=1}^{n} x_i p(x_i) \,\!
Para una variable aleatoria discreta con valores posibles Descripción: x_1, x_2 \ldots x_n \,\! y sus probabilidades representadas por la función de probabilidad Descripción: p(x_i) la esperanza se calcula como:
Descripción: E[X]=\int_{-\infty}^\infty x f(x)dx \,\!,Descripción: \operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P \,\!


Descripción: f(x) \,\!Para una variable aleatoria absolutamente continua, la esperanza se calcula mediante la integral de todos los valores y la función de densidad   :
La definición general de esperanza se basa, como toda la teoría de la probabilidad, en el marco de la teoría de la medida y se define como la siguiente integral:
Descripción: \mu = E[X] \,\!La esperanza también se suele simbolizar con 
Las esperanzas Descripción: E[X^k] \,\! para Descripción: k=0,1,2... \,\! se llaman momentos de orden  Descripción: k \,\!. Más importantes son los momentos centradosDescripción: E[(X-E[X])^k] \,\!.
No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribución de Cauchy no lo tiene.

PROPIEDADES
La esperanza es un operador lineal, ya que:

Descripción: \operatorname{E}(X + c)=  \operatorname{E}(X) + c \,\!

Descripción: \operatorname{E}(X + Y)=  \operatorname{E}(X) + \operatorname{E}(Y) \,\!

Descripción: \operatorname{E}(aX)= a \operatorname{E}(X)  \,\!

Combinando estas propiedades, podemos ver que -
Descripción: \operatorname{E}(aX + b)= a \operatorname{E}(X) + b  \,\!

Descripción: \operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)  \,\!

Donde X e Y son variables aleatorias y a b y c son tres constantes cualquiera.



MEDIA

En matemáticas y estadística una media o promedio es una medida de tendencia central que según la Real Academia Española (2001) resulta al efectuar una serie determinada de operaciones con un conjunto de números y que, en determinadas condiciones, puede representar por sí solo a todo el conjunto. Existen distintos tipos de medias, tales como la media geométrica, la media ponderada y la media armónica aunque en el lenguaje común, el término se refiere generalmente a la media aritmética


MEDIA ARITMÉTICA
Descripción:  \bar{x} = \frac{1}{n} \sum_{i=1}^n{x_i}

 Es un promedio estándar que a menudo se denomina "promedio".

La media se confunde a veces con la mediana o moda. La media aritmética es el promedio de un conjunto de valores, o su distribución; sin embargo, para las distribuciones con sesgo, la media no es necesariamente el mismo valor que la mediana o que la moda. La media, moda y mediana son parámetros característicos de una distribución de probabilidad. Es a veces una forma de medir el sesgo de una distribución tal y como se puede hacer en las distribuciones exponencial y de Poisson.
Por ejemplo, la media aritmética de 34, 27, 45, 55, 22, 34 (seis valores) es 
Descripción:  \tfrac{34+27+45+55+22+34}{6}\ = \tfrac{217}{6}\approx 36,167


MEDIA ESTADISTICA

La media estadística se usa en estadística para dos conceptos diferentes aunque numéricamente similares:
La media muestral, que es un estadístico que se calcula a partir de la media aritmética de un conjunto de valores de una variable aleatoria.
La media poblacional, valor esperado o esperanza matemática de una variable aleatoria.
En la práctica dada una muestra estadística suficientemente grande el valor de la media muestral de la misma es numéricamente muy cercano a la esperanza matemática de la variable aleatoria medida en esa muestra. Dicho valor esperado, sólo es calculable si se conoce con toda exactitud la distribución de probabilidad, cosa que raramente sucede en la realidad, por esa razón, a efectos prácticos la llamada media se refiere normalmente a la media muestral.
MEDIA MUESTRAL
La media resume en un valor las características de una constante teniendo en cuenta a todos los casos. Solamente puede utilizarse con variables cuantitativas
Descripción: \bar{X}_n = T(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n X_i = \frac{X_1+X_2+...+X_n}{n}

 Media muestral: Si se tiene una muestra estadística de valores Descripción: (X_1,X_2,...,X_n) de valores para una variable aleatoria X con distribución de probabilidad F (x,θ) [donde θ es un conjunto de parámetros de la distribución] se define la media muestral n-ésima como:

DESVIACIÓN ESTANDAR

La desviación estándar o desviación típica (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de centralización o dispersión para variables de razón (radio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.
Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.
DISTRIBUCIÓN DE PROBABILIDAD CONTINÚA
Descripción: {\sigma}^2 = \int_{(x - \mu)}^2 f(x) dx

Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz cuadrada de la integral

Dónde:

Descripción: \mu = \int_{x} f(x) dx

Distribución de probabilidad discreta


Descripción: s^2 = \frac{1}{n} \sum_{i=1}^n
 \left( x_i - \overline{x} \right) ^ 2

La DS es la raíz cuadrada de la varianza de la distribución de probabilidad discreta

Así la varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución.


Descripción: s^2 = \frac{ \sum_{i=1}^n \left( x_i - \overline{x} \right) ^ 2 }{n-1}

Aunque esta fórmula es correcta, en la práctica interesa realizar inferencias poblacionales, por lo que en el denominador en vez de n, se usa n-1 (Corrección de Bessel) Esta ocurre cuando la media de muestra se utiliza para centrar los datos, en lugar de la media de la población. Puesto que la media de la muestra es una combinación lineal de los datos, el residual a la muestra media se extiende más allá del número de grados de libertad por el número de ecuaciones de restricción - en este caso una. Dado esto a la muestra así obtenida de una muestra sin el total de la población se le aplica esta corrección con la fórmula desviación estándar muestral. Cuando los casos tomados son iguales al total de la población se aplica la fórmula de desviación estándar poblacional.

Descripción: s^2 = \frac{ \sum_{i=1}^n x_i^2 - n\overline{x}^2}{n-1}

También hay otra función más sencilla de realizar y con menos riesgo de tener equivocaciones:


DISTRIBUCIÓN BINOMIAL

La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no.
Hay dos resultados posibles mutuamente excluyentes en cada ensayo u observación.
La serie de ensayos u observaciones constituyen eventos independientes.
La probabilidad de éxito permanece constante de ensayo a ensayo, es decir el proceso es estacionario.
Para aplicar esta distribución al cálculo de la probabilidad de obtener un número dado de éxitos en una serie de experimentos en un proceso de Bermnoulli, se requieren tres valores: el número designado de éxitos (m), el número de ensayos y observaciones (n); y la probabilidad de éxito en cada ensayo (p).
Entonces la probabilidad de que ocurran m éxitos en un experimento de n ensayos es:
P (x = m) = (nCm)(Pm)(1−P)n−m
Siendo: nCm el número total de combinaciones posibles de m elementos en un conjunto de n elementos.
En otras palabras P(x = m) = [n!/(m!(n−m)!)](pm)(1−p)n−m
Ejemplo. La probabilidad de que un alumno apruebe la asignatura Cálculo de Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15 alumnos ¿Cuál es la probabilidad de que aprueben 10 de ellos?

P(x = 10) = 15C10 (0,15)10(0,85)5 = 10!/(10!(15−10)!)(0,15)10(0,85)5 = 7,68 * 10−6 Generalmente existe un interés en la probabilidad acumulada de "m o más " éxitos o "m o menos" éxitos en n ensayos. En tal caso debemos tomar en cuenta que:

P(x < m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m − 1)
P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +....+ P(x = n)
P(x ≤ m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m)
P(x ≥ m) = P(x = m) + P(x = m+1) + P(x = m+2) +....+ P(x = n)

Supongamos que del ejemplo anterior se desea saber la probabilidad de que aprueben:

a.− al menos 5
b.− más de 12
a.− la probabilidad de que aprueben al menos 5 es:

P(x ≥ 5) es decir, que:
1 - P(x < 5) = 1 - [P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] =
1 - [0,0874 + 0,2312 + 0,2856 + 0,2184 + 0,1156] = 0,0618

Nota: Al menos, a lo menos y por lo menos son locuciones adverbiales sinónimas.



Ejemplo: La entrada al cine por lo menos tendrá un costo de 10 soles (como mínimo podría costar 10 soles o más).

b.− la probabilidad de que aprueben más de 12 es P(x > 12) es decir, que:
P(x > 12) = P(x = 13)+P(x = 14)+P(x = 15)
P(x > 12) = 1,47 *10−9 +3,722 *10−11 +4,38 *10−13 = 1,507 *10−9

La esperanza matemática en una distribución binomial puede expresarse como:
E(x) = np = 15(0,15)=2,25

Y la varianza del número esperado de éxitos se puede calcular directamente:
Var(x) = np(1−p)= 15(0,15)(1-0,15)=1,9125
Estadísticas y probabilidades, con sus diferentes diagramaciones como: diagrama de barras. Diagrama de línea. Y diagrama de círculos que se aplican de acuerdo al tipo de estadísticas y probabilidades matemáticas.
.