DISTRIBUCIÓN BINOMIAL
En estadística, la distribución binomial es una distribución de probabilidad discreta
que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí,
con una probabilidad fija de ocurrencia del éxito entre los ensayos. Un
experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son
posibles dos resultados. A uno de estos se denomina éxito y tiene una
probabilidad de ocurrencia p y al otro, fracaso, con una
probabilidad q = 1 - p. En la distribución
binomial el anterior experimento se repite n veces, de forma
independiente, y se trata de calcular la probabilidad de un determinado número
de éxitos. Para n = 1, la binomial se convierte, de hecho, en
una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una
distribución binomial de parámetros n y p, se
escribe:
La distribución binomial es la base del test binomial de significación estadística.
EJEMPLOS
Las siguientes situaciones son ejemplos de
experimentos que pueden modelizarse por esta distribución:
·
Se
lanza un dado diez veces y se cuenta el número X de tres
obtenidos: entonces X ~ B(10, 1/6)
·
Se
lanza una moneda dos veces y se cuenta el número X de caras
obtenidas: entonces X ~ B(2, 1/2)
·
Una
partícula se mueve unidimensionalmente con probabilidad p de
moverse de aquí para allá y 1-q de moverse de allá para acá
EXPERIMENTO BINOMIAL
Existen
muchas situaciones en las que se presenta una experiencia binomial. Cada uno de
los experimentos es independiente de los restantes (la probabilidad del
resultado de un experimento no depende del resultado del resto). El resultado
de cada experimento ha de admitir sólo dos categorías (a las que se denomina
éxito y fracaso). Las probabilidades de ambas posibilidades han de ser
constantes en todos los experimentos (se denotan como p y q o p y 1-p).
Se
designa por X a la variable que mide el número de
éxitos que se han producido en los n experimentos.
Cuando
se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad
binomial, y se denota B(n,p).
DISTRIBUCIÓN DE PROBABILIDAD CONTINUA
En teoría de la
probabilidad una distribución
de probabilidad se llama continua si sufunción de
distribución es continua.
Puesto que la función de distribución de unavariable aleatoria X
viene dada por , la definición implica que en una distribución de
probabilidad continua X se cumple P[X = a]
= 0 para todonúmero real a,
esto es, la probabilidad de que X tome el valor a es
cero para cualquier valor de a. Si la distribución de X es
continua, se llama a X variable aleatoria
continua.
En las distribuciones de probabilidad continuas, la distribución de
probabilidad es la integral de la función de densidad,
por lo que tenemos entonces que:
Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el
caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de
una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero
porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos
valores individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no
lo es. Esta aparente paradoja se
resuelve por el hecho de que la probabilidad de que X tome
algún valor en un conjunto infinito como un intervalo, no puede calcularse
mediante la adición simple de probabilidades de valores individuales.
Formalmente, cada valor tiene una probabilidad infinitesimal que estadísticamente
equivale a cero.
Existe una definición alternativa más rigurosa en la que el término
"distribución de probabilidad continua" se reserva a distribuciones
que tienen función
de densidad de probabilidad. Estas funciones se llaman, con más
precisión, variables aleatorias absolutamente
continuas (véase el Teorema de
Radon-Nikodym). Para una variable aleatoria X absolutamente
continua es equivalente decir que la probabilidad P[X = a]
= 0 para todo número real a, en virtud de que hay un incontables
conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).
Las distribuciones de variable continua más importantes son las siguientes:
- Distribución Beta
- Distribución exponencial
- Distribución F
- Distribución Gamma
- Distribución ji cuadrado
- Distribución normal
- Distribución t de Student
DISTRIBUCION DE
PROBABILIDAD NORMAL
En estadística y probabilidad se
llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones
de probabilidad de variable
continua que con más frecuencia aparece aproximada en fenómenos
reales.
La gráfica de su función de densidad tiene
una forma acampanada y es simétrica respecto de un determinado parámetro
estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de
una función gaussiana.
La importancia de esta distribución radica en que
permite modelarnumerosos
fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del
modelo normal puede justificarse asumiendo que cada observación se obtiene como
la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático
que sólo permite describir un fenómeno, sin explicación alguna. Para la
explicación causal es preciso el diseño experimental, de ahí que al
uso de la estadística en psicología y sociología sea conocido como método
correlacional.
La distribución normal también es importante por su
relación con la estimación por mínimos cuadrados,
uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos
naturales que siguen el modelo de la normal son:
·
caracteres morfológicos de
individuos como la estatura;
·
caracteres fisiológicos como el efecto de un fármaco;
·
caracteres sociológicos como el consumo de cierto producto por un
mismo grupo de individuos;
·
caracteres psicológicos como el cociente
intelectual;
·
nivel de ruido en telecomunicaciones;
·
errores cometidos
al medir ciertas magnitudes;
·
etc.
La distribución normal también aparece en muchas
áreas de la propia estadística. Por ejemplo, la distribución
muestral de las mediasmuestrales
es aproximadamente normal, cuando la distribución de la población de la cual se
extrae la muestra no es normal.1 Además, la distribución normal
maximiza la entropía entre
todas las distribuciones con media y varianza conocidas, lo cual la
convierte en la elección natural de la distribución subyacente a una lista de
datos resumidos en términos de media muestral y varianza. La distribución
normal es la más extendida en estadística y muchos tests estadísticos están
basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece
como el límite de varias distribuciones de probabilidad continuas y discretas.
El Teorema del Límite Central
Gráfica de la función de distribución
de una normal con μ = 12 y σ = 3, aproximando la función de distribución de una binomialcon n = 48 y p =
1/4
El Teorema del
límite central establece que bajo ciertas condiciones (como
pueden ser independientes e idénticamente distribuidas con
varianza finita), la suma de un gran número de variables aleatorias se
distribuye aproximadamente como una normal.
La importancia
práctica del Teorema del límite central es que la función de distribución de la
normal puede usarse como aproximación de algunas otras funciones de
distribución. Por ejemplo:
·
Una distribución
binomial de parámetros n y p es
aproximadamente normal para grandes valores de n, y p no
demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación
sólo si np yn(1 − p) son ambos, al
menos, 5; en este caso se debería aplicar unacorrección
de continuidad).
La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
·
Una distribución de
Poisson con parámetro λ es aproximadamente normal para grandes
valores de λ.
La distribución normal aproximada tiene parámetros μ = σ2 = λ.
La distribución normal aproximada tiene parámetros μ = σ2 = λ.
La exactitud de
estas aproximaciones depende del propósito para el que se necesiten y de la
tasa de convergencia a la distribución normal. Se da el caso típico de que
tales aproximaciones son menos precisas en las colas de la distribución. El Teorema
de Berry-Esséen proporciona un límite superior general del
error de aproximación de la función de distribución.
