TEOREMA DE
BAYES
En la teoría de la
probabilidad el teorema de Bayes es un resultado
enunciado por Thomas Bayes en 1763 que
expresa la probabilidad condicional de un evento aleatorio A dado B en
términos de la distribución de probabilidad condicional del evento B dado Ay
la distribución de probabilidad marginal de sólo A.
En términos más generales y menos
matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la
probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo
la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría
saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene
un dolor de cabeza, muestra este sencillo
ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus
ramas, puesto que tiene vinculación íntima con la comprensión de la
probabilidad de aspectos causales dados los efectos observados.
Si A 1, A 2 ,... , An son:
Sucesos incompatibles 2 a 2.
Y cuya unión es el espacio muestral (A 1
A 2
...
A n =
E).
Y B es otro suceso.
Resulta que
Las
probabilidades p(A1) se denominan probabilidades a priori.
Las
probabilidades p(Ai/B) se denominan probabilidades a posteriori.
Las
probabilidades p(B/Ai) se denominan verosimilitudes.
Ejemplos
El 20% de los empleados de una empresa son ingenieros y otro 20% son
economistas. El 75% de los ingenieros ocupan un puesto directivo y el 50% de
los economistas también, mientras que los no ingenieros y los no economistas
solamente el 20% ocupa un puesto directivo. ¿Cuál es la probabilidad de que un
empleado directivo elegido al azar sea ingeniero?
La probabilidad de que haya un accidente en una fábrica que dispone de alarma es 0.1. La probabilidad de que suene esta sí se ha producido algún incidente es de 0.97 y la probabilidad de que suene si no ha sucedido ningún incidente es 0.02.
En el supuesto de que haya funcionado la alarma, ¿cuál es la
probabilidad de que no haya habido ningún incidente?
Sean los sucesos:
I = Producirse incidente.
ESPERANZA MATEMÁTICA
En estadística la esperanzamatemática (también
llamada esperanza, valor esperado, media
poblacional o media) de una variable
Aleatoria, X es
el número E(X) que formaliza la idea de valor medio de
un fenómeno aleatorio.
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo
y cabe destacar que 3,5 no es un valor
posible al rodar el dado. En este caso, en el que todos los sucesos son de
igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:
que es -0,0526 aproximadamente. Por lo
tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que
apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo
de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni
perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la
"esperanza" de perder tu apuesta de 1€, por eso es negativo el valor.
El segundo paréntesis es la esperanza matemática de ganar los 35€.
La esperanza matemática del beneficio
es el valor esperado a ganar menos el valor esperado a perder.
DEFINICIÓN
Para una variable aleatoria discreta con valores posibles
La definición general de esperanza se
basa, como toda la teoría de la probabilidad, en el marco de
la teoría de la medida y se define como la siguiente integral:
Las esperanzas
para
se
llaman momentos de orden
. Más
importantes son los momentos centrados
.
No todas las variables aleatorias
tienen un valor esperado. Por ejemplo, la distribución de Cauchy no
lo tiene.
PROPIEDADES
La esperanza es un operador
lineal, ya que:
Combinando estas propiedades, podemos ver que -
Donde X e Y son variables aleatorias y a y b y c son tres constantes cualquiera.
MEDIA
En matemáticas y estadística una media o promedio es una medida de
tendencia central que según la Real Academia Española (2001) resulta
al efectuar una serie determinada de operaciones con un conjunto de números y
que, en determinadas condiciones, puede representar por sí solo a todo el
conjunto. Existen distintos tipos de medias, tales como la media
geométrica, la media ponderada y la media armónica aunque en el
lenguaje común, el término se refiere generalmente a la media aritmética
MEDIA ARITMÉTICA
Es un promedio estándar que a menudo se denomina "promedio".
La media se confunde a veces con
la mediana o moda. La media aritmética es el promedio de un
conjunto de valores, o su distribución; sin embargo, para las distribuciones
con sesgo, la media no es necesariamente el mismo valor que la mediana o que
la moda. La media, moda y mediana son parámetros característicos de una
distribución de probabilidad. Es a veces una forma de medir
el sesgo de una distribución tal y como se puede hacer en las
distribuciones exponencial y de Poisson.
Por ejemplo, la media aritmética de 34,
27, 45, 55, 22, 34 (seis valores) es
MEDIA ESTADISTICA
La media
estadística se usa en estadística para dos conceptos diferentes aunque
numéricamente similares:
La media muestral, que es
un estadístico que se calcula a partir de la media
aritmética de un conjunto de valores de una variable aleatoria.
La media poblacional, valor esperado
o esperanza matemática de una variable aleatoria.
En la
práctica dada una muestra estadística suficientemente grande el valor
de la media muestral de la misma es numéricamente muy cercano a la esperanza
matemática de la variable aleatoria medida en esa muestra. Dicho valor
esperado, sólo es calculable si se conoce con toda exactitud la distribución de
probabilidad, cosa que raramente sucede en la realidad, por esa razón, a
efectos prácticos la llamada media se refiere normalmente a la media muestral.
MEDIA MUESTRAL
La media resume en un valor las
características de una constante teniendo en cuenta a todos los
casos. Solamente puede utilizarse con variables cuantitativas
Media muestral: Si se tiene una muestra estadística de valores
DESVIACIÓN ESTANDAR
La desviación
estándar o desviación típica (denotada con el símbolo
σ o s, dependiendo de la procedencia del conjunto de datos) es una medida
de centralización o dispersión para variables de razón (radio o cociente)
y de intervalo, de gran utilidad en la estadística descriptiva.
Se define como la raíz cuadrada de
la varianza. Junto con este valor, la desviación típica es una medida
(cuadrática) que informa de la media de distancias que tienen los datos
respecto de su media aritmética, expresada en las mismas unidades que
la variable.
Para conocer con detalle un conjunto de
datos, no basta con conocer las medidas de tendencia central, sino que
necesitamos conocer también la desviación que presentan los datos en su
distribución respecto de la media aritmética de dicha distribución, con objeto
de tener una visión de los mismos más acorde con la realidad al momento de
describirlos e interpretarlos para la toma de decisiones.
DISTRIBUCIÓN DE PROBABILIDAD CONTINÚA
Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz cuadrada de la integral
Dónde:
Distribución de probabilidad discreta
La DS es la raíz cuadrada de la varianza de la distribución de probabilidad discreta
Así la
varianza es la media de los cuadrados de las diferencias entre cada valor de
la variable y la media aritmética de la distribución.
Aunque esta fórmula es correcta, en la práctica interesa realizar inferencias poblacionales, por lo que en el denominador en vez de n, se usa n-1 (Corrección de Bessel) Esta ocurre cuando la media de muestra se utiliza para centrar los datos, en lugar de la media de la población. Puesto que la media de la muestra es una combinación lineal de los datos, el residual a la muestra media se extiende más allá del número de grados de libertad por el número de ecuaciones de restricción - en este caso una. Dado esto a la muestra así obtenida de una muestra sin el total de la población se le aplica esta corrección con la fórmula desviación estándar muestral. Cuando los casos tomados son iguales al total de la población se aplica la fórmula de desviación estándar poblacional.
También hay otra función más sencilla de realizar y con menos riesgo de tener equivocaciones:
DISTRIBUCIÓN BINOMIAL
La probabilidad de ocurrencia de una
combinación específica de eventos independientes y mutuamente excluyentes se
determina con la distribución binomial, que es aquella donde hay solo dos
posibilidades, tales como masculino/femenino o si/no.
Hay
dos resultados posibles mutuamente excluyentes en cada ensayo u observación.
La
serie de ensayos u observaciones constituyen eventos independientes.
La
probabilidad de éxito permanece constante de ensayo a ensayo, es decir el
proceso es estacionario.
Para
aplicar esta distribución al cálculo de la probabilidad de obtener un número
dado de éxitos en una serie de experimentos en un proceso de Bermnoulli, se
requieren tres valores: el número designado de éxitos
(m), el número de ensayos y observaciones (n); y la probabilidad de éxito en
cada ensayo (p).
Entonces la probabilidad de que ocurran
m éxitos en un experimento de n ensayos es:
P (x = m) = (nCm)(Pm)(1−P)n−m
Siendo: nCm el número total de
combinaciones posibles de m elementos en un conjunto de n elementos.
En otras palabras P(x = m) = [n!/(m!(n−m)!)](pm)(1−p)n−m
Ejemplo.
La probabilidad de que un alumno apruebe la asignatura Cálculo de
Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15 alumnos
¿Cuál es la probabilidad de que aprueben 10 de ellos?
P(x = 10) = 15C10 (0,15)10(0,85)5 =
10!/(10!(15−10)!)(0,15)10(0,85)5 = 7,68 * 10−6 Generalmente
existe un interés en la probabilidad acumulada de "m o más " éxitos o
"m o menos" éxitos en n ensayos. En tal caso debemos tomar en cuenta
que:
P(x < m) = P(x = 0) + P(x = 1) + P(x
= 2) + P(x = 3) +....+ P(x = m − 1)
P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +....+ P(x = n)
P(x ≤ m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m)
P(x ≥ m) = P(x = m) + P(x = m+1) + P(x = m+2) +....+ P(x
= n)
Supongamos que del ejemplo anterior se
desea saber la probabilidad de que aprueben:
a.− al menos 5
b.− más de 12
a.− la probabilidad de que aprueben al
menos 5 es:
P(x ≥ 5) es decir, que:
1 - P(x < 5) = 1 - [P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] =
1 - [0,0874 + 0,2312 + 0,2856 + 0,2184
+ 0,1156] = 0,0618
Nota:
Al menos, a lo menos y por lo menos son locuciones adverbiales sinónimas.
Ejemplo:
La entrada al cine por lo menos tendrá un costo de 10 soles (como mínimo podría
costar 10 soles o más).
b.− la probabilidad de que aprueben más
de 12 es P(x > 12) es decir, que:
P(x > 12) = P(x = 13)+P(x = 14)+P(x
= 15)
P(x > 12) = 1,47 *10−9 +3,722
*10−11 +4,38 *10−13 = 1,507 *10−9
La esperanza matemática en una
distribución binomial puede expresarse como:
E(x) = np = 15(0,15)=2,25
Y la varianza del número esperado de
éxitos se puede calcular directamente:
Var(x) = np(1−p)= 15(0,15)(1-0,15)=1,9125
Estadísticas y probabilidades, con sus diferentes
diagramaciones como: diagrama de barras. Diagrama de línea. Y diagrama de
círculos que se aplican de acuerdo al tipo de estadísticas y probabilidades
matemáticas.
.
No hay comentarios:
Publicar un comentario