ENERO

Martes, 03 de Enero  del 2017,




Media y varianza para variables aleatorias continuas  
Sean:
x: v.a.c
f(x): función de dencidad de probabilidad de x.
Entonces:
A la media de X algunas veces se le llama esperanza, o valor esperado, de X y se puede denotar también por E(X) o por μ .



 La varianza de X:




La desviación estandar es la raiz cuadrada de la varianza.


Viernes, 06 de Enero  del 2017

Proceso de bernoullí

Un proceso de Bernoulli es la repetición de un ensayo de Bernoulli. Por ejemplo de una moneda estaremos estudiando cuántas veces sale "cara" o cuántas veces sale "cruz", o la probabilidad de que salga "cara", al menos una vez, de un número n de intentos. Es importante que se cumpla que:
  1. La probabilidad de éxito permanece constante ensayo tras ensayo.
  2. Los ensayos deben de ser independientes entre sí.
Los procesos de Bernoulli son un caso concreto de proceso estocático de tiempo discreto. Según el problema que nos plantemeos sobre el resultado de un proceso de Bernoulli pueden surgir distintas distribuciones asociadas:
  • Si nos preguntamos sobre la probabilidad de obtener r éxitos en n ensayos, la probabilidad de que suceda en un ensayo es p, corresponde la llamada distribucion binomial:
{\displaystyle {\frac {n!}{r!(n-r)!}}p^{r}(1-p)^{n-r}}
  • Si queremos saber la probabilidad de necesitar exactamente n ensayos para obtener r éxitos, debemos usar la distribucion binomial negativa
{\displaystyle {\frac {(n-1)!}{(r-1)!(n-r)!}}p^{r}(1-p)^{n-r}}
La distribución de Pascal es un caso particular de la distribución binomial negativa que requiere que los valores de n y r sean enteros, mientras que en la distribución binomial negativa r puede ser real mayor que cero y n-r entero no negativo (la fórmula que figura más arriba corresponde a la distribución de Pascal).

Cuando r=1 se obtiene la distribución geométrica.

Martes, 10 de Enero del 2017.


Distribución de Poisson:






Distribución de Poisson con respecto al tiempo




Distribución geométrica

En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes:
-la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
-la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.

Propiedades


  1. La distribución geométrica no tiene memoria, es decir, 
  2. Si la probabilidad de éxito en cada ensayo es p, entonces la de que x ensayos sean necesarios para obtener un éxito es  para x = 1, 2, 3,.... Equivalentemente, la de que haya x fallos antes del primer éxito es  para y = 0, 1, 2,... .En ambos casos, la secuencia de es una progresión geométrica.
  3. El valor esperado de una variable aleatoria X distribuida geométricamente es  y dado que Y = X-1.
  4. En ambos casos, la varianza es .
  5. Las funciones generatrices de X y la de Y son, respectivamente, .
  6. Como su análoga continua, la distribución exponencial, la distribución geométrica carece de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de condicional del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución geométrica es de hecho la única distribución discreta sin memoria.
  7. De todas estas distribuciones de contenidas en {1, 2, 3,... } con un valor esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor entropía.
  1. La distribución geométrica del número y de fallos antes del primer éxito es infinitamente divisible, esto es, para cualquier entero positivo n, existen variables aleatorias independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1.

DISTRIBUCIÓN BINOMIAL NEGATIVA

Este modelo de probabilidad tienen características similares al modelo binomial: 
  1. La cantidad de ensayos n, que se realiza es finita.
  2. Cada ensayo tiene únicamente dos resultados posibles
  3. Todos los ensayos realizados son independientes.
  4. La probabilidad p. de obtener éxito en cada ensayo es constante.
  5. Pero, en este modelo la variable aleatoria es diferente:



"EN LA DISTRIBUCION BINOMIAL NEGATIVA, LA VARIABLE DE INTERES ES LA CANTIDAD DE ENSAYOS QUE SE REALIZAN HASTA OBTENER UN NUMERO REQUERIDO DE ÉXITOS."



Media y varianza de la distribución Binomial Negativa


Martes, 17 de Enero del 2017

Distribución Uniforme Discreta

Es una distribución de probabilidad donde la variable discreta "x" toma un finito número de valores con la misma probabilidad; a estos resultados se les denomina equiprobables debido a que todos ellos poseen la misma probabilidad de suceder. Donde:
 
Esperanza y Varianza
 
 
Características
  • La variable aleatoria toma valores finitos  cada uno  con idéntica probabilidad.
  • La varianza y esperanza de una v,a,d no depende de los valores que puede tomar la variable x sino únicamente del tamaño de la muestra
Ej: Se lanza un dado con forma de octaedro. Calcule  la esperanza y varianza
x: posibles resultados del dado
S: {1,2,3,4,5,6,7,8}
P(x=k) = 1/8
E(x) =9/2
Var(x)= 21/4


Distribución Hipergeométrica

Se refieren a los experimentos que consisten en tomar muestras sin reposición, de un conjunto finito, el cual contiene resultados considerados "éxitos" y "fracasos" . 
 
Donde:
N: cantidad de elementos del conjunto del que se toma la muestra
k: cantidad de elementos que se consideran éxitos
n: tamaño de la muestra
x: v.a.d. Cantidad de resultados exitosos

Esperanza y Varianza

  
  • Se puede considerar que la distribución hipergeométrica se aproxima a la distribución binomial si n< 0.05N, entonces      X~Bi(n , k/N)
Distribución de Probabilidad Uniforme Continua
 X~ u [a,b] 
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/Images/C4t1g1.gif 
 
Características
  • La probabilidad es constante en el intervalo [a,b]
  • La probabilidad se determina en un intervalo, debido a que es una variable aleatoriacontinua
  • La probabilidad en un punto es cero 
Esperanza y Varianza
  
 

Viernes, 20 de Enero del 2017

Prueba I del Segundo Bimestre




martes, 24 de enero del 2017

Siguiendo con las exposiciones, en esta clase se habló sobre la Distribución Normal, que es una de las mas importantes.

Distribución Normal
La distribución normal (también conocida como distribución de Gauss) es la distribución más utilizada en la estadística. Constituye un buen modelo para muchas, aunque no para todas las poblaciones continuas.

Su función de distribución viene dada por:

                                  

Su media y varianza son:










Funcion de densidad normal estándar:
z~N(0,1) 


  
 Función de distribución normal estándar:


Algunas formulas:

  • P(Z≥z)=1-F(z)
  • P(a≤Z≤b)=F(b)-F(a) 




viernes, 27 de enero del 2017


Este día se continuo con las exposiciones, el grupo que exponía hablo sobre la Distribución Exponencial.


 Distribución Exponencial

La distribución exponencial es una distribución continua que algunas veces se utiliza para modelar el tiempo que transcurre antes de que ocurra un evento. A menudo, a aquél se le llama tiempo de espera. En algunas ocasiones la distribución exponencial se utiliza para modelar el tiempo de vida de un componente. Asimismo, hay una relación cercana entre la distribución exponencial y la distribución de Poisson.
La función de densidad de probabilidad de la distribución exponencial tiene un paráme-
tro, que representa una constante positiva λ cuyo valor determina la localización y forma de la función.
λ=coeficiente de razón   ;     λ>0
X~Exp(λ)

La función de distribución acumulada es: 

 
Su media y varianza:
 

Propiedades:

  • No tiene memoria, es decir no importa lo que paso antes.
  • Procesos independientes (eventos que siguen un proceso de Poisson).
  • Si x1,x2,.......,xn es una muestra aleatoria de Exp (λn), entonces el parámetro λ se estima:
 , la incertidumbre viene dada por .

 El estimar es mucho mas seguro si n>20.

Propiedad falta de memoria
Si T  Exp(λ), y "t" y "s" son números positivos, entonces:

P(T>t+s/T>s)=P(T>t) 




Relación entre Poisson y Distribución Exponencial
x: Cuenta el número de eventos que ocurre en un tiempo [0,1] con una media λt, entonces:
      ; r=0,1,2,.......n.

T: Tiempo que transcurre hasta que sucede el primer evento de Poisson. El rango de T es [0,∞[ y su distribución de probabilidad es:
FT(t)=P(Tt)=1-P(t>t)
FT(t)=1-P(x=0)
FT(t)=1-λe^(-λt)         , t>0

fT(t)=F'T(t)=λe^(-λt) 

Despúes de las respectivas indicaciones y acabando de dar toda la teoría los compañeros procedieron a realizar ejercicios, para que así los temas explicados en la clase queden más claros.

 


martes, 31 de enero del 2017


Este día se continuo con las exposiciones, el grupo que exponía hablo sobre Teorema del limite Central.  

Teorema del limite Central
Sea X1,X2.......,X2 una muestra aleatoria simple de una población con media u y varianza σ2


Sea la media muestral        

=(x1+x2+....+xn)/n

Si n es demasiado grande


~N(u,σ2/2)


 Sn~N(nu,nσ2/2)

Propiedades

  • Si el tamaño muestral es mayor a 30, la aproximación del teorema del limite central es buena.
  • Tenemos una muestra aleatoria (son independientes e igualmente distribuidos), con una media comun u y σ2.
  • Si x es la media de una muestra de tamaño n extraida de una población que tiene media u y varianza σ2, entonces:
 
 Despúes de las respectivas indicaciones y acabando de dar toda la teoría los compañeros procedieron a realizar ejercicios, para que así los temas explicados en la clase queden más claros.
Después de esto la ingeniera dio un tema que falto aclarar que son los valores referenciales de la Distribución Normal.

                                         
Valores referenciales de la Distribución Normal

 

i) P(X∈[u-σ ;u+σ])  ~68%

ii) P(X∈[u-2σ ;u+2σ])  ~95%

iii) P(X∈[u-3σ ;u+3σ])  ~100%

 Después de esto se procedio a la demostración de los tres literales y se prosiguó con el siguiete grupo que exponia acerca de los intervalos de confianza para la media poblacional en muestras grandes.

Intervalos de Confianza para la Media Poblacional en Muestras Grandes.
 Preferibe para n ≥ 30.

 

(1-α)=Nive de confianza
n= Tamaño de la muestra
α=Nivel de confianza
u=Dato promedio de la Población
s=Desviación estándar muestral    

El intervalo de confianza viene dado por:

 Límite inferior                              Limite superior         

Despúes de las respectivas indicaciones y acabando de dar toda la teoría los compañeros procedieron a realizar ejercicios, para que así los temas explicados en la clase queden más claros.

No hay comentarios:

Publicar un comentario