Professional Documents
Culture Documents
Resumo P1
Resumo P1
Probabilidade Independente:
P(A|B) = P(A) * P(B)
Probabilidade Dependente:
Teorema de Bayes
P(A|B) = P(AB) / P(B) = P(B|A)P(A) / P(B)
Esperança:
n +∞
E ( X )= X⋅P ( X )=∑ ( x i⋅p( x i )) ou E ( X )= ∫ x⋅f ( x) dx
i=1 −∞
Variância:
n +∞
VAR ( X )=E (( X −E ( X ))2 )=∑ ( x i −μ x )2 p ( x i ) ou VAR ( X )= ∫ (x−μ x )2⋅f (x) dx
i=1 −∞
2 2
Simplificação: VAR ( X )=E ( X )−( E ( X )) (lei do estatístico inconsciente)
Notações: VAR ( X )=V ( X )=σ 2 ( x)=σ 2x =σ 2
Propriedades:
a) VAR ( k )=0 ; k : constante
b) VAR ( kX )=k 2 VAR( X ) ; k : constante
c) VAR ( X ±Y )=VAR( X )+VAR(Y )±2COV ( X , Y )
d) VAR ( X ±Y )= E (( X ±Y )2 )−( E ( X ±Y ))2
Covariância:
COV ( X , Y )=E [( X − E ( X ))(Y −( E (Y )))]
Desvio padrão:
σ= √ VAR ( X )
Probabilidade Conjunta:
P ( X =x i , Y = y j )=P ( x i , y j )
m n
∑ ∑ P( xi , y j )=1
i=1 j=i
Distribuição marginal:
n
P ( X =x i )=∑ P ( X =x i ,Y = y j )
j=i
Distribuição condicional:
P( x i : y j )
P ( x i | y j )= ; j : fixo e i={1,2,. .. m }
P( y j )
Variáveis Aleatórias Independentes:
P ( x i : y j )=P (x i )⋅P( y j )
E ( X ±Y )= E ( X )±E (Y )
COV ( X , Y )=E ( XY )− E ( X ) E (Y )
Coeficiente de Correlação:
COV ( X , Y )
ρ=
σxσ y
Função Distribuição:
F ( X )=P ( X ≤x)= ∑ p ( x i )
x i ≤x
Propriedades:
a) 0≤F ( X )≤1
b) F (−∞)=0
c) F (+∞)=1
Distribuição de Bernoulli:
Fazendo n tentativas em um experimento dicotômico onde p é a probabilidade de sucesso.
n (1−n)
P ( X =n)= p (1− p)
E ( X )= p
VAR ( X )= p (1− p)
Distribuição de Geométrica:
Fazendo n tentativas até um primeiro sucesso em um experimento dicotômico onde p é a
probabilidade de sucesso. Este é um caso particular do Bernoulli.
( x−1)
P ( X =n)= p(1− p)
E ( X )=1/ p
(1− p)
VAR ( X )=
p2
Distribuição de Pascal:
Fazendo n tentativas até que ocorra r sucessos em um experimento dicotômico onde p é a
probabilidade de sucesso. Este é um caso geral para a sistribuição geométrica.
q=1− p
n−1 r (n−r )
P ( X =n)=( )p q
r−1
E ( X )=r / p
rq
VAR ( X )= 2
p
Distribuição de Hipergeométrica:
Retirando n elementos de uma população N, dos quais r elementos tenha uma determinada
característica.
( Nn )
E ( X )=np
N −n
VAR ( X )=np (1− p)
N −1
n!
()
n=
x x ! (n−x) !
Distribuição de Binomial:
Fazendo n tentativas em experimentos i.i.d. dicotômicos (com 2 resultados) onde p é a
probabilidade de sucesso e x é a quantidade de sucessos.
Notação: X : B(n , p)
n=número de eventos
p=probabilidade
x=quantidade de sucessos
()
P ( X =x)= n p x (1− p)(n−x)
x
E ( X )=np
VAR ( X )=np (1− p)
n!
()
n=
x x ! (n−x) !
Distribuição de Polinomial:
Considere um experimento aleatório com k eventos { A1, A 2. .. Ak } sendo P ( Ai )= pi e
k
n 1 ! n2 ! ...
E ( X i )=ni pi
VAR ( X i )=ni p i q i
Distribuição de Poisson:
Quando a probabilidade de sucesso em um intervalo é proporcional ao intervalo.
Notação:
X : P ( λ)
λ relação de ocorrência com o intervalo np
e−λ⋅λ k
P ( X =k )=
k!
E ( X )=λ
VAR ( X )=λ
Variáveis Contínuas:
+∞
E ( X )= ∫ x⋅f ( x) dx
−∞
+∞
E ( X )= ∫ x 2⋅f ( x) dx
2
−∞
VAR ( X )=E ( X 2 )− E 2 ( X )
+∞
F ( x)=P ( X ≤x)= ∫ f ( x) dx
−∞
x
f ( x)= F ( x)
dx
Distribuição Uniforme:
Quando a probabilidade de ocorrência f(x) é constante k no intervalo a, b.
{
f.d.p. f ( x)= k se a≤ x≤b
b
0 se x<a ou x>b }
1 1
F ( X )=1=∫ kdx=kb−ka=k (b−a )=1 portanto k = e f ( x)= e
a b−a b−a
{ }
0 se x<a
F ( x)= x−a se a≤x≤b
b−a
1 se b<x
b
x b+a
E ( X )=∫ dx=
a b−a 2
b 2 2 2
x b +ab+a
E ( X )=∫
2
dx=
a b−a 3
(b−a)2
VAR ( X )=E ( X 2 )− E 2 ( X )=
12
Distribuição Exponencial:
Quando a probabilidade de ocorrência f(x) é dada pela equação:
{ }
−λ x
f.d.p. f ( x)= λ e se x>0
0 se x<0
∞
F ( X )=∫ λ e−λ x dx=1
0
x
F ( x)=1=∫ λ e
−λ s −λ x
ds=1−e
0
1
E ( X )=
λ
1
VAR ( X )= 2
λ
Distribuição Normal:
Quando a probabilidade de ocorrência f(x) é dada pela equação:
Notação: X : N (μ , σ 2 )
μ =média
σ =desvio padrão
E ( X )=μ
VAR ( X )=σ 2
X −μ
Variável normal reduzida: Z =
σ
1
E ( Z )= VAR( X )=0
μ
1
VAR ( Z )= 2 VAR ( X )=1
σ