You are on page 1of 5

Disciplina: USP-EACH 2053 Introdução à Estatística

Documento: Resumo de Estatística P1

Probabilidade Independente:
P(A|B) = P(A) * P(B)

Probabilidade Dependente:
Teorema de Bayes
P(A|B) = P(AB) / P(B) = P(B|A)P(A) / P(B)

Esperança:
n +∞
E ( X )= X⋅P ( X )=∑ ( x i⋅p( x i )) ou E ( X )= ∫ x⋅f ( x) dx
i=1 −∞

Notações: E ( X )=μ( x)=μ x =μ


Propriedades:
a) E ( X )=k ; k : constante
b) E ( kX )=kE ( X ) ; k : constante
c) E ( X ±Y )= E ( X )±E (Y )
d) E ( aX +b)=aE ( X )+b ; a ,b : constante
e) E ( X −μ x )=0

Variância:
n +∞
VAR ( X )=E (( X −E ( X ))2 )=∑ ( x i −μ x )2 p ( x i ) ou VAR ( X )= ∫ (x−μ x )2⋅f (x) dx
i=1 −∞
2 2
Simplificação: VAR ( X )=E ( X )−( E ( X )) (lei do estatístico inconsciente)
Notações: VAR ( X )=V ( X )=σ 2 ( x)=σ 2x =σ 2
Propriedades:
a) VAR ( k )=0 ; k : constante
b) VAR ( kX )=k 2 VAR( X ) ; k : constante
c) VAR ( X ±Y )=VAR( X )+VAR(Y )±2COV ( X , Y )
d) VAR ( X ±Y )= E (( X ±Y )2 )−( E ( X ±Y ))2
Covariância:
COV ( X , Y )=E [( X − E ( X ))(Y −( E (Y )))]
Desvio padrão:
σ= √ VAR ( X )

Probabilidade Conjunta:
P ( X =x i , Y = y j )=P ( x i , y j )
m n

∑ ∑ P( xi , y j )=1
i=1 j=i
Distribuição marginal:
n
P ( X =x i )=∑ P ( X =x i ,Y = y j )
j=i
Distribuição condicional:
P( x i : y j )
P ( x i | y j )= ; j : fixo e i={1,2,. .. m }
P( y j )
Variáveis Aleatórias Independentes:
P ( x i : y j )=P (x i )⋅P( y j )
E ( X ±Y )= E ( X )±E (Y )
COV ( X , Y )=E ( XY )− E ( X ) E (Y )

Coeficiente de Correlação:
COV ( X , Y )
ρ=
σxσ y

Função Distribuição:
F ( X )=P ( X ≤x)= ∑ p ( x i )
x i ≤x
Propriedades:
a) 0≤F ( X )≤1
b) F (−∞)=0
c) F (+∞)=1

Distribuição de Bernoulli:
Fazendo n tentativas em um experimento dicotômico onde p é a probabilidade de sucesso.
n (1−n)
P ( X =n)= p (1− p)
E ( X )= p
VAR ( X )= p (1− p)

Distribuição de Geométrica:
Fazendo n tentativas até um primeiro sucesso em um experimento dicotômico onde p é a
probabilidade de sucesso. Este é um caso particular do Bernoulli.
( x−1)
P ( X =n)= p(1− p)
E ( X )=1/ p
(1− p)
VAR ( X )=
p2

Distribuição de Pascal:
Fazendo n tentativas até que ocorra r sucessos em um experimento dicotômico onde p é a
probabilidade de sucesso. Este é um caso geral para a sistribuição geométrica.
q=1− p
n−1 r (n−r )
P ( X =n)=( )p q
r−1
E ( X )=r / p
rq
VAR ( X )= 2
p

Distribuição de Hipergeométrica:
Retirando n elementos de uma população N, dos quais r elementos tenha uma determinada
característica.

Amostras sem reposição ( Nn ) , sucessos ( kr ) , fracassos ( Nn−k−r ) 0≤k ≤n e k ≤r


P ( X =n)=
( k )( n−k )
r N −r

( Nn )
E ( X )=np
N −n
VAR ( X )=np (1− p)
N −1
n!
()
n=
x x ! (n−x) !

Distribuição de Binomial:
Fazendo n tentativas em experimentos i.i.d. dicotômicos (com 2 resultados) onde p é a
probabilidade de sucesso e x é a quantidade de sucessos.
Notação: X : B(n , p)
n=número de eventos
p=probabilidade
x=quantidade de sucessos

()
P ( X =x)= n p x (1− p)(n−x)
x
E ( X )=np
VAR ( X )=np (1− p)
n!
()
n=
x x ! (n−x) !

Distribuição de Polinomial:
Considere um experimento aleatório com k eventos { A1, A 2. .. Ak } sendo P ( Ai )= pi e
k

∑ pi =1 . Seja X i o número de ocorrências de Ai em n tentativas. Este é o caso


i=1
genérico para a Binomial.
Notação:
X : P ( n , p1, p 2,. ..)
n número de tentativas independentes
pi probabilidade de cada evento Ai
n!
P ( X 1 =x 1, X 2 =x 2,. ..)= p n1 p n2 ...
1 2

n 1 ! n2 ! ...
E ( X i )=ni pi
VAR ( X i )=ni p i q i

Distribuição de Poisson:
Quando a probabilidade de sucesso em um intervalo é proporcional ao intervalo.
Notação:
X : P ( λ)
λ relação de ocorrência com o intervalo np
e−λ⋅λ k
P ( X =k )=
k!
E ( X )=λ
VAR ( X )=λ

Aproximação Binomial pela Poisson quando n>30 ( n → ∞ ; p → 0 ) onde λ=np


n! k n−k e−np⋅( np)k
P ( X =k )= p (1− p) ≈
k ! (n−k )! k!

Variáveis Contínuas:
+∞
E ( X )= ∫ x⋅f ( x) dx
−∞
+∞
E ( X )= ∫ x 2⋅f ( x) dx
2
−∞
VAR ( X )=E ( X 2 )− E 2 ( X )
+∞
F ( x)=P ( X ≤x)= ∫ f ( x) dx
−∞
x
f ( x)= F ( x)
dx

Distribuição Uniforme:
Quando a probabilidade de ocorrência f(x) é constante k no intervalo a, b.

{
f.d.p. f ( x)= k se a≤ x≤b
b
0 se x<a ou x>b }
1 1
F ( X )=1=∫ kdx=kb−ka=k (b−a )=1 portanto k = e f ( x)= e
a b−a b−a

{ }
0 se x<a
F ( x)= x−a se a≤x≤b
b−a
1 se b<x
b
x b+a
E ( X )=∫ dx=
a b−a 2
b 2 2 2
x b +ab+a
E ( X )=∫
2
dx=
a b−a 3
(b−a)2
VAR ( X )=E ( X 2 )− E 2 ( X )=
12

Distribuição Exponencial:
Quando a probabilidade de ocorrência f(x) é dada pela equação:

{ }
−λ x
f.d.p. f ( x)= λ e se x>0
0 se x<0

F ( X )=∫ λ e−λ x dx=1
0
x

F ( x)=1=∫ λ e
−λ s −λ x
ds=1−e
0
1
E ( X )=
λ
1
VAR ( X )= 2
λ

Distribuição Normal:
Quando a probabilidade de ocorrência f(x) é dada pela equação:
Notação: X : N (μ , σ 2 )
μ =média
σ =desvio padrão
E ( X )=μ
VAR ( X )=σ 2

X −μ
Variável normal reduzida: Z =
σ
1
E ( Z )= VAR( X )=0
μ
1
VAR ( Z )= 2 VAR ( X )=1
σ

Aproximação da Binomial pela Normal:


X −np
Quando B ( n , p) para n>20 então μ=np e σ= √ npq e Z = ≡ N (0,1)
√ npq
Distribuição de funções de variáveis aleatórias normais:
n n
X : N (∑ μ i , ∑ σ i2)
i=1 i=1
n
E ( X )=∑ μ i
i=1
n n n n
VAR ( X )=VAR( ∑ X i )=∑ VAR( X i )+2 ∑ COV ( X i , X j )= ∑ σ i2
i=1 i=1 i≠ j i=1
n 2
̄ =N (μ , σ )
̄ = 1 ∑ X i então X
X
n i=1 n

You might also like