Professional Documents
Culture Documents
Apostila Estatistica Duarte
Apostila Estatistica Duarte
Outubro/2007
Autores :
Marcus Antonio Viana Duarte
Tatiana Meola
1. Planejamento Experimental 1
1.1. Introdução 1
1.1.1. Técnicas Para Definição da Seqüência de Ensaios 2
1.1.2. Etapas do Planejamento Experimental e Análise de Resultados 4
1.2. Conceitos Básicos de Estatística 5
1.2.1. Experimentos Aleatórios 5
1.2.2. Espaço Amostral e Eventos 6
1.2.3. Freqüência Relativa 6
1.2.4. Probabilidade 7
1.2.5. Variáveis Aleatórias 8
1.2.6. Medidas de Tendência Central 10
1.2.7. Medidas de Dispersão 11
1.2.8. Momentos, Assimetria e Curtose. 13
1.2.9. Desigualdade de Chebyshev 15
1.2.10. Teorema do Limite Central 16
1.2.11. Distribuições Características de Amostragens 17
Distribuição Normal 17
Distribuição Chi-quadrado χ2 18
Distribuição t de Student 20
Distribuição F de Snedcor 21
1.2.12. Estimadores 22
Propriedades dos Estimadores 23
1.2.13. Intervalos de confiança. 25
Intervalo de Confiança para a Média µ 25
Variância conhecida 25
Variância Desconhecida 27
Diferença entre duas médias (µa - µb ). 28
Variâncias Conhecidas 28
Variâncias Desconhecidas 29
Intervalo de Confiança para Proporção 30
Intervalo de confiança para a diferença entre proporções 31
Intervalo de confiança para a variância (σ2) 31
1.3. Testes de Hipóteses 32
1.3.1. Tipos de Erros 34
1.3.2. Procedimento geral de teste 35
1.3.3. Teste para uma média 36
1.3.4. Teste para uma proporção 37
1.3.5. Decisões e poder 39
1.4. Comparação entre dois tratamentos 39
1.4.1. Diferença entre médias de dois grupos 39
Erro padrão - assumindo desvios padrões iguais 40
I.C. para a diferença entre médias assumindo desvios padrão iguais 40
Teste para a diferença das médias 40
I.C. para diferença de médias - desvios padrão diferentes 41
1.4.2. Comparando proporções 41
Intervalo de confiança para a diferença em proporções 41
Teste para a diferença de duas proporções 42
2. Comparações entre Mais de dois Tratamentos 43
2.1. Introdução 43
2.1.1. Objetivo 43
2.1.2. Pressupostos 43
2.1.3. Hipóteses 43
2.1.4 Notação 44
2.1.5 Modelo 44
2.1.6. Estatística do Teste 45
2.1.7. Análise 45
2.1.8. Tabela de ANOVA 46
2.2. Teste de Normalidade 47
2.2.1 - Teste de Kolmogorov-Smirnov 47
2.2.2 Teste de Shapiro-Wilk 50
2.2.3 - Teste D’Agostino-Pearson 52
2.3. Teste de Homocedasticidade 54
2.3.1. Teste de Hartley 54
2.3.2. Teste de Cochran 55
2.3.3. Teste de Bartlett 55
2.4. Teste de Kruskal-Wallis 56
2.4.1 Pressupostos 56
2.4.2 Limitações 56
2.4.3 O Teste 56
3. Blocos Aleatorizados e Planejamentos Fatoriais com Duas Classificações 59
3.1. Testes de Hipótese de Dados Emparelhados 59
3.2. Blocos Aleatorizados 60
3.3. Efeitos de Tratamentos: Planejamento Aleatorizado por Níveis 61
3.3.1. Análise de um modelo de efeitos fixos 63
3.3.2 Comparação das médias individuais dos tratamentos 66
3.3.3 Análise de um modelo de efeitos aleatórios 70
3.4. Efeitos de Blocos 71
3.4.1. Planejamento por Níveis Completo Aleatorizado por Blocos 71
3.4.2. Planejamento Por Níveis Incompleto Aleatorizados Por Blocos 74
4. Planejamentos com Múltiplos Blocos 77
4.1. Planejamentos Quadrados Latinos 77
4.2. Planejamento Quadrado Greco-Latino 80
5. Planejamentos Fatoriais: Modelos Empíricos 83
5.1. Planejamento Fatorial Completo 22* 83
5.1.1. Cálculo dos efeitos 85
5.1.2. Interpretação geométrica dos efeitos 86
5.1.3. Interpretação dos Resultados de um planejamento 22 87
5.1.4. Codificação dos fatores 88
−p
5.2. Experimentos Fatoriais Fracionados 2kResolução 88
1. Planejamento Experimental
1.1. Introdução
O planejamento experimental, também denominado delineamento experimental,
representa um conjunto de ensaios estabelecido com critérios científicos e estatísticos,
com o objetivo de determinar a influência de diversas variáveis nos resultados de um
dado sistema ou processo (Button, 2005). Com isso, objetiva a determinação do número
ideal de experimentos que leve à obtenção de resultados com um dado grau de
confiabilidade.
Esse objetivo maior pode ser dividido em outros objetivos de acordo com o
propósito dos ensaios:
a. determinar quais variáveis são mais influentes nos resultados;
b. atribuir valores às variáveis influentes de modo a otimizar os resultados;
c. atribuir valores às variáveis influentes de modo a minimizar a variabilidade dos
resultados;
d. atribuir valores às variáveis influentes de modo a minimizar a influência de
variáveis incontroláveis;
A utilização das técnicas estatísticas de planejamento experimental possibilita:
· a redução do número de ensaios sem prejuízo da qualidade da informação;
· o estudo simultâneo de diversas variáveis, separando seus efeitos;
· a determinação da confiabilidade dos resultados;
· a realização da pesquisa em etapas, num processo iterativo de acréscimo de novos
ensaios;
· a seleção das variáveis que influem num processo com número reduzido de
ensaios;
· a representação do processo estudado através de expressões matemáticas;
· a elaboração de conclusões a partir de resultados qualitativos.
O planejamento experimental é uma ferramenta essencial no desenvolvimento de
novos processos e no aprimoramento de processos em utilização. Um planejamento
adequado permite, além do aprimoramento de processos, a redução da variabilidade de
resultados, a redução de tempos de análise e dos custos envolvidos. (Button, 2005)
No que se refere ao projeto de produtos, o planejamento experimental permite a
avaliação e comparação de configurações (projetos) distintas, avaliação do uso de
1
materiais diversos, a escolha de parâmetros de projeto adequados a uma ampla faixa de
utilização do produto e à otimização de seu desempenho. Os conceitos sobre
planejamento experimental podem ser resumidos em três termos muito empregados
atualmente: qualidade, produtividade e competitividade.
2
Por exemplo, ao se definir para o caso do exemplo anterior (influência da pressão
sobre a velocidade de reação) três valores para a pressão e quatro réplicas para cada
valor de pressão, teremos doze ensaios, como mostrado na Tabela 1.
Tabela 1
Pressão Número dos Ensaios
p1 1 2 3 4
p2 5 6 7 8
p3 9 10 11 12
3
ao acaso a seqüência como cada corpo-de-prova será ensaiado (primeiramente pelo
penetrador no. 1 ou vice-versa).
4
um conhecimento profundo dos instrumentos, equipamentos e métodos de controle e
monitoramento;
6. Análise dos resultados, com o uso de métodos estatísticos, a fim de que as conclusões
estabelecidas sejam objetivas. Destaque-se que esses métodos não permitem afirmar se
uma dada variável apresenta ou não um determinado efeito: eles apenas garantem a
confiabilidade e a validade dos resultados, de modo que se possa determinar o erro
associado nas conclusões, de acordo com um dado grau de confiança previamente
estabelecido;
7. Elaboração das conclusões e recomendações a partir da análise dos resultados.
As conclusões e recomendações permitirão que decisões sejam tomadas a respeito
do processo em estudo. Uma documentação extensa, com o uso de gráficos e tabelas
permite que se apresentem os resultados obtidos, a análise efetuada, bem como futuras
repetições do procedimento empregado.
5
1.2.2. Espaço Amostral e Eventos
O conjunto formado por todos os possíveis resultados de um processo aleatório é
denominado espaço amostral (S).
Exemplo1: Lançamento simultâneo de três moedas e o registro das faces obtidas. Para
este experimento o espaço amostral é:
S = {KKK; KKC; KCK; CKK; KCC; CKC; CCK; CCC}em que , K = cara e C =
coroa.
Exemplo 2: Processo aleatório: Verificar a vida útil de uma lâmpada.
S = {x ∈ R : 0 ≤ x ≤ 24 meses}
Exemplo 3: Processo aleatório: Verificar a cor das flores de uma planta de feijoeiro.
S = {branca; roxa; amarela}.
Qualquer sub-conjunto do espaço amostral (S) é denominado evento. O evento A:
exatamente duas caras obtidas no lançamento de uma moeda, é representado pelo
conjunto:
A = { KKC; KCK; CKK }
Uma vez que os eventos podem ser interpretados como conjuntos, a eles podemos
aplicar as operações empregadas na teoria de conjuntos. Assim: Se A e B forem
eventos:
A ∪ B será o evento que ocorrerá se, e somente se, A ou B (ou ambos)
ocorrerem.
A ∩ B será o evento que ocorrerá se, e somente se, A e B ocorrerem.
A’ será o evento que ocorrerá se, e somente se, A não ocorrer.
A e B são mutuamente excludentes se não puderem ocorrer juntos, ou seja, A ∩ B =
∅, onde ∅ indica o evento vazio (nenhuma ocorrência).
6
3) fA = 0 se, e somente se, A nunca ocorrer nas n repetições
4) Se A e B forem mutuamente excludentes e se fA∪B for a frequência relativa
do evento A ∪ B, então fA∪B = fA + fB.
1.2.4. Probabilidade
A chamada definição clássica de probabilidade de: Dado um conjunto de N eventos
equiprováveis, a probabilidade de ocorrência de um determinado evento A, é dada pela
razão:
n
P( A) =
N
onde:
n é o número de eventos de interesse
N o número total de eventos
As propriedades básicas da probabilidade de A são:
1. 0 ≤ P(A) ≤ 1
2. P(S) = 1
3. Se A e B forem mutuamente excludentes: P(A ∪ B) = P(A) + P(B)
A escolha das probabilidades acima é, obviamente, sugerida, pelas correspondentes
características da freqüência relativa.
Pode-se mostrar que os números P(A) e fA são próximos um do outro quando fA for
baseado em um grande número de repetições.
Com base nas propriedades da probabilidade e das operações conhecidas da teria
dos conjuntos, pode-se demonstrar os seguintes teoremas:
Teorema 1: P(∅) = 0.
Teorema 2: Para um evento A qualquer, P(A) = 1 – P(A’).
Teorema 3: Se A e B são dois eventos quaisquer, então, P(A ∪ B) = P(A) + P(B) -
P(A ∩ B).
Teorema 4: Se A, B e C forem três eventos quaisquer, então, P(A ∪ B ∪ C) = P(A)
+ P(B) + P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C).
7
Existem vários experimentos aleatórios para os quais os resultados possíveis são
igualmente prováveis. Entretanto, muitos experimentos não apresentam esta
característica, a qual deve, portanto, ser cuidadosamente testada e justificada.
Exemplo: Um dado equilibrado é lançado, a probabilidade do evento A = {resultado
maior do que 4}, é o número de resultados favoráveis a A, que são dois resultados, sair
os números 5 e 6, e o número de resultados possíveis de todo o espaço amostral é 6.
Então:
número de resultados favoráveis a A
P( A) = (1.1)
número de resultados possíveis em todo o espaço amostral
2 1
P( A) = =
6 3
8
incontroláveis. A existência deste erro caracteriza a variável de resposta como sendo
uma variável aleatória (V.A.), que pode ser discreta se apresentar um número finito de
valores possíveis, ou contínua, se estiver dentro de um intervalo de valores.
A probabilidade de uma variável aleatória x é dada pela sua distribuição de
probabilidade. Caso a variável seja discreta, essa distribuição é uma função
probabilidade p(x), caso seja contínua, passa a ser denominada função densidade de
probabilidade f(x) (f.d.p).
Na figura 1, representa-se p(x), para uma distribuição discreta, onde a função
representa a probabilidade P da distribuição.
Na figura 2, é mostrada f(y), sendo P representada pela área sob a curva num dado
intervalo. Juntamente com cada figura, apresentam-se as propriedades de cada uma das
probabilidades em cada caso.
9
Observações:
9 f(x), a função densidade de probabilidade, não é probabilidade. Somente
quando for integrada entre dois limites ela produzirá uma probabilidade, que
será a área sob a curva y = f(x) entre x = a e x =b, sendo a < b.
x0
9 P( x = x0 ) = ∫ f ( x)dx = 0
x0
μ= ∑ x p( x) , se x é discreta.
todos y
∞ (1.4)
μ= ∫ x f ( x) dx , se x é contínua.
−∞
Pode-se definir μ como o valor médio esperado para um número elevado de ensaios,
ou seja E(X), também denominado operador do valor esperado (Bendat, 1986).
Exemplo: Para a variável aleatória contínua definida por:
⎧ f ( x) = 0 para x<0
⎪ x
⎨ f ( x) = para 0 ≤ x ≤ 2
⎪ 2
⎩ f ( x) = 0 para x>2
tem-se:
∞
∞ 0 2x2 4
E( X ) = ∫ xf ( x)dx = ∫ 0dx + ∫ dx + ∫ 0dx = unidade
−∞ −∞ 0 2 3
2
2
Em particular, para f(x) = x , o valor esperado para esta função é dado por:
∞
E(x 2 ) = ∫x f ( x) dx = ψ 2x
2
(1.5)
−∞
10
1.2.7. Medidas de Dispersão
A variância σ2 representa a dispersão de uma distribuição e é definida como:
∞
σ = ∫ (x − μ)
2 2
f ( x) dx , se x for contínua. (1.7)
−∞
σ 2 = E[( x − μ ) 2 ] (1.8)
Também se pode definir um operador de variância V(x) igual a:
V ( x) = E[( x − μ ) 2 ] = σ 2 (1.9)
A partir dos parâmetros m, s2 e c (constante), têm-se as seguintes propriedades:
1. E(c) = c 7. E(y1 + y2) = E(y1) + E(y2) = μ1 + μ2
2. E(y) = μ 8. V(y1 + y2) = V(y1) + V(y2) + 2Cov(y1 y2)
3. E(c y) = c E(y) = c μ 9. V(y1 - y2) = V(y1) + V(y2) – 2Cov(y1 y2)
4. V(c) =0 10. V(y1 ± y2) = V(y1) + V(y2) = σ 12 + σ 22
5. V(y) = σ2 11. E(y1 y2) = E(y1) E(y2) = μ1 μ2
6. V(c y) = c V(y) = c σ
2 2 2
⎛ y ⎞ E ( y1 )
12. E ⎜⎜ 1 ⎟⎟ ≠
⎝ y2 ⎠ E ( y2 )
iguais a σ 12 e σ 22 .
No caso das propriedades 10 e 11, assume-se que essas variáveis sejam
independentes.
O parâmetro covariância ( Cov(x,y) ) representa a associação linear que existe entre as
variáveis x e y. A covariância, a qual mede o grau de dispersão conjunta de duas
variáveis aleatórias, é dada por:
cov(x, y ) = E[( x − μ x )( y − μ y )]
11
∞ ∞
E ( XY ) = ∫ ∫ ( xy)dxdy (1.10)
−∞ −∞
que é a soma corrigida dos quadrados das observações (xi), ou seja, a soma dos
quadrados das diferenças x1 − x , x2 − x , x3 − x , K, xn − x . Como a somatória dessas
diferenças é igual a zero, somente n-1 elementos são independentes. Assim, SS tem n-1
graus de liberdade, ou ν = n-1, de modo que:
⎛ SS ⎞
E⎜ ⎟ = σ 2
⎝ν ⎠
12
1.2.8. Momentos, Assimetria e Curtose.
Momentos
Se x1; x2; . . . ; xn são os n valores assumidos pela variável X, define-se a
quantidade:
∑
n
x r + x2r + L + x nr xrr
X = 1
r
= i =1
(1.13),
n n
como o momento de ordem r em relação a origem. Nota-se que o primeiro momento em
relação à origem ( X 1 ) é a média de X.
O momento de ordem r em relação a uma origem k, qualquer, é dado por:
n
∑ ( xi − k ) r
i =1
M r' (k ) = (1.14)
n
O momento de ordem r em relação à média X é dado por:
n
∑ ( xi − X ) r (1.15)
i =1
M r' ( X ) =
n
onde:
xi é o ponto médio da i-ésima classe
Fi = freqüência absoluta da i-ésima classe.
13
distribuição é assimétrica à direita ou assimétrica positiva. Se o inverso ocorre, diz-se
que ela é assimétrica à esquerda ou negativa.
O coeficiente de assimetria (Cs) é dado por:
M 3'
Cs = (1.17)
(σ 2 )1,5
14
Coeficiente de Curtose
Curtose é o grau de achatamento de uma distribuição, considerado usualmente em
relação à distribuição normal, que será detalhada na seção 1.2.11. A distribuição que
tem um pico relativamente alto é chamada leptocúrtica, enquanto a distribuição que
possui o topo achatado é denominada platicúrtica e a distribuição que não é muito
pontiaguda, nem muito achatada, como acontece com a distribuição normal é
denominada mesocúrtica. O coeficiente de curtose é dado por:
M 4'
Ck = (1.20)
(σ 2 ) 2
Distribuição Platicúrtica
15
∞ 2
∫− ∞ x p(x)dx ≥ ∫ x ≥ε x p(x )dx
2 (1.22)
ψ x2
Pr ob[ x ≥ ε ] =
∞
∫ x ≥ε p (x )dx ≤ (1.24)
ε2
Substituindo x por x - μ, ψ2 será substituído por σ2 e a desigualdade de Chebyshev
pode ser escrita como:
σ x2
Pr ob[ x − μ x ≥ ε ] ≤ (1.25)
ε2
Fazendo ε = cσ, uma constante real vezes o desvio padrão, chega-se à forma final da
desigualdade de Chebyshev:
Pr ob[ x − μ x ≥ cσ ] ≤
1
(1.26)
c2
16
1.2.11. Distribuições Características de Amostragens
Distribuição Normal
Uma das distribuições de amostragem mais empregadas em técnicas estatísticas para
modelar experimentos aleatórios com número de réplicas elevado é a distribuição
normal f(x) ou distribuição de Gauss, definida para uma variável aleatória x.
É a mais importante das distribuições de probabilidades contínuas, pois a maioria
delas segue esta distribuição, aliado ao fato da facilidade e boa precisão que é obtida na
aproximação de outras distribuições para a normal, e o Teorema do Limite Central
(TLC) que é a base das estimativas e testes de hipóteses, realizados sobre a média de
uma população qualquer, que garante que a distribuição amostral das médias segue uma
distribuição normal, independentemente da distribuição da variável em estudo (Silva,
2005).
A função densidade probabilidade normal é dada por:
2
1 ⎛ x−μ ⎞
− ⎜ ⎟
1
f ( x) = e 2⎝ σ ⎠ (1.28)
2πσ
17
9 As três medidas de posição, média, mediana e moda se confundem no ponto de
máximo da curva (x = µ)
9 Fica perfeitamente definida conhecendo-se a média e o desvio padrão
9 Tem dois pontos de inflexão em x = µ ± σ
9 É assintótica em relação ao eixo das abicissas
Sendo a equação (1.28) uma função densidade probabilidade (f.d.p), a área
∞
compreendida entre a curva e o eixo x é igual a 1, ou seja, ∫
−∞
f ( x)dx = 1 . Portanto, a
b
área sob a curva entre os pontos a e b dada por ∫
a
f ( x)dx = 1 representa a probabilidade
Distribuição Chi-quadrado χ2
Uma distribuição de amostragem bastante empregada é a chi-quadrado, ou
distribuição χ2:
18
Se z1, z2, z3,...., zk são variáveis aleatórias, normalmente e independentemente
distribuídas, com μ= 0 e σ2 = 1 [NID(0,1)], então:
χ k2 = z12 + z 22 + ..... + z k2
onde χ k2 é uma variável aleatória que segue a distribuição chi-quadrado com k graus de
liberdade. A função densidade de chi-quadrado é:
1
( χ 2 ) ( k / 2)−1 e − χ
2
f (χ 2 ) = /2
, χ2 > 0 (1.29)
⎛k⎞
2 k / 2 Γ⎜ ⎟
⎝2⎠
onde Γ(n) é a função gama. Para n inteiro positivo, Γ(n) = (n-1)!
A distribuição chi-quadrado é assimétrica e distorcida, com µ = k e σ2 = 2k.
Seja uma distribuição normal, onde x1, x2, ..., xn, representam uma amostra retirada de
uma distribuição N(µ, σ2). Tem-se que:
n
SS
∑ ( xi − x ) 2
i =1
= ≈ χ n2−1 (1.30)
σ 2
σ 2
19
Distribuição t de Student
x−μ
Viu-se que a variável z = ~ N(0; 1). De modo semelhante, pode-se
σ
demonstrar que:
x−μ
z= ~ N(0; 1)
σ (1.31)
n
Suponha que o parâmetro σ em 1.31 seja substituído por seu estimador não
tendencioso:
s 2
=
∑ ( xi − x ) 2
(1.32)
n −1
Assim, a equação 1.31 ficará:
x−μ
t=
s (1.33)
n
Pode-se demonstrar que a variável t, segue uma distribuição t de student com k = n –
1 graus de liberdade, cuja função densidade probabilidade é:
⎛ k +1⎞ k +1
Γ⎜ ⎟ −
⎝ 2 ⎠ ⎛ 2 ⎞ 2
f ( x) = ⎜1 + x ⎟ (1.34)
⎛k⎞ ⎜ k ⎟⎠
Γ⎜ ⎟ π k ⎝
⎝2⎠
Esperança: E(t) = 0;
k
Variância: V (t ) =
k+2
Características:
9 É simétrica em relação ao ponto x = 0 (média)
9 Se k tende para infinito, t tende para z, como pode ser observado na figura abaixo.
20
Distribuições t de student com 5 e 30 graus de liberdade e distribuição normal
padronizada.
Distribuição F de Snedcor
χ u2 u
Fu ,v = (1.36)
χ v2 v
segue a distribuição F, com u graus de liberdade para o numerador e v para o
denominador.
A distribuição de probabilidade de F é dada por:
u/2
⎛ u + v ⎞⎛ u ⎞
Γ⎜ ⎟⎜ ⎟ F (u / 2)−1
h( F ) = ⎝ 2 ⎠⎝ v ⎠ 0<F<∞
(u + v ) / 2 (1.34)
⎛ u ⎞ ⎛ v ⎞ ⎡⎛ u ⎞ ⎤
Γ⎜ ⎟Γ⎜ ⎟ ⎢⎜ ⎟ F + 1⎥
⎝ 2 ⎠ ⎝ 2 ⎠ ⎣⎝ v ⎠ ⎦
21
Por exemplo, suponha duas populações com distribuição normal e variâncias
idênticas. Se retirarmos uma amostra de cada população, respectivamente x11, x12, ..., x1n
e x21, x22, ..., x2n, com n1-1 e n2-1 graus de liberdade, então:
S12
≈ Fn1 −1,n2 −1
S 22
onde S12 e S 22 são as variâncias das amostras. Ou seja, a razão das variâncias das
amostras segue uma distribuição F.
Caso σ 12 ≠ σ 22 , tem-se:
S12
σ 12 S12 S 22
F= pois (n1 − 1) ≈ χ n21 −1 e (n2 − 1) ≈ χ n22 −1
S 22 σ 12 σ 22
σ 22
1.2.12. Estimadores
Estimador
Consideremos uma amostra (x1; x2; x3; ... ; xn) de uma variável aleatória que deve
descrever uma característica de interesse da população. Seja θ um parâmetro que
desejamos estimar, como por exemplo a média µ = E(x) ou a variância σ2 = V (x). Um
estimador, θˆ , do parâmetro θ é uma variável aleatória, que é função das observações x1;
x2; x3; ... ; xn.
Assim,
22
n
∑ xi
i =1
x= é um estimador da média populacional µ
n
n
∑ ( xi − x ) 2
i =1
s2 = é um estimador da variância populacional σ2
n −1
Estimativa
Estimativa é o valor numérico assumido pelo estimador quando os valores
observados x1; x2; x3; ... ; xn são considerados.
Assim,
x = 70 kg é um estimador da média populacional µ
23
n
∑ ( xi − x ) 2
i =1
Exemplo 2: s 2 = é um estimador tendencioso da variância populacional σ2
n −1
Portanto:
B) Consistência
Um estimador θˆ é um estimador consistente do parâmetro θ se:
lim n→∞ E[ θˆ ] = θ;
24
lim n→∞ V[ θˆ ] = 0;
n
∑ xi
i =1
x= é um estimador consistente da média populacional µ, pois:
n
E( x ) = µ;
σ2
lim n→∞ V[ x̂ ] = = 0.
n
C)
D) Eficiência
Se θ1 e θ2 são dois estimadores não tendenciosos de θ, então θ1 é mais eficiente que
θ2 se V(θ1) < V(θ2).
A eficiência relativa do estimador θ1 em relação ao estimador θ2 é dada por:
V (θ 2 )
Efθ1 ,θ 2 =
V (θ1 )
1.2.13. Intervalos de confiança.
Conhecendo-se a distribuição amostral do estimador, de um parâmetro θ, pode-se
facilmente determinar um intervalo que apresente uma confiança 1 - α para θ, como
será visto a seguir.
25
E o intervalo de confiança para µ, com uma confiança de 1 - α, pode ser então
escrito como:
σ
IC ( μ )1−α = x ± z α (1.35)
2
n
σ N −n
IC ( μ )1−α = x ± z α (1.36)
n N −1
2
onde:
N é o tamanho da população;
n é o tamanho da amostra.
Exemplo: Uma máquina produz rolamentos que apresentam desvio padrão de 0.042
polegadas em seu diâmetro. Desejando-se conhecer o diâmetro médio dos rolamentos
produzidos por esta máquina, extraiu-se uma amostra de 100 rolamentos, observando-se
uma média igual a 0.824 polegadas: Obter o intervalo com 0.90 de confiança para o
verdadeiro diâmetro médio dos rolamentos.
Solução:
Tem-se x = 0.824, σ = 0.042, n= 100, 1- α = 0.90 substituindo esses valores em
1.35 vem:
26
É obviamente incorreto, do ponto de vista da estatística clássica, dizer que a
probabilidade do intervalo [0.817; 0.831] conter o valor µ é 0,90. Pois essa
probabilidade é 0 ou 1, dependendo de µ pertencer ou não ao intervalo fixo.
Variância Desconhecida
Quando não se conhece σ2 e consequentemente σ, mas sim sua estimativa s, o
intervalo de confiança para a média será dado por:
Amostras Pequenas (n ≤ 30)
s
IC ( μ )1−α = x ± t α (1.37)
2
n
s N −n
IC ( μ )1−α = x ± t α (1.38)
n N −1
2
onde:
N é o tamanho da população;
n é o tamanho da amostra.
Amostras Grandes (n > 30)
Foi visto que à medida que se aumenta o tamanho da amostra, a distribuição t de
Student se aproxima da distribuição normal. Deste modo, quando se estiver trabalhando
com amostras grandes (n > 30), pode-se utilizar a distribuição normal padronizada z em
lugar da t na obtenção dos intervalos de confiança, mesmo que σ2 seja desconhecida.
Exemplo: Uma Companhia adquiriu 500 cabos. Uma amostra de 30 deles
selecionados ao acaso apresentou tensão de ruptura média igual a 2400 kg com desvio
padrão de 150 kg. Obter o intervalo com 95% de confiança para a verdadeira tensão
média de ruptura destes cabos.
Solução:
27
Tem-se: N = 500 n = 30, x = 2400, s = 150, 1- α = 0.95.
σ a2 σ b2
IC ( μ a − μ b )1−α = x a − xb ± z α − (1.39)
na nb
2
onde:
xa e xb são as estimativas pontuais das médias das populações a e b, respectivamente;
28
Conclusão: Pode-se afirmar com 95% de confiança que a verdadeira diferença entre os
diâmetros médios dos tubos produzidos pelas empresas A e B está entre -2 ± 1.2973mm,
isto é, entre -3.2973 e -0.7027 mm. Como esse intervalo não compreende o valor 0
(zero) tem-se 95% de confiança em afirmar que os diâmetros médios dos tubos
produzidos por estas empresas não são iguais.
Variâncias Desconhecidas
Populações Homocedásticas
1 1
IC ( μ a − μ b )1−α = x a − xb ± t α s p + (1.40)
n a nb
2
onde:
29
Populações Heterocedásticas
s a2 sb2
IC ( μ a − μ b )1−α = x a − xb ± t α + (1.41)
n a nb
2
pˆ qˆ
IC ( P)1−α = pˆ ± z α (1.42)
n
2
onde:
p̂ é a proporção estimada na amostra;
qˆ = 1 − pˆ ;
n é o tamanho da amostra
Obs.: Se ocorrer ASRPF, o intervalo de confiança para proporção é dado por:
pˆ qˆ N −n
IC ( μ )1−α = pˆ ± z α (1.43)
n N −1
2
30
pˆ qˆ
IC ( P)1−α = pˆ ± t α (1.44)
n
2
pˆ qˆ N −n
IC ( μ )1−α = pˆ ± t α (1.45)
n N −1
2
onde:
p̂a é a proporção estimada na amostra;
qˆ a = 1 − pˆ a ;
qˆ b = 1 − pˆ b
na e nb são os tamanhos das amostras a e b, respectivamente.
Obs.: Se ocorrer ASRPF, deve-se multiplicar o componente da variância, referente à
N −n
população na qual ocorreu ASRPF pelo fator de correção .
N −1
Amostras pequenas (n ≤ 30):
pˆ a qˆ a pˆ b qˆ b
IC ( Pa − Pb )1−α = ( pˆ a − pˆ b ) ± t α + (1.47)
na nb
2
31
Sabe-se que:
(n − 1) s 2
~ χ n2−1 (1.48)
σ 2
Então,
⎡ ⎤
⎢ (n − 1) s 2 2⎥
(n − 1) s
⎢ ≤σ2 ≤ ⎥ = 1−α (1.49)
⎢ χ α 2
χ α2 ⎥
⎢⎣ 1− 2 2 ⎥⎦
32
Teste de hipóteses fornece-nos a estrutura para que façamos isto. Veremos que
intervalos de confiança e testes de hipóteses estão intimamente relacionados.
(Shimakura e Ribeiro, 2003)
Para a realização de um teste de hipóteses, devem-se formular duas hipóteses
estatísticas, a saber:
9 Hipótese de nulidade (H0) é a hipótese que seria testada, sendo geralmente
formulada com o intuito de ser rejeitada.
9 Hipótese alternativa (Ha) é qualquer hipótese que contrarie H0.
Exemplo: Suponha que se esteja interessado em verificar se a verdadeira
performance (km/litro de combustível) dos veículos, de determinada marca, equipados
com motores 1.6 c.c. seja de 14km/l, como afirma o fabricante, ou se este é inferior a
14km/l. Então deve-se formular as seguintes hipótese estatísticas:
33
ser menor que 14 km/l. Nesta situação, diz-se que a diferença foi significativa, portanto
a hipótese H0 deve ser rejeitada (o teste foi significativo).
Obs.: Não existe nenhum argumento científico para se fixar o nível de probabilidade
limite de um teste em 0.05. Este é apenas um valor usual, devido à facilidade de sua
obtenção em tabelas. Nos nossos exemplos temos:
⎛ σ2⎞
x ~ N ⎜ μ, ⎟ , assumindo μ = 14 km/l, e como não se conhece σ2, mas sim s2, tem-se:
⎜
⎝ n ⎟⎠
⎛ 4⎞
x ~ t (8) ⎜14, ⎟
⎝ 9⎠
gráfico:
x−μ 13 − 14
tc = = = −1.5
σ 2
n 9
Então,
Como esta probabilidade é alta, não há razões para acreditar que a verdadeira
performance média seja inferior a 14 km/l.
34
verdade μ ≠14 km=/l, e por efeito de acaso obter uma estimativa, que nos leve a não
rejeição da hipótese H0 : μ= 14 km/l. Nesta situação ter-se-á cometido o erro Tipo II
(aceitar H0 falsa). A probabilidade de cometer este erro é (β), sendo esta uma função de
α, H0 e do tamanho amostral. As probabilidades de se cometer os erros Tipo I e Tipo II,
(α e β) são inversamente proporcionais, como pode ser observado na figura abaixo,
sendo que, a única maneira de se diminuir simultaneamente α e β é aumentando o
tamanho amostral (n).
Os tipos de erros que podem ser cometidos em um teste de hipóteses, bem como
suas probabilidades estão resumidos na tabela 1.1.
Tabela 1.1. Tipos de erros passíveis de serem cometidos ao se testar uma hipótese.
35
2. Decida qual o teste a ser usado, checando se este é válido para o seu problema.
3. Calcule a estatística de teste, T.
4. Encontre a probabilidade (p-valor) de observar um valor tão extremo ou maior do
que T se a hipótese nula é de fato verdadeira. Você precisará se referir aos valores
críticos nas tabelas estatísticas as quais fornecem p-valores correspondendo aos
valores das estatísticas de teste.
5. Avalie a força da evidência contra H0.(Quanto menor p-valor, tanto mais evidência
contra a hipótese nula.) Se necessário, decida se esta é evidência suficiente para
rejeitar (ou não rejeitar) a hipótese nula.
6. Estabeleça as conclusões e interpretação dos resultados.
36
s
3. Calcule o erro padrão, SE = .
n
(μˆ − μ 0 )
4. Calcule a estatística de teste t = . Este é o número de erros padrão que
SE
μ̂ dista do valor de hipótese μ0.
5. Encontre o p-valor da distribuição t, com r = n-1 graus de liberdade, da tabela
usando os valores absolutos da estatística de teste.
6. Estabeleça conclusões e interprete os resultados.
Agora suponha que tenhamos um valor hipotético p0 para uma proporção. Podemos
realizar um teste de H0: p = p0 praticamente da mesma forma que o test-t acima. A
dualidade com intervalos de confiança segue exatamente da mesma forma. Suponha que
tenhamos uma amostra aleatória de tamanho n de uma população de interesse onde a
verdadeira proporção de membros numa categoria em particular é p. A hipótese nula é
H0: p = p0. Se o número observado na categoria de interesse é , então um teste da
hipótese é como segue:
1. Estabeleça a hipótese nula, H0: p = p0, e a hipótese alternativa Ha: H0: p ≠ p0..
x
2. Calcule a proporção amostral p̂ = .
n
)
p(1 − p̂ )
3. Calcule o erro padrão, SE =
n
( p̂ − p 0 )
4. Calcule t = , o número de erros padrão que p̂ dista do valor de
SE
hipótese p0.
5. Encontre o p-valor usando o valor absoluto da estatística de teste da tabela da
distribuição normal (ou equivalentemente da t com r = ∞ graus de liberdade).
Uma regra geral é que este teste é válido quando tem-se ambos np̂ e
n (1 − p̂) maiores do que digamos 10.
37
Quantas vezes ouvimos dizer “85 em cada 100 brasileiros preocupam-se com …”.
Se um pesquisador sério quiser saber o tamanho da amostra para fazer esta afirmação
com um erro máximo igual a ε, como deverá proceder?
⎛ x ⎞
P ( ε ) = P ( pˆ − p ≤ ε ) = P ⎜ − p ≤ ε ⎟
⎝n ⎠
Portanto:
⎧⎪ nε x − np nε ⎫⎪
P ( ε ) = P ⎨− ≤ < ⎬
⎪⎩ np (1 − p ) np (1 − p ) np (1 − p ) ⎪⎭
x − np
z= tem distribuição N(0,1).
np(1 − p)
ε n
z=
p(1 − p)
Portanto, para um dado erro ε, e uma projeção para p, é possível fazer uma
estimativa do tamanho necessário para a amostra. Quando não se tem nenhuma
expectativa com relação a p (por ex. p>90%), utiliza-se o valor máximo para o
denominador que é para p=0,5.
z=1,96
38
1.3.5. Decisões e poder
Ao tomar uma decisão a favor ou contra uma hipótese existem dois tipos de erros
que você pode cometer. Você pode rejeitar a hipótese nula quando de fato ela é
verdadeira (erro tipo I) ou você pode falhar em rejeitar H0 quando de fato ela é falsa
(erro tipo II). Existe um balanço entre esses dois tipos de erros, no sentido de que ao
tentar-se minimizar a possibilidade de um tipo, aumenta-se a probabilidade do outro.
Frequentemente, denotamos as probabilidades destes dois erros como α e β,
respectivamente.
medidas por x1 , s1, n1 para a amostra um e x2 , s1, n1 para a amostra dois. Denote as
correspondentes médias populacionais e desvios padrão μ1, μ2, σ1 e σ2 respectivamente.
39
Erro padrão - assumindo desvios padrões iguais
dada por
Agora podemos calcular o erro padrão das diferenças nas médias como
40
que é a estimativa de μ1 - μ2 menos o valor hipotético (zero neste caso) e tudo dividido
pelo erro padrão. Sob a hipótese nula, este segue uma distribuição t com n1 + n2 - 2
g.d.l. O valor obtido para t (ignorando seu sinal) é comparado com os valores tabelados
com os graus de liberdade apropriados, para obter um p-valor.
41
onde p̂1 e p̂ 2 são as estimativa de p1 e p2.
Com isso podemos construir um intervalo de confiança da forma usual, ou seja,
42
2. Comparações entre Mais de dois Tratamentos
Apesar de ser muito eficiente para comparação entre duas amostras, o teste t não
deve ser aplicado para comparações múltiplas devido a problemas com o erro do Tipo I.
Sabendo que em um teste de hipótese a probabilidade p de ocorrer um erro do tipo I
é igual ao nível de significância α, ao realizarmos n testes de hipóteses a distribuição
resultante será uma binomial. Portanto, a probabilidade de ocorrer k erros do tipo I pode
ser calculada pela Eq. 2.1.
prob ( k ) = C nk p k (1 − p )
n −k
(2.1)
2.1. Introdução
A análise de variância ANOVA é a técnica universalmente utilizada em
comparações envolvendo várias amostras de dados.
2.1.1. Objetivo
Ao se utilizar uma ANOVA, o objetivo é a comparação de a grupos (tratamentos,
populações) representados por ni indivíduos (observações) em cada grupo.
2.1.2. Pressupostos:
As amostras são aleatórias e independentes.
Os grupos têm distribuição normal.
Os grupos são homocedásticos (variâncias constantes).
2.1.3. Hipóteses
H 0 : μi = μ i = 1,L , I
H1 : μi ≠ μ para pelo menos um i
43
2.1.4 Notação
ni
x i• 1
x i• = =
ni ni
∑ xij , é a média das ni observações do grupo i;
j=1
X •• 1 a ni
x •• = = ∑∑ x ij , é a média total.
N N i =1 j=1
onde N é o número total de observações
2.1.5 Modelo
Dado a j-ésima variável aleatória xij do i-ézimo grupo, a diferença com relação à
média amostral global pode ser escrita como:
x ij − x = ( x i• − x ) + ( x ij − x i• )
a n a n a n a n
∑∑ ( x ij − x ) = ∑∑ ( x i • − x ) + ∑∑ ( x ij − x i• ) + 2∑∑ ( x i• − x ) ( x ij − x i• ) (2.2)
2 2 2
∑(x
j=1
ij − x i• ) = 0
a n a a n
∑∑ ( x − x ) = n ∑ ( x i• − x ) + ∑∑ ( x ij − x i• )
2 2 2
ij (2.3)
i =1 j=1 i =1 i =1 j=1
ou
SQDt = SQDg + SQDe
44
onde N é o número total de observações e gl (ou ν) significa graus de liberdade.
Portanto, podemos definir:
(2.4)
2.1.7. Análise
Se os pressupostos forem válidos, MQe é um estimador da variância das populações.
Por outro lado, se a hipótese nula for verdadeira a esperança matemática de MQg será
nula. Se a hipótese nula for falsa, MQg tende a resultar em valores maiores do que MQe
para compensar a dispersão de MQt, como pode ser visto na Figura 2.2 (lembre-se que
SQg=SQt-SQe), a qual mostra as curvas função densidade de probabilidade de três
populações com distribuição normal e a população resultante da combinação das três.
45
Figura 2.1. Exemplo de Hipótese H0 aceita.
46
Tabela 2.1. Tabela com os resultados da ANOVA
Fonte de Soma dos Graus de Médias
F F(α,νg,νe)
Variação Quadrados liberdade quadráticas
Entre
SQDg a-1 QMg QMg/ QMe
Grupos
Dentro dos
SQDe N-a QMe
grupos
Total SQDt N-1
Apesar da análise de variância ser bem robusta com relação aos pressupostas, um
teste de normalidade e um de homocedasticidade devem ser realizados para fins de
controle.
Nos testes de normalidade, o passo inicial consiste na formulação das hipóteses:
47
A estatística apropriada do teste é baseada na maior diferença absoluta entre a
função de distribuição normal acumulada, F(zi) , e a freqüência relativa observada
acumulada e ajustada, F0,5 . As expressões utilizadas são:
1
D máx = g máx +
2n
onde:
gmáx : maior valor calculado de g;
n : tamanho da amostra ou número de parcelas.
g = F ( zi ) − F0,5
F0,5 =
( i − 0,5)
n
F(zi): função de distribuição normal acumulada;
i: número da amostra;
Passo 4: Conclusão
Quando o valor Dmáx for maior que o valor crítico dado pela Tabela 2.3, para um
tamanho de amostra n, δ = 0,5 e significância α), a hipótese Ho é rejeitada e conclui-se
que a característica em estudo da população não segue a distribuição normal. Por outro
lado, se Dmáx for menor que o valor crítico tabelado ( Dmáx < Dt ), a hipótese Ho é
aceita e conclui-se que a característica em estudo da população segue a distribuição
normal.
48
Para n>40 os valores críticos de Dn podem ser aproximados pelas seguintes
expressões:
Fig. 2.3. Tabela com os passos necessários para calcular Dmáx para o exemplo.
49
Passo 4: Conclusão
Como a amostra é menor que 100, o valor de Dmáx = 0,1704 deve ser comparado
com o valor Dt = 0,21072 obtido na Tabela 2.2 para n = 10 , δ = 0,5 e significância 0,05.
Como o valor calculado de Dmáx é menor que o valor crítico tabelado Dt, a hipótese Ho
é aceita e conclui-se que a massa de matéria fresca de sementes de Dolichos biflorus L.
na população segue a distribuição normal.
3 – Calcular:
50
4 – Calcular a estatística de teste:
Passo 4: Conclusão
Quando o valor W for maior que o valor crítico dado pela Tabela 2.4, para um
tamanho de amostra n e significância α), a hipótese Ho é rejeitada e conclui-se que a
característica em estudo da população não segue a distribuição normal. Por outro lado,
se W for menor que o valor crítico tabelado, a hipótese Ho é aceita e conclui-se que a
característica em estudo da população segue a distribuição normal.
51
Exemplo: Considere a seguinte amostra: 8 12 10 24 12 10 16 19 9 10. Teste se a
amostra provém de uma população Normal, isto é:
H0:A amostra provém de uma população Normal
H1:A amostra não provém de uma população Normal
1 - Ordenar a amostra:
8 9 10 10 10 12 12 16 19 24
3 – Calcular b:
4 – Calcular W: 0.840
5 – Decisão:
Wcalc=0,840 < W(0,05,10) = 0.842
Deve-se rejeitar-se a hipótese de normalidade da amostra para um índice de
significância de 5%.
52
n ∑ ( Xi − X )
3
( n − 2 ) g1
g1 = k 3 / (S ) 2 3
; k3 =
( n − 1)( n − 2 )
; b1 =
n ( n − 1)
A = b1
( n + 1)( n + 3)
; B=
( )
3 n 2 + 27n − 70 ( n + 1)( n + 3)
;
6 ( n − 2) ( n − 2 )( n + 5)( n + 7 )( n + 9 )
1 A
C = 2 ( B − 1) − 1 ; D= C; E= ; F=
ln D 2
C −1
(
Zg1 = E ln F + F2 + 1 ; ) Simetria
2
∑ ( Xi − X ) n ( n + 1)( n − 1) − 3 ⎡⎣⎢∑ ( Xi − X ) ⎤⎦⎥
4 2
g 2 = k 4 S4 ; k4 =
( n − 2 )( n − 3)
24n ( n − 2 )( n − 3) ( n − 2 )( n − 1) g 2
G= ; H=
( n + 1) ( n + 3)( n + 5 )
2
( n + 1)( n − 1) G
J=
(
6 n 2 − 5n + 2 ) 6 ( n + 3)( n + 5 )
; K = 6 + 8 / J ⎡2 / J 1 + 4 / J2 ⎤
( n + 7 )( n + 9 ) n ( n − 2 )( n − 3) ⎢⎣ ⎥⎦
2
1−
L= K
2
1+ H
K−4
2 3
1− − L
Zg 2 = 9K ; Curtose
2
9K
53
2 - Calcular a estatística de teste:
2 2
Dp = Zg1 + Zg2
liberdade ( Χ 22 )
Passo 4: Conclusão
Quando o valor Dp for maior que o valor crítico Χ 22 , para um tamanho de amostra n
54
onde Smax e Smin são, respectivamente, os valores máximo e mínimo de desvio padrão
estimados para as n amostras.
Passo 4: Conclusão
Rejeitar H0 se Fmax > F(α,a,N-1)
onde α é o índice de significância do teste, a é o número de amostras sendo testadas e N
o número de observações global.
S2max
C= a
∑ Si2
i =1
Passo 4: Conclusão
Rejeitar H0 se C > C(α,a,N-1)
⎡⎣ ∑ ( n i − 1) ⎤⎦ ln ⎢ ∑ i
⎡ ( n − 1)Si2 ⎤
⎢ ∑ ( n − 1) ⎥
( )
⎥ − ∑ ( n i − 1) ln Si2
Χc2 = ⎣ i ⎦
1 ⎡ 1 1 ⎤
1+ ⎢∑ − ⎥
3 ( k − 1) ⎣⎢ n i − 1 ∑ ( n i − 1) ⎦⎥
55
Passo 4: Conclusão
Apesar da ANOVA ser bastante robusta em relação aos pressupostos, nos casos em
que os pressupostos falham de maneira significativa, pode utilizar o teste de Kruskal-
Wallis, o qual é uma abordagem não paramétrica para comparação de médias.
2.4.1 Pressupostos
Os dados devem ser variáveis aleatórias independentes.
As distribuições não precisam ser normais e a variância das populações não
precisam ser iguais.
O número mínimo de observações por amostra é cinco.
Os tamanhos das amostras devem, sempre que possível, serem iguais, apesar de ser
aceito uma pequena diferença.
2.4.2 Limitações
Se a hipótese nula for aceita, você não pode dizer que as amostras são as mesmas.
2.4.3. O Teste
Passo1: Formulação das hipóteses
H0: Todas a k (a) populações são idênticas
H1: Pelo menos uma das populações gera observações mais elevadas do que pelo
menos uma das populações.
56
Cada uma das k amostras contêm ni observações, totalizando N observações. As N
observações são graduadas por ordem crescente, isto é, para cada observação xij é
atribuída uma graduação R(xij). Caso existam observações iguais, a elas serão
atribuídos os valores médios.
2 - Calcular Ri:
k
R i = ∑ R x ij ( )
i =1
12 k
R i2
H= ∑ − 3 ( N + 1)
N ( N + 1) i =1 n i
Passo 4: Conclusão
57
Verifique se os reatores têm rendimento médio idêntico.
Solução:
58
3. Blocos Aleatorizados e Planejamentos Fatoriais com Duas Classificações
A média e o desvio padrão são -0.9 e 0.81 μ/l, respectivamente. Então o erro padrão
é 0.81 / 6 = 0.33 μ / l .
Podemos agora realizar um test-t pareado para testar a hipótese nula de que a perda
na concentração média é 0. Para isso calculamos:
59
Note que este valor é negativo (porque a mudança média observada foi a redução na
concentração do poluente -- um valor positivo seria um aumento na concentração do
poluente). Observamos o valor absoluto da estatística de teste (2.73) na tabela, usando a
linha com n – 1 = 5 graus de liberdade.
A quinta linha da tabela mostra que 0.01 < p < 0.05 (porque o valor 2.73 está entre
os valores tabelados 2.571 e 4.032). Então, rejeitamos a hipótese nula ao nível de 5%.
Existe evidência ao nível de 5% de que a área em estudo sofreu uma redução em média
nos níveis do contaminante durante o período de seis meses.
Podemos adicionar à nossa conclusão o intervalo de confiança de 95% para a
redução média nos níveis do contaminante:
Estamos 95% confiantes que a redução média nos níveis do contaminante está entre
0.05 μ/l e 1.75 μ/l.
onde, yij é uma observação (ou resultado), obtida para o nível i na réplica j, μi é a média
para o nível i, βj é o efeito sobre o resultado devido à j-ésima réplica e εij, um erro
60
O valor esperado para a diferença é:
O teste da hipótese nula H0: μ1 = μ2 pode ser feito pela diferença por pares μd, ou
seja,
H0: μd = 0
H1: μd ≠ 0
O teste estatístico é feito com:
onde:
61
onde yij é o j-ésimo elemento obtido no tratamento (nível) i. Esses elementos podem ser
definidos pelo modelo estatístico linear:
62
3.3.1. Análise de um modelo de efeitos fixos
Neste caso, os efeitos dos tratamentos τi são definidos como desvios a partir da
média geral, de modo que:
caso H0 seja verdadeira, de modo que todos os tratamentos têm média igual a μ.
Para essa verificação, a análise de variância é a que melhor se aplica. O termo
análise de variância deriva da divisão da variabilidade total em seus componentes.
A variabilidade total dos resultados é representada pela soma corrigida dos
quadrados SST, que dividida pelo número de graus de liberdade N-1 fornece a variância
da amostra.
63
O último termo da expressão é nulo pois:
Assim,
onde SSTRATAMENTOS denomina-se soma dos quadrados devidos aos tratamentos (entre
tratamentos) e SSE é denominada soma dos quadrados devidos ao erro (dentro dos
tratamentos). SST apresenta N-1 graus de liberdade, SSTRATAMENTOS apresenta a-1 e SSE,
N-a graus de liberdade.
SS E
Assim, é uma estimativa da variância dentro de cada um dos tratamentos e
N−a
SSTRATAMENTOS
, a estimativa da variância entre os tratamentos.
a −1
Para a análise estatística das hipóteses, tem-se que SST é uma soma de quadrados de
variáveis aleatórias normalmente distribuídas, SST/σ2, SSE/σ2 e SSTRATAMENTOS/σ2 são
distribuídas como chi-quadrado respectivamente, com N-1, N-a e a-1 graus de
liberdade, se a hipótese nula H0 : τi = 0 for verdadeira. Nesse caso, aplicando-se o
teorema de Cochran (N-1 = N-a + a-1) tem-se que SSE/σ2 e SSTRATAMENTOS/σ2 são
variáveis aleatórias chi-quadrado independentes.
64
Se a hipótese nula é verdadeira, ou seja, não há diferença entre as médias dos
SSTRATAMENTOS (a − 1)
tratamentos, a razão F0 = é uma distribuição F com a-1 e N-a
SS E ( N − a )
graus de liberdade.
No caso da hipótese nula ser verdadeira, tanto o numerador quanto o denominador
da expressão são estimadores confiáveis de σ2. Assim, se o valor esperado para o
numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se F0 > Fα, a-1, N-a
A análise da variância pode ser feita construindo tabelas como a seguir:
65
3.3.2 Comparação das médias individuais dos tratamentos
O método apresentado anteriormente permite verificar-se se as médias de diversos
tratamentos são diferentes ou não, mas não possibilita verificar quais delas divergem.
Para tanto, há necessidade de as somatórias das observações de cada tratamento (yi) ou
de suas médias ( y i ). Essas comparações são feitas através dos denominados métodos de
comparação múltipla. Os testes de comparação múltipla permitem investigar onde se
encontram as diferenças possíveis entre k médias populacionais.
Existem muitos testes deste tipo, no entanto, serão abordados apenas três:
• Teste HSD (honestly significant difference) de Tuckey
• Teste de Scheffé
• Teste do contraste
Estes testes permitem examinar simultaneamente pares de médias amostrais para
identificar quais os pares onde se registram diferenças significativas.
66
Exemplo: Dado as médias amostrais de venda, relativas a 12 observações cada, de três
lojas, existe evidências estatística de que as vendas das lojas são diferentes?
x1 − x2 = 49 − 56 = 7
x1 − x3 = 49 − 51 = 2
x2 − x3 = 56 − 51 = 5
Finalmente, como x1 − x3 = 2 < 4.718 , não se rejeita a hipótese H0: μ1= μ3.
Assim, há evidência de que a loja 2 tem um volume médio de vendas diferente das
lojas 1 e 3. Isto é, a média observada para a loja 2 difere significativamente das médias
observadas para as lojas 1 e 3, enquanto que, a diferença registrada entre o volume de
vendas da loja 1 e da loja 3 não é significativa.
67
Teste Scheffé
Neste teste a hipótese nula H0: μi = μj é rejeitada se:
Exemplo:
x1 − x2 = 6.4 − 9.5714 = 3.1714
68
Teste de contraste
Um contraste C é uma combinação linear dos totais yi, que permite a comparação
das médias dos tratamentos.
a
C = ∑ ci y i
i =1
a
∑ ni ci = 0 , para tratamentos com n diferentes.
i =1
Um contraste é testado comparando-se SSC com SSE/(N-a) que deve ser distribuído
como Fα,1,N-a caso a hipótese nula seja verdadeira, ou seja, com H0 será rejeitada se F0 >
Fα,1,N-a.
O uso de contrastes ortogonais é um caso particular deste método, que oferecem
testes independentes para as médias dos tratamentos. Dois contrastes {ci} e {di} são
ortogonais se
a
∑ ci d i = 0 , para tratamentos com n iguais.
i =1
a
∑ ni ci d i = 0 , para tratamentos com n diferentes.
i =1
69
3.3.3 Análise de um modelo de efeitos aleatórios
Numa situação em que se deseja verificar um fator que apresenta um grande número
de níveis possíveis e seleciona-se aleatoriamente alguns destes níveis para análise, diz-
se que esse fator é aleatório. Como a escolha foi feita aleatoriamente, as conclusões
extraídas a partir dos resultados obtidos nos níveis analisados, podem ser estendidas
para toda a população de níveis. Nesse caso, assume-se que essa população é infinita ou
suficientemente grande para ser considerada infinita (Button, 2005).
O modelo estatístico linear pode ser novamente utilizado.
V ( y ij ) = σ τ2 + σ 2
O teste de hipóteses neste modelo, assume-se que {εij} seja NID( 0, σ 2 ), que {τi}
tratamentos ( σ 2τ ):
respectivamente, com N-a e a-1 graus de liberdade, se a hipótese nula H0 for verdadeira
e ambas são variáveis aleatórias chi-quadrado independentes. Desta forma, a razão
SSTRATAMENTOS (a − 1)
F0 = é uma distribuição F com a-1 e N-a graus de liberdade.
SS E ( N − a )
70
Definindo MSTRAT como SSTRATAMENTOS/ a - 1 e MSE como SSE/ (N - a) pode-se
provar que:
como χ 2N − a .
( )
Já a razão (a − 1) MS TRAT σ 2 + nσ 2τ é distribuída como χ a2 −1 , de modo que o
σ 2τ
intervalo de confiança para a relação é dado por:
σ 2 + σ 2τ
onde
71
3.4. Efeitos de Blocos
3.4.1. Planejamento por Níveis Completo Aleatorizado por Blocos
Nesse tipo de planejamento, tem-se por objetivo avaliar a influência dos tratamentos
para uma dada variável de influência, bloqueando-se uma fonte de variabilidade, que se
deseja eliminar (Button, 2005).
Como exemplo, teríamos a verificação de penetradores (tratamentos) na medição de
dureza de materiais distintos. Assim, os materiais seriam bloqueados.
O planejamento é definido como completo pois cada bloco contém todos os
tratamentos e, é aleatorizado dentro dos blocos.
Nesse estudo, tem-se a tratamento e b blocos, com o seguinte modelo estatístico:
a
onde μ é a média da população, τi é efeito do tratamento i, ( ∑τ i = 0 ) βj é o efeito do
i =1
b
bloco j ( ∑ β i = 0 ) e εij é o erro aleatório, distribuído como NID( 0, σ 2 ).
i =1
72
SS E
Assim, é uma estimativa da variância do conjunto total de dados,
(a − 1)(b − 1)
SSTRATAMENTOS
, a estimativa da variância dentro de cada um dos tratamentos e
a −1
SS blo cos
, a estimativa da variância dentro de cada um dos blocos.
b −1
Para a análise estatística das hipóteses, tem-se que SST é uma soma de quadrados de
variáveis aleatórias normalmente distribuídas, SST/σ2, SSTRATAMENTOS/σ2, SSBLOCOS/σ2 e
SSE/σ2 são distribuídas como chi-quadrado respectivamente, com N-1, a-1, b-1 e (a-
1).(b-1) graus de liberdade, se a hipótese nula H0 : τi = 0 for verdadeira.
Nesse caso, aplicando-se o teorema de Cochran (N-1 = a-1+b-1+( a-1).(b-1)) tem-se
que SSE/σ2, SSBLOCOS/σ2 e SSTRATAMENTOS/σ2 são variáveis aleatórias chi-quadrado
independentes.
Se a hipótese nula é verdadeira, ou seja, não há diferença entre as médias dos
tratamentos, a razão:
SSTRATAMENTOS (a − 1)
F0 = para os tratamentos
SS E (a − 1)(b − 1)
SS BLOCOS (b − 1)
F0 = para os blocos
SS E (a − 1)(b − 1)
73
são distribuições F com a-1 e (a-1).(b-1) e b-1 e (a-1).(b-1) graus de liberdade,
respectivamente.
No caso da hipótese nula ser verdadeira, tanto o numerador quanto o denominador
da expressão são estimadores confiáveis de σ2. Assim, se o valor esperado para o
numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se:
F0 > Fα, a - 1, (a - 1)(b - 1) para o teste dos tratamentos.
F0 > Fα, b -1, (a - 1)(b - 1) para o teste dos blocos.
Caso a hipótese nula seja rejeitada (os tratamentos têm influência), pode-se verificar
a influência de cada tratamento através de comparações múltiplas, com o uso de
contrastes.
Nesse caso, o procedimento é idêntico ao usado no modelo de efeitos fixos, apenas
empregando-se:
Um contraste será testado comparando-se SSC com SSE/((a-1).(b-1)) que deve ser
distribuído como Fα, 1, (a - 1)(b - 1) caso a hipótese nula seja verdadeira, ou seja, com:
SS C
F0 =
SS E (a − 1)(b − 1)
H0 será rejeitada se F0 > Fα, 1, (a - 1)(b - 1).
74
vezes no planejamento (ou é replicado r vezes), e assim, existem N = a.r = b.k
observações. Já o número de vezes que cada par de tratamentos aparece no mesmo
bloco é dado por l (que deve ser inteiro):
onde
a - número de tratamentos
b - número de blocos
k - número de tratamentos por bloco
r - número de vezes de ocorrência de cada tratamento
Se a = b, o planejamento é denominado simétrico.
O modelo estatístico que representa esse planejamento é dado por:
75
SST apresenta N-1 graus de liberdade, SSTRAT (ajust.), a-1, SSBLOCOS, b-1 e SSE tem N-
a-b+1 graus de liberdade.
O teste estatístico apropriado para verificar a influência dos efeitos dos tratamentos
é:
SS TRAT .( ajust ) (a − 1)
F0 =
SS E ( N − a − b + 1)
76
4. Planejamentos com Múltiplos Blocos
4.1. Planejamentos Quadrados Latinos
Este planejamento é útil quando se tem por objetivo eliminar duas fontes de
variabilidade, bloqueando duas direções.
Como exemplo, assuma-se um estudo em que se deseja determinar a influência da
formulação sobre a quantidade de energia liberada num processo. Assim, tem-se a
energia como variável de resposta e a formulação como variável de influência. Porém,
as formulações podem ser preparadas por operadores diversos com diferentes matérias-
primas, o que configura duas fontes de variabilidade que se deseja eliminar.
O quadrado latino consiste de um arranjo quadrado p x p, onde os tratamentos
(níveis) da variável de influência são representados por letras latinas maiúsculas (A, B,
C,....), sendo que cada letra só pode aparecer uma única vez em cada linha e coluna.
As linhas e colunas do quadrado são ocupadas pelos níveis das fontes de
variabilidade bloqueadas. Denomina-se padrão um quadrado latino que tem a primeira
linha e a primeira coluna com os níveis em ordem alfabético, tem-se que um arranjo
quadrado latino 3 x 3 poderá apresentar somente uma combinação, enquanto que um
arranjo 4 x 4 apresentará 4 combinações, um 5 x 5 terá 56 e um 7 x 7 terá 16.942.080
(Button, 2005).
Alguns exemplos:
4x4 5x5
A B D C A B C D E
B C A D B C D E A
C D B A C D E A B
D A C B D E A B C
E A B C D
77
Este planejamento tem seus resultados analisados pelo seguinte modelo estatístico:
como NID( 0, σ 2 ).
As somatórias dos quadrados das diferenças são representadas pela expressão e pelo
quadro de análise apresentados a seguir.
SST = SSTRATAMENTOS + SSLinhas + SScolunas + SSE
78
Novamente, para a análise estatística das hipóteses, tem-se que SST é uma soma de
quadrado respectivamente, com N-1 , p-1, p-1, p-1 e (p-2).(p-1) graus de liberdade, se a
hipótese nula H0 : τi = 0 for verdadeira.
Nesse caso, aplicando-se o teorema de Cochran (N-1 = p-1+p-1+p-1+(p-2).(p-1)),
SSTRATAMENTOS ( p − 1)
F0 =
SS E ( p − 1)( p − 2)
para os tratamentos
numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se F0 > Fα, p - 1, (p - 1)(p- 1).
Os testes com as fontes das linhas e das colunas perdem objetividade estatística
visto que durante o planejamento eles foram bloqueados, ou seja, tiveram sua
aleatoriedade restrita (Button, 2005).
A grande desvantagem do planejamento quadrado latino com quadrados pequenos
(3 x 3 ou 4 x 4) é o pequeno número de graus de liberdade associado. Para evitar esse
problema, usa-se replicar os experimentos. Essa réplica pode ser feita de três modos
distintos:
1. usando combinações com os mesmos níveis das fontes (linhas e colunas) em cada
réplica;
2. alternando níveis das fontes em cada réplica, fixando o nível da linha e alterando
o nível da coluna, ou vice-versa, para cada combinação;
79
3. usando diferentes níveis de linhas e colunas para cada réplica.
Nesses casos, as somatórias dos quadrados das diferenças são dadas por:
SST = SSTRATAMENTOS + SSLINHAS + SSCOLUNAS + SSRÉPLICAS + SSE
O quadro de análise para o caso (a) tem o índice representando as réplicas, assim
cada resultado é identificado por yijkl, ou seja, a observação na linha i, no tratamento j,
na coluna k e na réplica l. Com n réplicas para cada conjunto i, j, k tem-se um número
total de observações N = np2.
80
com um total de p2 observações. Podem-se obter quadrados greco-latinos a partir de
p≥3, exceto para p = 6.
A seguir, apresenta-se um exemplo de quadrado greco-latino 4 x 4:
81
A análise estatística do planejamento com quadrados greco-latinos é similar à usada
para os quadrados latinos. Assim, a hipótese nula será rejeitada para os níveis da
variável de influência, caso F0 > Fα, p - 1, (p - 1)(p - 3).
onde
SSTRATAMENTOS ( p − 1)
F0 =
SS E ( p − 1)( p − 3)
para os tratamentos (letras latinas)
82
5. Planejamentos Fatoriais: Modelos Empíricos
5.1. Planejamento Fatorial Completo 22*
Exemplo 1: Na Fig. 5.2, sob a ação da força F, o sistema de peso W se move até a
posição de equilíbrio que corresponde à mínima energia potencial. Seja a energia
potencial dada por:
1
Fonte EITON P. SILVA, SEZIMÁRIA F. P. SARAMAGO, FAMAT - UFU
83
Ep = W l (1 − cos θ ) − F l sen θ (5.1)
onde W = 400N e l =2,5m.
Este exemplo será usado para ilustrar a execução e a análise dos resultados de um
planejamento fatorial 22. À partir deste exemplo, serão apresentados alguns conceitos
fundamentais que depois poderão ser aplicados a planejamentos envolvendo um número
qualquer de fatores.
Para executar um planejamento fatorial é necessário em primeiro lugar especificar
os níveis em que cada fator será estudado, isto é, os valores dos fatores (ou as versões,
nos casos qualitativos) que serão empregados. Pode-se, por exemplo, querer estudar o
efeito do fator força F em quatro níveis, 10N, 20N, 80N e 100N, e o efeito do ângulo θ
em três níveis, 0º, 45º e 90º.
Um planejamento fatorial requer a execução de experimentos para todas as possíveis
combinações dos níveis dos fatores. Cada um desses experimentos, em que o sistema é
submetido (por exemplo: F= 10N e θ = 45º), é um ensaio experimental. Havendo 4
níveis num fator e 3 no outro, como nesse caso, serão necessário 4x3 = 12 ensaios
diferentes, e o planejamento é chamado de fatorial 4x3. Em geral, se houver n1 níveis do
fator 1, n2 do fator 2, ..., e nk do fator k, o planejamento será um fatorial n1x n2 x ...x nk
de experimentos. Este é o número mínimo para se ter um planejamento fatorial
completo. O pesquisador pode querer repetir ensaios, para ter uma estimativa do erro
experimental, e nesse caso o número total de experimentos será maior.
Havendo k fatores, isto é, k variáveis controladas pelo experimentador, o
planejamento de dois níveis irá requerer a realização de 2x2x...x2 = 2k ensaios
diferentes, sendo chamado por isso de planejamento fatorial 2k (Barros, 1995).
Para o Exemplo 1, foram escolhidos os níveis 80N e 100N para a força F e 5º e
85º para o ângulo θ. A execução do planejamento 22 consiste em realizar ensaios e
84
registrar as respostas observadas (a energia potencial Ep, neste caso) em todas as
possíveis combinações desses níveis: (80N, 5º), (80N, 85º), (100N, 5º) e (100N, 85º). A
listagem dessas combinações, que é chamada de matriz de planejamento, é apresentada
na Tab. 5.1, juntamente com os valores de Ep.
A Eq. (5.2) pode ser reescrita como a diferença entre as duas médias:
1 1
A = (−17,98 + 663,79) − (−13,63 + 713,60) =-27,08 (5.3)
2 2
85
1 1
B = (713,60 + 663,79) − (−13,63 − 17,98)
2 2
B=704,5 (5.4)
1⎡ ⎤
AB = ⎢(663,79 − (−17,98) ) − (713,60 − ( −13,63) )⎥
2 ⎢ 14442 444 3 14442444 3⎥
⎣ α β ⎦
onde α é obtido com F fixo no nível superior, variando-se θ; β é obtido com F fixo no
nível inferior, variando-se θ. Pode-se verificar facilmente que AB = BA.
86
(a)
(b)
(c)
Figura 5.3. Interpretação geométrica dos efeitos em um planejamento 22.
87
Figura 5.4. Diagrama para interpretação dos resultados de um planejamento 22.
É conveniente trabalhar com os fatores em uma escala onde cada fator varia de –1
para +1. Uma maneira comum de fazer isso é :
2 (F − μ F ) 2 (θ − μθ )
x1 = e x2 = (5.6)
u
(F − F ) l
(θ u −θ l )
−p
5.2. Experimentos Fatoriais Fracionados 2kResolução
88
completo.
A idéia por traz de um projeto fatorial fracionário consiste em utilizar o fato de
que um projeto fatorial é ortogonal e que a interações de mais altas não são
significativas, ou seja: utilizam-se as interações de mais alta ordem para blocar
(confudir) fatores extras. Portanto, a fração é um subgrupo, cuidadosamente prescrito,
de todas as combinações possíveis. A análise dos fatoriais fracionários é relativamente
direta e, em função de sua estrutura, a utilização de um fatorial fracionário não impede a
possibilidade de uma complementação posterior de todo o experimento fatorial.
A B C Observação Z
- - + 8
+ - - 11
- + - 9
+ + + 14
89
2. O efeito principal de B é estimado como sendo (9 + 14) / 2 - (8 +11) / 2 = 2.
3. O efeito principal de C é estimado como sendo (8 + 14) / 2 - (11 + 9) = 1,0.
Agora ao considerar a estimativa da interação dos fatores AB, o analista
descobrirá que os sinais necessários para estimar a interação AB são idênticos aqueles já
empregados para estimar o efeito principal de C. Portanto, o efeito principal de C e a
interação de dois fatores AB se confundem. Em outras palavras, a estatística Z+ -Z-=1.0,
possui uma estrutura de “sinônimos”, isto é, a estatística tanto pode se identificada
como C ou como AB. Na verdade, o valor esperado da estatística é igual a C + AB, a
soma dos dois efeitos, e na ausência de informações claras sobre o efeito principal de C,
não somos capazes de dizer se o efeito AB é positivo, negativo, grande ou pequeno. Da
mesma maneira:
• A estimativa de A confunde-se com BC.
• A estimativa de B confunde-se com AC.
Quando alguns, ou todos, efeitos principais se confundem com interações de dois
fatores, diz-se que o delineamento fatorial fracionário é de “Resolução III”. Quando um
ou mais efeitos principais confundem-se com interações de (no mínimo) três fatores,
diz-se que o fracionário é um delineamento de “Resolução IV”. Fracionários com
efeitos principais confundidos com interações de (no mínimo) quatro fatores são de
“Resolução V” e etc.
90
Primeiramente devemos construir 3 (p) relações geradoras:
I=ABCDE ⇒ E=ABCD
I=ABCF ⇒ F=ABC
I=ABDG ⇒ G=ABD
é lógico que outras relações geradoras poderiam ser construídas. Quando se utilizam
todas as combinações possíveis de relações geradoras diz-se que o planejamento é
saturado. A resolução do planejamento é dado pelo tamanho da menor relação geradora,
Para saber quais interações confundem uma estimativa, basta isolar a estimativa
do lado esquerdo das relações geradoras. Por exemplo:
91
A estimativa de A confunde-se com:
92
também deve ser robusta (pouco sensível) à influência do ruído. O método de Taguchi
propõe que se analise a resposta média para cada combinação no arranjo interno, e que a
variabilidade seja analisada escolhendo uma razão sinal-ruído (SN) apropriado. Três
razões SN padrão são amplamente empregadas:
__ 2
y
SN T = 10 log ,
s2
⎛1 n 1 ⎞
SN L = −10 log10 ⎜ ∑ 2 ⎟
⎜n ⎟
⎝ i =1 yi ⎠
⎛1 n ⎞
SNS = −10 log10 ⎜ ∑ yi2 ⎟
⎜n ⎟
⎝ i =1 ⎠
93
mistura para bolo.
Tempo/Leite/Temperatura
F G A O --+ -+- +-- +++ y s SNT
- - - - 85 96 97 92 92,5 5,45 24,6
- - - + 82 81 78 79 80 1,83 32,8
- + + - 75 80 70 73 74,5 4,20 25,0
- + + + 66 75 83 70 73,5 7,33 20,0
+ - + - 84 91 95 90 90 4,55 25,9
+ - + + 78 72 80 69 74,8 5,12 23,3
+ + - - 86 85 90 91 88 2,94 29,5
+ + - + 86 82 77 75 80 4,97 24,1
94
6. Análise de Regressão
6.1. Ajuste de Parâmetros
No problema de estimação de parâmetros, a expressão matemática para a função de
transferência ( TF ) do modelo em função dos parâmetros do sistema é conhecida. Os
valores das entradas f e saídas Y, bem como as condições iniciais ou valores de
contorno são avaliáveis, caso necessário, e alguns ou todos os parâmetros β do modelo
são desconhecidos. Caso haja ruído ε nos dados medidos ηm, uma hipótese comumente
utilizada é de que o mesmo é aditivo aos dados ηr, do sistema real, como mostrado na
figura 6.1. A solução para o problema é obter “a melhor” estimada dos parâmetros
desconhecidos, usando alguns valores medidos das excitações e das respostas do
sistema (Duarte, 1994).
95
Como pode ser observado no esquema mostrado na figura 6.2, o modelo
matemático usado para o ajuste de parâmetros, é dado por:
η = TF −1 (Y, β )
(6.1)
ηm = ηr + ε
η = X(Y ).β
(6.2)
η = ηr + ε
96
η = TF(f , β)
(6.3)
ηm = ηr + ε
onde X(b) é a matriz de sensibilidade das respostas em relação aos parâmetros, com um
elemento genérico da linha i e coluna j, calculado pela Equação 6.5.
∂η(i )
X(i, j) = − (6.5)
∂b( j)
Substituindo-se a Equação 6.4 na Equação 6.3, resulta na Equação 6.6 que tem, a
menos de uma constante, a mesma forma da equação 6.2.
97
Utiliza-se uma expansão em série de Taylor da função objetivo, não linear, retendo
os termos de até segunda ordem, resultando em:
1
r (b + Δb ) = r (b ) + J(b ).Δb + Δb'.H(b ).Δb (6.7)
2
Δb = − H −1 (b ). J (b ) (6.9)
P(η m | β).P(β)
P(β | η m ) = (6.10)
P(η m )
98
9 β e ε são estatisticamente independentes.
9 Não existe erro na matriz de sensibilidade X.
Com estas hipóteses, a variável aleatória ηm tem uma distribuição Normal, sendo:
E[η m ] = X.βo
Cov[η m ] = X.V.X' + Ψ (6.11)
⎛ 1 1 ⎞
g (β | η m ) = K. exp⎜ − .(β − β o ) − .(η m − Xβ )'.Ψ −1 .(η m − X.β )⎟ (6.14)
⎝ 2 2 ⎠
1
(
ln (g(β | η m )) = ln (K ) − . (β − β o )'.V −1 .(β − β o ) + (η m − Xβ )'.Ψ −1 .(η m − Xβ )
2
) (6.15)
99
6.2.1. Estimador de Máximo a Posteriori (MAP)
K +1
bMAP = bMAP
K
+ ΓMAP
K
( ( ) (
. X ' K . X ' K .Ψ −1 . η m − η K + V −1 . β o − bMAP
K
)) (6.17)
onde:
(Γ ) K
MAP
−1
= X ' K .Ψ −1 . X K + V −1
100
- Polarização: o estimador é polarizado com E(bMAP) = βo.
- Eficiência: o estimador é eficiente, de mínima variância, cuja covariância de
estimativa é dada por:
Cov(bMAP ) = (X '.Ψ −1
. X + V −1 )
−1
(6.18)
O fato do estimador MAP ser polarizado é muito útil quando se procura ajustar
simultaneamente os valores de parâmetros de um sistema composto por modelos
lineares e não lineares. Nestes casos, o ajuste torna-se difícil, às vezes impossível, pois
as curvas de resposta do modelo do sistema são, normalmente, muito mais sensíveis às
variações dos valores dos parâmetros dos modelos lineares do que às dos modelos não
lineares. Uma maneira de contornar este problema é dividir o procedimento em duas
etapas: inicialmente controlam-se as forças de excitação de maneira que os níveis de
vibração sejam baixos e, consequentemente, os efeitos das não linearidades sejam
desprezíveis. Em seguida o ajuste é refeito com as curvas de respostas para níveis mais
altos de vibração do sistema.
Na primeira etapa os valores dos parâmetros dos modelos lineares são ajustados e as
matrizes de covariância de suas estimativas são calculadas. Para os parâmetros dos
modelos não lineares, completa-se a matriz de covariância total com valores grandes na
diagonal e nulo fora dela. Na segunda etapa, utiliza-se o estimador MAP com a matriz
de covariância total gerada, para o ajuste simultâneo de todos os parâmetros do sistema.
Devido às características de polarização do estimador MAP, na segunda etapa os
valores dos parâmetros dos modelos das não linearidades serão ajustados sem grande
variação nos valores dos parâmetros dos modelos lineares ajustados anteriormente.
101
elevados (da ordem de 1012), significando que não existe qualquer certeza sobre os
valores dos parâmetros. Com a matriz de covariância montada desta maneira, da
Equação 6.16 resulta:
K +1
bML = bML
K
+ ΓML
K
( (
. X ' K . X ' K .Ψ −1 . η m − η K )) (6.20)
onde:
(Γ ) K −1
ML = X ' K .Ψ −1 . X K
Cov(bML ) = (X '. Ψ −1
.X )
−1
(6.21)
onde W é uma matriz que pondera as incertezas sobre os valores medidos. Se W for
igual a matriz identidade tem-se o estimador de Mínimos Quadrados Comuns MQC. Se
W for uma matriz inversa da covariância do ruído ε presente na medição, tem-se o
102
estimador de Markov (MAK), que é equivalente ao estimador ML com as hipóteses
simplificadoras já apresentadas (Duarte, 1994).
Os valores dos parâmetros são, geralmente, avaliados via função normal, resultando:
Estes estimadores podem ser derivados do estimador ML, bastando substituir ψ-1 por
W. Substituindo W na Equação 6.22, tem-se para os estimadores não lineares MAK,
MQC e MQP:
( (
b K +1 = b K + Γ K . X ' K . X ' K .W . η m − η K )) (6.24)
Onde:
(Γ ) K −1
= X ' K .W . X K
Nos casos em que o produto matricial [X’.W.X] for mal condicionado, uma técnica
pseudo-inversa, baseada no cálculo de valores singulares da matriz X, pode ser
utilizada.
As principais características dos estimadores de Mínimos Quadrados são:
- Não é necessário nenhum conhecimento a priori das propriedades estatísticas dos
parâmetros.
- Para o estimador MQC nenhuma hipótese é assumida para os dados.
- Condição para utilização: |X’.W.X| ≠ 0.
- Condições de despolarização: o ruído ε deve ter média zero e ser aditivo às
respostas.
- ηm e β mão podem ser processos estocásticos.
- Condições de mínima variância: do teorema de Gauss-Markov é necessário que:
a) Cov(ηm | β) = σ 2 .W (ruído com variância constante σ2).
b) Para MQC, Cov(εiεj) = 0 para i ≠ j ( erros não correlacionados).
- As covariâncias dos valores estimados são:
⎛ ⎞
Cov⎜⎜ bMQC ⎟⎟ = σ 2 . ( X '.W . X )
−1
(6.25)
⎝ MQP ⎠
103
Cov(bMAK ) = (X '.Ψ −1
.X )
−1
(6.26)
104
6.4. Estimativa dos Erros
O critério utilizado neste trabalho para avaliar a precisão dos valores estimados é
baseado na estimada das matrizes de covariância dadas pelas Equações 6.18, 6.21 e
6.25.
Definem-se os erros percentuais teóricos (ET), de i-ésimo parâmetro de um dado
estimador (EST), pela Equação 6.27.
(η m − X .b )' . W .(η m − X .b )
σ2 = (6.28)
n− p
105
correlação e regressão que vale a pena discutir, nem que seja para esclarecer seu
verdadeiro significado e suas limitações (Barros, 2001).
Imaginemos que tanto X quanto y sejam variáveis aleatórias e que, portanto, seja
apropriado definir um coeficiente de correlação entre elas, dado por:
⎛ __
⎞⎛ __
⎞
⎜ X i − X ⎟⎜ y i − y ⎟
∑ ⎜⎜ s ⎟⎟⎜⎜ s ⎟⎟
x y
r (X, y ) = ⎝ ⎠⎝ ⎠ (6.29)
N −1
S xy
r (X, y ) = (6.30)
S xx S yy
S xy
β1 = (6.31)
S xx
S yy
β1 = r(X , y) (6.32)
S xx
ou
Sy
β1 = r(X , y) , (6.33)
Sx
106
representa a variação em y correspondente à variação de uma unidade em X, ou seja, a
derivada dy/dX.
Para um modelo linear, podemos também esclarecer uma relação entre a
percentagem de variação explicada (ou coeficiente de determinação),
2
⎛ _
⎞
SQ R
∑ ⎜ yi − y ⎟
⎝ ⎠ ,
R2 = =
SQ T _ 2
⎛ ⎞
∑ ⎜⎝ i ⎟⎠
y − y
ou, simplificando,
R2 = r 2 (X, y ) (6.34)
R = r (y, y ) (6.35)
Esta relação é legítima, pois tanto os valores observados quanto os valores previstos
são variáveis aleatórias. O valor de R, que é chamado de coeficiente de correlação
múltipla, nunca é negativo. Ele é o maior valor da correlação que uma combinação
107
linear das variáveis independentes, na forma especificada pelo modelo, pode ter com os
valores de y observados.
Admite-se que X1, ..., Xk são variáveis matemáticas e Y é uma variável aleatória.
Amostra:
108
yi = β0 + β1xi1 + β2xi2 + ... + βkxik + ei
onde ei é o termo aleatório (erro)
Suposições:
• Os erros (ei) são independentes e variam aleatoriamente segundo uma
distribuição (normal) com média zero e variância constante.
• Suposição adicional: não deve haver correlações muito fortes entre as variáveis
independentes.
Y = X β +ε
Y = X β +ε
109
6.6.1. Estimador de Mínimos Quadrados (Resumo)
Valores preditos:
Resíduos:
110
7. Técnica das Superfícies de Resposta
Em processos industriais, é muito comum a existência de muitos fatores ou variáveis
que afetam a qualidade global do produto final. Neste contexto, alguns estatísticos vêm
estudando a Metodologia de Superfície de Resposta (SR), desde 1970. Em essência, esta
metodologia consiste em estimar coeficientes da regressão polinomial para a geração de
um modelo empírico. Então, usando a metodologia é possível aproximar um modelo
empírico a uma relação (inicialmente desconhecida ou conhecida) entre os fatores e as
respostas do processo (Saramago, 2006).
A superfície de resposta é útil quando o pesquisador não conhece a relação exata
entre os fatores. Mas, geralmente quando a expressão analítica da função é conhecida, a
metodologia pode ser útil em alguns casos: freqüentemente pode-se encontrar funções
descontínuas, e em muitos casos se trabalha com valores discretos das variáveis de
projeto ou fatores. Assim, é útil usar a superfície de resposta para obter uma
aproximação polinomial.
Atualmente, o desenvolvimento da computação e o uso rotineiro dos computadores
têm proporcionado uma facilidade no trabalho de geração de modelos empíricos ou
superfície de resposta com o uso de softwares modernos. Entretanto, isto demanda do
usuário conhecimentos básicos de computação e estatística para interpretar os
resultados.
Dentre as vantagens da Metodologia, a principal é que seus resultados são
resistentes a influência de condições não ideais, como erros aleatórios e pontos
influentes, porque a metodologia é robusta. Outra vantagem é a simplicidade analítica
da superfície de resposta obtida, pois a metodologia gera polinômios. Em geral,
polinômios de duas ou mais variáveis, são funções contínuas. Assim, a otimização de
um processo ou sistema torna absolutamente fácil com o uso de métodos tradicionais de
otimização (Saramago, 2006).
Para mostrar como se constrói uma SR linear, o Método dos Mínimos Quadrados
(MQM) será aplicado aos dados codificados do Exemplo abaixo.
111
Exemplo 1: Na Figura 8.1, sob a ação da força F, o sistema de peso W se move até a
Figura 7.1. Pendulo de peso W sob a ação de uma força constante F (Saramago, 2006).
1 80 5 -1 -1 -13,63
2 100 5 1 -1 -17,98
3 80 85 -1 1 713,60
4 100 85 1 1 663,79
5 90 45 0 0 133,79
Seja a Tab. 7.1 formada pelos dados codificados do Exemplo 1 juntamente com o
ponto central.
112
Para usar o MQM, o próximo passo é escrever a matriz X formada pelos níveis dos
fatores x1 e x2 juntamente com a sua primeira coluna formada pela unidade. Considere,
também, o vetor coluna y formado pelos valores de Ep:
x1 x2
⎡ − 13,63⎤
⎡1 − 1 − 1⎤ ⎢− 17,98⎥
⎢1
⎢ 1 − 1⎥⎥ ⎢ ⎥
e y = ⎢ 713,60 ⎥ (7.2)
X = ⎢1 − 1 1⎥ ⎢ ⎥
⎢ ⎥ ⎢ 663,79 ⎥
⎢1 1 1⎥
⎢⎣133,79 ⎥⎦
⎢⎣1 0 0⎥⎦
⎡b0 ⎤ ⎡ 295.91⎤
b = ⎢⎢ b1 ⎥⎥ = ⎢⎢ - 13.54 ⎥⎥ (7.4)
⎢⎣b2 ⎥⎦ ⎢⎣352.25⎥⎦
A Eq. (7.5) representa a SR linear que poderá, depois de uma análise dos resíduos,
ser usada para estimar a energia potencial para diferentes valores de F e θ, dentro da
região investigada R, onde R=((x1,x2) ∈ ℜ2 : –1≤ x1 ≤1 e –1≤ x2 ≤1). A Figura 7.2
mostra a superfície de resposta obtida na região de investigação. Enquanto a Figura 7.3
mostra o gráfico de Ep na região do plano onde 0,0873 ≤ θ ≤ 1,4835 (radianos) e 80N ≤
F ≤ 100 (N) correspondente a região R. Comparando-se as duas curvas, nota-se que a
SR linear não representou bem a função desejada para a energia potencial.
113
Figura 7.2. Superfície de resposta obtida Figura 7.3. Gráfico da energia potencial,
para o Exemplo. obtida através da Eq. (7.1).
114
Tabela 7.2. Resultados do planejamento em estrela obtido pela ampliação da Tabela 7.1.
1 80 5 -1 -1 -13,63
2 100 5 1 -1 -17,98
3 80 85 -1 1 713,60
4 100 85 1 1 663,79
5 90 45 0 0 133,79
6 75,86 45 -21/2 0 158,79
7 90 101,57 0 21/2 980,14
8 104,14 45 21/2 0 108,80
1/2
9 90 -11,56 0 -2 65,37
115
x1 x2 x12 x 22 x1 x 2
⎡1 −1 −1 1 1 1 ⎤
⎢1
⎢ 1 −1 1 1 − 1 ⎥⎥
⎢1 −1 1 1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 1 1 1 ⎥
(7.6)
⎢
X= 1 0 0 0 0 0 ⎥
⎢ ⎥
⎢1 − 2 0 2 0 0 ⎥
⎢1 0 2 0 2 0 ⎥
⎢ ⎥
⎢1 2 0 2 0 0 ⎥
⎢1
⎣ 0 − 2 0 2 0 ⎥⎦
⎡ - 13,63 ⎤
⎢ - 17,98 ⎥
⎢ ⎥
⎢713,60⎥
⎢ ⎥
⎢663,79⎥ (7.7)
y = ⎢133,79 ⎥
⎢ ⎥
⎢158,79 ⎥
⎢980,14⎥
⎢ ⎥
⎢108,80 ⎥
⎢ 65,37 ⎥
⎣ ⎦
A Figura 7.5 representa a SR quadrática, dada pela Eq. (7.8). Pode-se observar que,
comparando com a curva da Figura 7.3, este resultado é melhor do que a SR linear.
116
7.3. Outros Planejamentos Fatoriais
Ensaios 1 2 3 Ep
1 -1 -1 -1 -14,58
2 1 -1 -1 -18,93
3 -1 1 -1 485,39
4 1 1 -1 435,58
5 -1 -1 1 -13,62
6 1 -1 1 -17,98
7 -1 1 1 713,60
8 1 1 1 663,79
9 0 0 0 97,18
117
x1 x2 x3
⎡1 −1 −1 −1 ⎤
⎢1
⎢ 1 −1 − 1 ⎥⎥
⎢1 −1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 −1 ⎥
(7.9)
X = ⎢1 −1 −1 1⎥
⎢ ⎥
⎢1 1 −1 1⎥
⎢1 −1 1 1⎥
⎢ ⎥
⎢1 1 1 1⎥
⎢1
⎣ 0 0 0 ⎥⎦
⎡ - 14,58 ⎤
⎢ - 18,93 ⎥
⎢ ⎥
⎢485,39⎥
⎢ ⎥
⎢ 435,58⎥ (7.10)
y = ⎢ - 13,62 ⎥
⎢ ⎥
⎢ - 17,98 ⎥
⎢713,60⎥
⎢663,79⎥
⎢ ⎥
⎢⎣97,18 ⎥⎦
118
Tabela 7.7. Resultados de um planejamento fatorial 24 com o ponto central.
Ensaio 1 2 3 4 Ep (Nm)
1 -1 -1 -1 -1 -5,83
2 1 -1 -1 -1 -7,57
3 -1 1 -1 -1 194,16
4 1 1 -1 -1 174,23
5 -1 -1 1 -1 -5,45
6 1 -1 1 -1 -7,19
7 -1 1 1 -1 285,44
8 1 1 1 -1 265,52
9 -1 -1 -1 1 -17,49
10 1 -1 -1 1 -22,72
11 -1 1 -1 1 582,47
12 1 1 -1 1 522,70
13 -1 -1 1 1 -16,35
14 1 -1 1 1 -21,58
15 -1 1 1 1 856,33
16 1 1 1 1 796,55
17 0 0 0 0 77,75
119
x1 x2 x3 x4
⎡1 −1 −1 −1 −1 ⎤
⎢1 1 −1 −1 − 1 ⎥⎥
⎢
⎢1 −1 1 −1 −1 ⎥
⎢ ⎥
⎢1 1 1 −1 −1 ⎥
⎢1 −1 −1 1 −1 ⎥
⎢ ⎥
⎢1 1 −1 1 −1 ⎥
⎢1 −1 1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 1 −1 ⎥
X = ⎢1 1⎥
(7.12)
−1 −1 −1
⎢ ⎥
⎢1 1 −1 −1 1⎥
⎢ ⎥
⎢1 −1 1 −1 1⎥
⎢1 1 1 −1 1⎥
⎢ ⎥
⎢1 −1 −1 1 1⎥
⎢1 1 −1 1 1⎥
⎢ ⎥
⎢1 −1 1 1 1⎥
⎢1 1 1 1 1⎥
⎢ ⎥
⎢⎣ 1 0 0 0 0 ⎥⎦
⎡ - 5,83 ⎤
⎢ - 7,57 ⎥
⎢ ⎥
⎢194,16 ⎥
⎢ ⎥
⎢174,23 ⎥
⎢ - 5,45 ⎥
⎢ ⎥
⎢ - 7,19 ⎥
⎢285,44⎥
⎢ ⎥
⎢265,52⎥
y = ⎢ - 17,49 ⎥
(7.13)
⎢ ⎥
⎢- 22,72⎥
⎢ ⎥
⎢582,47⎥
⎢522,70⎥
⎢ ⎥
⎢ - 16,35 ⎥
⎢- 21,58⎥
⎢ ⎥
⎢856,33⎥
⎢796,55⎥
⎢ ⎥
⎢⎣ 77,75 ⎥⎦
120
y r = 214,75 − 10,85 x1 + 236,33 x 2 + 45,85 x3 + 111,65 x 4 (7.14)
N
∑ yi
i =1
y= (7.15)
N
( )
N 2
SQ yy = ∑ y i − y (7.16)
i =1
( )
N 2
SQ E = ∑ yi − y r i (7.17)
i =1
( )
N 2
SQR = ∑ y r i − y (7.18)
i =1
SQ yy = SQ R + SQ E (7.19)
121
A Eq. (7.19) mostra que a soma total dos quadrados é particionada na soma dos
quadrados devida aos erros e na soma dos quadrados devida ao modelo ou devida à
regressão. Quanto maior for a fração descrita pela regressão, melhor será o ajuste do
modelo.
De posse destes parâmetros que são as parcelas nas quais foi decomposta a
variabilidade total do modelo, constrói-se a Tab. 7.8, conhecida como Tabela ANOVA
(análise da variância). Nesta tabela, p o número de parâmetros estimados do modelo.
SQE
Erro SQE (N-p) MS E =
N−p
Total SQyy (N-1)
A métrica F0 é usada para testar a hipótese de que todos os coeficientes do ajuste são
nulos (ajuste absurdo). Para tanto, ela é comparada com o valor tabelado Fα, (p-1), (N-p),
correspondente à distribuição padrão de Fisher. Para isto, torna-se necessário fixar um
nível de significância α para um teste com (p-1) graus de liberdade da soma SQR e (N-p)
graus de liberdade da soma SQE. Caso a estatística obtida seja maior que a tabelada,
rejeita-se a hipótese (pelo menos um dos coeficientes do ajuste é não-nulo) e o
procedimento de aproximação está estatisticamente validado.
Quanto maior o valor de F0, melhor é o ajuste. Pois, quando MSE é suficientemente
pequeno, implica que SQE também é pequeno, o que significa que yri está próximo de yi.
Pode acontecer, porém, que uma regressão, embora estatisticamente validada do
ponto de vista do teste F, não seja útil para realizar previsões, por cobrir uma faixa de
variação pequena dos fatores estudados. Para que isso não ocorra, isto é, para que uma
regressão seja não apenas estatisticamente significativa, mas também útil para fins
preditivos, o valor da métrica F0 deve ser no mínimo de quatro a cinco vezes o valor de
Fα, (p-1), (N-p).
122
Além do teste de hipóteses básico, apresentado acima, os parâmetros de soma dos
quadrados podem ser empregados em outras verificações quanto à qualidade do ajuste.
Neste caso, SQE é decomposto como:
(
SQ E = ∑ yij − yi ) + ∑ ( yi − yˆ i )2
2
i, j i, j
Onde:
SQE é a soma dos quadrados do ajuste,
SQEP é o erro médio quadrático das observações (erro puro),
SQfaj é a soma quadrática da falta de ajuste.
SQfaj
m−p
F= Fm − p,m − n
SQ EP
m−n
Onde:
m é o número de níveis.
n é o número de replicações.
SQR SQE
R2 = = 1− (7.20)
SQ yy SQ yy
123
7.4.3 Coeficiente de Múltipla Determinação Ajustado.
Uma vez que o valor de R2 cresce à medida que novos termos são acrescentados ao
modelo, isto é, quando o grau do polinômio ajustado é aumentado, o coeficiente de
múltipla determinação ajustado (R2a), que leva em conta o número de termos no
modelo, pode ser usado como forma de verificar a influência dos termos incluídos ou
retirados na qualidade da aproximação:
⎛ N −1 ⎞ ⎛
R a2 = 1 − ⎜⎜ ⎟⎟ ⎜1 − R 2 ⎞⎟ (7.21)
⎝ N − p ⎠ ⎝ ⎠
MS E
CV = (7.22)
y
Exemplo 4: Analisar e comparar o ajuste obtido através da SR linear dada pela Eq.
(7.5) e da SR quadrática dada pela Eq. (7.8).
Estas superfícies serão comparadas através dos parâmetros estatísticos definidos
anteriormente. Caso nenhuma delas apresente um ajuste adequado, o próximo passo
seria adotar um polinômio de maior grau, até ter-se um ajuste adequado.
p = 3; N = 5; F0 = 14,89 (7.23)
124
Fixando-se um nível de 95% de confiança para um teste com p-1 = 2 graus de
liberdade da soma SQR e N-p = 2 graus de liberdade da soma SQE, obtém-se F2, 2 =
19,00 > F0. Portanto, o ajuste não está estatisticamente validado. Ou seja, existe a
hipótese de que todos os coeficientes sejam nulos.
Observe também, que os valores de R2 e R2a estão relativamente distantes um do
outro. Então se poderiam acrescentar novos pontos ao conjunto dos pontos observados,
a fim de obter um melhor ajuste. Entretanto, com foi visto anteriormente, o gráfico da
função Ep não tem um comportamento linear (Fig. 7.3). Portanto, ainda se uma
quantidade grande de dados fosse usada, o ajuste linear não permitiria uma distribuição
normal dos resíduos. Assim, não teria sentido a analise da significância do ajuste. Pois o
emprego do teste F pressupõe uma distribuição normal dos resíduos.
Para a SR quadrática, Eq. (7.8), obtêm-se os seguintes parâmetros estatísticos:
F0 = 361,14; R2 = 0.9983
R2a = 0.9956 (7.24)
CV = 0.07961; p = 6; N = 9
bj
t=
se c jj
125
8. Referências Bibliográficas
Barros B. N., Scarminio I. S., Bruns R. E., “Como Fazer Experimentos – Pesquisa e
Desenvolvimento na Ciência e na Indústria”, 2001. Campinas – SP.
Bendat J. S., Piersol A. G., “Randon Data – Analysis and Measurement Procedures”,
1986, USA.
Button S. T., “Metodologia Para Planejamento Experimental E Análise De Resultados”,
2005. Campinas - SP.
Cunha F. D., “Análise de Confiabilidade de Sistemas: Fundamentos, Normatização e
Estudo de Caso”, 2007. Monografia apresentada à Universidade Federal de
Uberlândia, curso de Segurança do Trabalho.
Duarte M. A. V., “Ajuste de Modelos Dinâmicos de Estruturas com não Linearidades
Concentradas”, 1994. Tese de Doutorado apresentada à Universidade Estadual de
Campinas. Faculdade de Engenharia Mecânica.
Shimakura, S. E., Ribeiro P. J., “Apostila de Estatística”,2003. Departamento de
Estatística da Universidade Federal do Paraná.
Silva H. D., “Estatística”, 2005.
Saramago S. F. P., Silva N.,“Uma Introdução ao Estudo de Surperfícies de Resposta”,
2006. Uberlândia – MG.
126