You are on page 1of 131

UFU – Universidade Federal de Uberlândia LVA – Laboratório de Vibrações e Acústica

UFU – UNIVERSIDADE FEDERAL DE UBERLÂNDIA

FEMEC – FACULDADE DE ENGENHARIA MECÂNICA

LVA – Laboratório de Vibrações e Acústica

Curso de Planejamento Experimental

Outubro/2007

Autores :
Marcus Antonio Viana Duarte
Tatiana Meola

UFU - Universidade Federal de Uberlândia


FEMEC - Faculdade de Engenharia Mecânica
Av. João Naves de Ávila, 2121- Bloco 1M
Campus Santa Mônica
CEP 38.400-902 Uberlândia - MG

Telefone: (34) 3239 – 4147 ramal: 234


SUMÁRIO

1. Planejamento Experimental 1
1.1. Introdução 1
1.1.1. Técnicas Para Definição da Seqüência de Ensaios 2
1.1.2. Etapas do Planejamento Experimental e Análise de Resultados 4
1.2. Conceitos Básicos de Estatística 5
1.2.1. Experimentos Aleatórios 5
1.2.2. Espaço Amostral e Eventos 6
1.2.3. Freqüência Relativa 6
1.2.4. Probabilidade 7
1.2.5. Variáveis Aleatórias 8
1.2.6. Medidas de Tendência Central 10
1.2.7. Medidas de Dispersão 11
1.2.8. Momentos, Assimetria e Curtose. 13
1.2.9. Desigualdade de Chebyshev 15
1.2.10. Teorema do Limite Central 16
1.2.11. Distribuições Características de Amostragens 17
Distribuição Normal 17
Distribuição Chi-quadrado χ2 18
Distribuição t de Student 20
Distribuição F de Snedcor 21
1.2.12. Estimadores 22
Propriedades dos Estimadores 23
1.2.13. Intervalos de confiança. 25
Intervalo de Confiança para a Média µ 25
Variância conhecida 25
Variância Desconhecida 27
Diferença entre duas médias (µa - µb ). 28
Variâncias Conhecidas 28
Variâncias Desconhecidas 29
Intervalo de Confiança para Proporção 30
Intervalo de confiança para a diferença entre proporções 31
Intervalo de confiança para a variância (σ2) 31
1.3. Testes de Hipóteses 32
1.3.1. Tipos de Erros 34
1.3.2. Procedimento geral de teste 35
1.3.3. Teste para uma média 36
1.3.4. Teste para uma proporção 37
1.3.5. Decisões e poder 39
1.4. Comparação entre dois tratamentos 39
1.4.1. Diferença entre médias de dois grupos 39
Erro padrão - assumindo desvios padrões iguais 40
I.C. para a diferença entre médias assumindo desvios padrão iguais 40
Teste para a diferença das médias 40
I.C. para diferença de médias - desvios padrão diferentes 41
1.4.2. Comparando proporções 41
Intervalo de confiança para a diferença em proporções 41
Teste para a diferença de duas proporções 42
2. Comparações entre Mais de dois Tratamentos 43
2.1. Introdução 43
2.1.1. Objetivo 43
2.1.2. Pressupostos 43
2.1.3. Hipóteses 43
2.1.4 Notação 44
2.1.5 Modelo 44
2.1.6. Estatística do Teste 45
2.1.7. Análise 45
2.1.8. Tabela de ANOVA 46
2.2. Teste de Normalidade 47
2.2.1 - Teste de Kolmogorov-Smirnov 47
2.2.2 Teste de Shapiro-Wilk 50
2.2.3 - Teste D’Agostino-Pearson 52
2.3. Teste de Homocedasticidade 54
2.3.1. Teste de Hartley 54
2.3.2. Teste de Cochran 55
2.3.3. Teste de Bartlett 55
2.4. Teste de Kruskal-Wallis 56
2.4.1 Pressupostos 56
2.4.2 Limitações 56
2.4.3 O Teste 56
3. Blocos Aleatorizados e Planejamentos Fatoriais com Duas Classificações 59
3.1. Testes de Hipótese de Dados Emparelhados 59
3.2. Blocos Aleatorizados 60
3.3. Efeitos de Tratamentos: Planejamento Aleatorizado por Níveis 61
3.3.1. Análise de um modelo de efeitos fixos 63
3.3.2 Comparação das médias individuais dos tratamentos 66
3.3.3 Análise de um modelo de efeitos aleatórios 70
3.4. Efeitos de Blocos 71
3.4.1. Planejamento por Níveis Completo Aleatorizado por Blocos 71
3.4.2. Planejamento Por Níveis Incompleto Aleatorizados Por Blocos 74
4. Planejamentos com Múltiplos Blocos 77
4.1. Planejamentos Quadrados Latinos 77
4.2. Planejamento Quadrado Greco-Latino 80
5. Planejamentos Fatoriais: Modelos Empíricos 83
5.1. Planejamento Fatorial Completo 22* 83
5.1.1. Cálculo dos efeitos 85
5.1.2. Interpretação geométrica dos efeitos 86
5.1.3. Interpretação dos Resultados de um planejamento 22 87
5.1.4. Codificação dos fatores 88
−p
5.2. Experimentos Fatoriais Fracionados 2kResolução 88

5.2.1 Confundindo (Sinônimos, Tendências) 89


5.2.2. Delineamento de um Experimento Fatorial Fracionário 90
5.3. Delineamento de Taguchi 92
6. Análise de Regressão 95
6.1. Ajuste de Parâmetros 95
6.2. Principais Estimadores e suas Características 98
6.2.1. Estimador de Máximo a Posteriori (MAP) 100
6.2.2. Estimador de Máxima Verossimilhança (ML) 101
6.2.3. Estimador de Mínimos Quadrados 102
6.3. A Unicidade e o Criterio de Identificabilidade 104
6.4. Estimativa dos Erros 105
6.5. Correlação e Regressão 105
6.6. Regressão Múltipla 108
6.6.1. Estimador de Mínimos Quadrados (Resumo) 110
7. Técnica das Superfícies de Resposta 111
7.1. Superfície de Resposta Linear 111
7.2. Superfície de Resposta Quadrática 113
7.3. Outros Planejamentos Fatoriais 117
7.3.1 Um Planejamento Fatorial 23 117
7.3.2. Obtenção de Superfície de Resposta linear para planejamentos fatoriais 23 117
7.3.3. Um Planejamento Fatorial 24 118
7.3.4. Obtenção de uma Superfície de Resposta Linear para um planejamento
119
fatorial 24
7.4. Análise de Resíduos 121
7.4.1 Teste de Significância do Ajuste 121
7.4.2 Coeficiente de Múltipla Determinação 123
7.4.3 Coeficiente de Múltipla Determinação Ajustado 124
7.4.4 Coeficiente de Variação. 124
7.4.5. Teste Sobre um Coeficiente Particular 125
8. Referências Bibliográficas 126
PLANEJAMENTO EXPERIMENTAL

1. Planejamento Experimental
1.1. Introdução
O planejamento experimental, também denominado delineamento experimental,
representa um conjunto de ensaios estabelecido com critérios científicos e estatísticos,
com o objetivo de determinar a influência de diversas variáveis nos resultados de um
dado sistema ou processo (Button, 2005). Com isso, objetiva a determinação do número
ideal de experimentos que leve à obtenção de resultados com um dado grau de
confiabilidade.
Esse objetivo maior pode ser dividido em outros objetivos de acordo com o
propósito dos ensaios:
a. determinar quais variáveis são mais influentes nos resultados;
b. atribuir valores às variáveis influentes de modo a otimizar os resultados;
c. atribuir valores às variáveis influentes de modo a minimizar a variabilidade dos
resultados;
d. atribuir valores às variáveis influentes de modo a minimizar a influência de
variáveis incontroláveis;
A utilização das técnicas estatísticas de planejamento experimental possibilita:
· a redução do número de ensaios sem prejuízo da qualidade da informação;
· o estudo simultâneo de diversas variáveis, separando seus efeitos;
· a determinação da confiabilidade dos resultados;
· a realização da pesquisa em etapas, num processo iterativo de acréscimo de novos
ensaios;
· a seleção das variáveis que influem num processo com número reduzido de
ensaios;
· a representação do processo estudado através de expressões matemáticas;
· a elaboração de conclusões a partir de resultados qualitativos.
O planejamento experimental é uma ferramenta essencial no desenvolvimento de
novos processos e no aprimoramento de processos em utilização. Um planejamento
adequado permite, além do aprimoramento de processos, a redução da variabilidade de
resultados, a redução de tempos de análise e dos custos envolvidos. (Button, 2005)
No que se refere ao projeto de produtos, o planejamento experimental permite a
avaliação e comparação de configurações (projetos) distintas, avaliação do uso de

1
materiais diversos, a escolha de parâmetros de projeto adequados a uma ampla faixa de
utilização do produto e à otimização de seu desempenho. Os conceitos sobre
planejamento experimental podem ser resumidos em três termos muito empregados
atualmente: qualidade, produtividade e competitividade.

1.1.1. Técnicas Para Definição da Seqüência de Ensaios


Para que os resultados obtidos de ensaios experimentais possam ser analisados
através de métodos estatísticos, possibilitando elaborarem-se conclusões objetivas, o
planejamento experimental deve ser baseado numa metodologia também estatística, que
é a única forma objetiva de avaliar os erros experimentais que afetam esses resultados.
Há três técnicas básicas para a definição dos ensaios num planejamento
experimental: o uso de réplicas, da aleatorização (ou “randomização”) e de blocos.
A réplica consiste na repetição de um ensaio sob condições preestabelecidas. Esta
técnica permite obter-se uma estimativa de como o erro experimental afeta os resultados
dos ensaios e se esses resultados são estatisticamente diferentes. Ela também permite
verificar-se qual a influência de uma determinada variável sobre o comportamento de
um processo, quando a comparação é feita pela média das amostras.
Por exemplo, pretende-se verificar como a pressão afeta a velocidade de uma reação
química. Realizam-se ensaios em duas condições diferentes: p1 e p2 (com p1> p2 ).
Num primeiro planejamento, realiza-se um ensaio para cada condição, ou seja, sem
réplica, obtendo-se velocidades v1 e v2 respectivamente, iguais a 9,0 e 9,5. Como
afirmar que o aumento da pressão acarreta um acréscimo de velocidade de reação? Tal
resposta fica mais objetiva quando se realiza um grande número de ensaios (réplicas) de
modo a minimizar o erro experimental e poder comparar as médias dos resultados
obtidos nas amostras.
A aleatorização é uma técnica de planejamento experimental puramente estatística
em que a seqüência dos ensaios é aleatória e a escolha dos materiais que serão utilizados
nesses ensaios também é aleatória.
Uma das exigências do uso da metodologia estatística para o planejamento
experimental e para a análise dos resultados é que as variáveis estudadas e os erros
experimentais observados apresentem um caráter aleatório, o que é conseguido pelo
emprego desta técnica.

2
Por exemplo, ao se definir para o caso do exemplo anterior (influência da pressão
sobre a velocidade de reação) três valores para a pressão e quatro réplicas para cada
valor de pressão, teremos doze ensaios, como mostrado na Tabela 1.

Tabela 1
Pressão Número dos Ensaios
p1 1 2 3 4
p2 5 6 7 8
p3 9 10 11 12

Caso a seqüência estabelecida para os ensaios fosse 1, 2, 3....., 9, 10, 11 e 12,


qualquer problema experimental não detectado poderia acarretar a invalidação de todo
o procedimento experimental.
Ao se utilizar uma seqüência aleatória (por exemplo: 8, 5, 9, 1, 12, 3, 7, 4, 11, 2, 6 e
10) os erros experimentais devidos a qualquer variável não-controlável seriam
distribuídos ao longo de todo o procedimento, aleatorizando-o e permitindo sua análise
estatística.
A técnica dos blocos permite realizar-se a experimentação com uma maior precisão,
reduzindo a influência de variáveis incontroláveis. Um bloco é uma porção do material
experimental que tem como característica o fato de ser mais homogêneo que o conjunto
completo do material analisado. O uso de blocos envolve comparações entre as
condições de interesse na experimentação dentro de cada bloco. Na análise com blocos,
a aleatorização é restringida à seqüência de ensaios interna dos blocos e não ao conjunto
total de ensaios.
O uso de blocos pode ser analisado no seguinte exemplo:
Supõe-se que ao realizarem-se ensaios de dureza, cada um dos dois penetradores
disponíveis para o durômetro estejam fornecendo resultados distintos. Caso fosse feita
uma aleatorização completa do conjunto de ensaios, como no exemplo anterior,
diferenças significativas de propriedades entre materiais de diversas corridas de
produção poderiam mascarar a influência dos penetradores. Assim, utiliza-se a técnica
de blocos. Escolhem-se materiais provenientes de uma mesma corrida e se separa
corpos-de-prova para serem ensaiados com os dois penetradores. Desta forma, criou-se
um bloco: um conjunto de corpos de prova escolhidos de forma a garantir a
homogeneidade do material. A aleatorização dentro desse bloco dá-se quando se escolhe

3
ao acaso a seqüência como cada corpo-de-prova será ensaiado (primeiramente pelo
penetrador no. 1 ou vice-versa).

1.1.2. Etapas do Planejamento Experimental e Análise de Resultados


As etapas do planejamento experimental são:
1. Reconhecimento e definição do problema, que em grande parte, depende da
experiência já adquirida no estudo de processos semelhantes;
2. Escolha das variáveis (fatores de influência) e das faixas de valores em que essas
variáveis serão avaliadas, definindo-se o nível específico (valor) que será empregado em
cada ensaio. Deve-se verificar como essas variáveis serão controladas nos níveis
escolhidos e como eles serão medidos. A avaliação intensiva de diversas variáveis pode
ser necessária quando o estudo encontra-se em seus estágios iniciais e não se detém uma
experiência anterior, exigindo a avaliação das variáveis em diversos níveis. Quando se
deseja verificar a influência de uma variável em particular, o número de níveis deve ser
reduzido, além de manterem-se as demais variáveis influentes em níveis tão constantes
quanto possível.
3. Escolha adequada da variável de resposta, de modo que se garanta a objetividade na
análise dos resultados obtidos. O critério principal para essa escolha é de que o erro
experimental de medida da variável de resposta seja mínimo, permitindo a análise
estatística dos dados, com um número mínimo de réplicas;
4. Delineamento dos experimentos: tamanho da amostra (número de réplicas), seqüência
de execução dos ensaios, necessidade de aleatorização ou do uso de blocos.
Principalmente em processos complexos, com diversas variáveis influentes, não se
deve partir de um conjunto extenso de experimentos, que envolva um grande número de
variáveis, estudadas em diversos níveis. É mais produtivo estabelecer-se um conjunto
inicial com número reduzido de ensaios (poucas variáveis, poucos níveis de avaliação),
ir aprendendo sobre o processo e aos poucos, acrescentar novas variáveis e níveis e
eliminar variáveis que não se apresentem influentes. Com essa iniciativa, reduz-se o
número total de ensaios e o que é mais importante reservam-se os recursos para aqueles
ensaios realmente importantes, que normalmente não fornecem resultados objetivos nas
tentativas iniciais;
5. Execução dos experimentos, monitorando-os e controlando-os. Essa etapa é
extremamente importante, pois garante a validade experimental e exige do pesquisador

4
um conhecimento profundo dos instrumentos, equipamentos e métodos de controle e
monitoramento;
6. Análise dos resultados, com o uso de métodos estatísticos, a fim de que as conclusões
estabelecidas sejam objetivas. Destaque-se que esses métodos não permitem afirmar se
uma dada variável apresenta ou não um determinado efeito: eles apenas garantem a
confiabilidade e a validade dos resultados, de modo que se possa determinar o erro
associado nas conclusões, de acordo com um dado grau de confiança previamente
estabelecido;
7. Elaboração das conclusões e recomendações a partir da análise dos resultados.
As conclusões e recomendações permitirão que decisões sejam tomadas a respeito
do processo em estudo. Uma documentação extensa, com o uso de gráficos e tabelas
permite que se apresentem os resultados obtidos, a análise efetuada, bem como futuras
repetições do procedimento empregado.

1.2. Conceitos Básicos de Estatística


1.2.1. Experimentos Aleatórios
Experimentos aleatórios são observações de ocorrências incertas ou casuais, com as
seguintes características (Cunha, 2007):
9 Cada experimento poderá ser repetido um número arbitrário de vezes, sob
condições essencialmente inalteradas;
9 Em cada realização do experimento, não somos capazes de prever o
resultado que ocorrerá. Todavia, conhecemos o conjunto de todos os
possíveis resultados do experimento.
9 Quando o experimento for repetido um grande número de vezes, surgira uma
r
regularidade do resultado, isto é, haverá uma estabilidade da fração
n
(freqüência relativa) da ocorrência de um particular resultado.
Exemplos:
ƒ Jogar uma moeda e observar a sua face superior;
ƒ Sexo do primeiro filho de um casal;
ƒ Número de chips defeituosos encontrados num lote de 100 chips;
ƒ Peso de uma pessoa.

5
1.2.2. Espaço Amostral e Eventos
O conjunto formado por todos os possíveis resultados de um processo aleatório é
denominado espaço amostral (S).
Exemplo1: Lançamento simultâneo de três moedas e o registro das faces obtidas. Para
este experimento o espaço amostral é:
S = {KKK; KKC; KCK; CKK; KCC; CKC; CCK; CCC}em que , K = cara e C =
coroa.
Exemplo 2: Processo aleatório: Verificar a vida útil de uma lâmpada.
S = {x ∈ R : 0 ≤ x ≤ 24 meses}
Exemplo 3: Processo aleatório: Verificar a cor das flores de uma planta de feijoeiro.
S = {branca; roxa; amarela}.
Qualquer sub-conjunto do espaço amostral (S) é denominado evento. O evento A:
exatamente duas caras obtidas no lançamento de uma moeda, é representado pelo
conjunto:
A = { KKC; KCK; CKK }
Uma vez que os eventos podem ser interpretados como conjuntos, a eles podemos
aplicar as operações empregadas na teoria de conjuntos. Assim: Se A e B forem
eventos:
ƒ A ∪ B será o evento que ocorrerá se, e somente se, A ou B (ou ambos)
ocorrerem.
ƒ A ∩ B será o evento que ocorrerá se, e somente se, A e B ocorrerem.
ƒ A’ será o evento que ocorrerá se, e somente se, A não ocorrer.
A e B são mutuamente excludentes se não puderem ocorrer juntos, ou seja, A ∩ B =
∅, onde ∅ indica o evento vazio (nenhuma ocorrência).

1.2.3. Freqüência Relativa


Suponhamos que realizemos um experimento n vezes e que dois eventos a ele
associados A e B ocorram em números nA e nB, respectivamente, com n = nA + nB.
nA
Define-se por f A = a frequência relativa do evento A nas n repetições do
n
experimento. A frequência relativa fA apresenta as seguintes propriedades:
1) 0 ≤ fA ≤ 1
2) fA = 1 se, e somente se, A ocorrer em todas as n repetições

6
3) fA = 0 se, e somente se, A nunca ocorrer nas n repetições
4) Se A e B forem mutuamente excludentes e se fA∪B for a frequência relativa
do evento A ∪ B, então fA∪B = fA + fB.

1.2.4. Probabilidade
A chamada definição clássica de probabilidade de: Dado um conjunto de N eventos
equiprováveis, a probabilidade de ocorrência de um determinado evento A, é dada pela
razão:
n
P( A) =
N
onde:
n é o número de eventos de interesse
N o número total de eventos
As propriedades básicas da probabilidade de A são:
1. 0 ≤ P(A) ≤ 1
2. P(S) = 1
3. Se A e B forem mutuamente excludentes: P(A ∪ B) = P(A) + P(B)
A escolha das probabilidades acima é, obviamente, sugerida, pelas correspondentes
características da freqüência relativa.
Pode-se mostrar que os números P(A) e fA são próximos um do outro quando fA for
baseado em um grande número de repetições.
Com base nas propriedades da probabilidade e das operações conhecidas da teria
dos conjuntos, pode-se demonstrar os seguintes teoremas:
Teorema 1: P(∅) = 0.
Teorema 2: Para um evento A qualquer, P(A) = 1 – P(A’).
Teorema 3: Se A e B são dois eventos quaisquer, então, P(A ∪ B) = P(A) + P(B) -
P(A ∩ B).
Teorema 4: Se A, B e C forem três eventos quaisquer, então, P(A ∪ B ∪ C) = P(A)
+ P(B) + P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C).

Determinação de Probabilidades em Experimentos com Eventos Igualmente


Verossímeis

7
Existem vários experimentos aleatórios para os quais os resultados possíveis são
igualmente prováveis. Entretanto, muitos experimentos não apresentam esta
característica, a qual deve, portanto, ser cuidadosamente testada e justificada.
Exemplo: Um dado equilibrado é lançado, a probabilidade do evento A = {resultado
maior do que 4}, é o número de resultados favoráveis a A, que são dois resultados, sair
os números 5 e 6, e o número de resultados possíveis de todo o espaço amostral é 6.
Então:
número de resultados favoráveis a A
P( A) = (1.1)
número de resultados possíveis em todo o espaço amostral
2 1
P( A) = =
6 3

Métodos de Enumeração: Permutações, Arranjos e Combinações


Para o cálculo de probabilidades usando a Equação (1), precisamos, muitas vezes,
utilizar técnicas de análise combinatória para quantificar o numerador e o denominador.
Exemplo: Se tivermos os objetos a, b e c, poderemos obter as seguintes
permutações: abc, acb, bac, bca, cab e cba. Portanto, para este caso, a resposta é 6.
De modo geral, o número de permutações de n objetos diferentes é dado por:
Pn = n!
Consideremos novamente n objetos diferentes. Desejamos escolher r desses objetos
0 ≤ r ≤ n e permutar os r objetos escolhidos. Denotaremos o número de possibilidades
para fazer isso por An,r, calculado por:
n!
An ,r = (1.2)
(n − r )!
Consideremos novamente n objetos diferentes, queremos dispor r dentre esses n
objetos, sem considerar sua ordem, obtendo as chamadas combinações. O número de
combinações possíveis é dado por:
n!
C n ,r = (1.3)
r!(n − r )!

1.2.5. Variáveis Aleatórias


Ao realizar-se uma série de ensaios sob condições preestabelecidas, normalmente
observa-se uma variação de resultados de ensaio para ensaio. Essa variação denomina-
se erro experimental e é também um erro estatístico proveniente de condições de ensaio

8
incontroláveis. A existência deste erro caracteriza a variável de resposta como sendo
uma variável aleatória (V.A.), que pode ser discreta se apresentar um número finito de
valores possíveis, ou contínua, se estiver dentro de um intervalo de valores.
A probabilidade de uma variável aleatória x é dada pela sua distribuição de
probabilidade. Caso a variável seja discreta, essa distribuição é uma função
probabilidade p(x), caso seja contínua, passa a ser denominada função densidade de
probabilidade f(x) (f.d.p).
Na figura 1, representa-se p(x), para uma distribuição discreta, onde a função
representa a probabilidade P da distribuição.

Figura 1. Distribuição Discreta.

Na figura 2, é mostrada f(y), sendo P representada pela área sob a curva num dado
intervalo. Juntamente com cada figura, apresentam-se as propriedades de cada uma das
probabilidades em cada caso.

Figura 2. Distribuição Contínua.

9
Observações:
9 f(x), a função densidade de probabilidade, não é probabilidade. Somente
quando for integrada entre dois limites ela produzirá uma probabilidade, que
será a área sob a curva y = f(x) entre x = a e x =b, sendo a < b.
x0
9 P( x = x0 ) = ∫ f ( x)dx = 0
x0

Para caracterizar uma f.d.p., normalmente consideramos dois parâmetros principais:


1. Tendência central, em torno da qual a distribuição se concentra.
2. Dispersão, que indica a variação em torno da tendência central.

1.2.6. Medidas de Tendência Central


A média (μ), ou valor esperado da V.A., de uma distribuição indica a locação ou
tendência central dessa distribuição, sendo μ definida como:

μ= ∑ x p( x) , se x é discreta.
todos y

∞ (1.4)
μ= ∫ x f ( x) dx , se x é contínua.
−∞

Pode-se definir μ como o valor médio esperado para um número elevado de ensaios,
ou seja E(X), também denominado operador do valor esperado (Bendat, 1986).
Exemplo: Para a variável aleatória contínua definida por:
⎧ f ( x) = 0 para x<0
⎪ x
⎨ f ( x) = para 0 ≤ x ≤ 2
⎪ 2
⎩ f ( x) = 0 para x>2

tem-se:

∞ 0 2x2 4
E( X ) = ∫ xf ( x)dx = ∫ 0dx + ∫ dx + ∫ 0dx = unidade
−∞ −∞ 0 2 3
2
2
Em particular, para f(x) = x , o valor esperado para esta função é dado por:

E(x 2 ) = ∫x f ( x) dx = ψ 2x
2
(1.5)
−∞

ψ2: valor médio quadrático

10
1.2.7. Medidas de Dispersão
A variância σ2 representa a dispersão de uma distribuição e é definida como:

σ2 = ∑ ( x − μ ) 2 p( x) , se x for discreta. (1.6)


todos x


σ = ∫ (x − μ)
2 2
f ( x) dx , se x for contínua. (1.7)
−∞

A variância pode ser expressa usando o operador de expectativa E(x), pois:

σ 2 = E[( x − μ ) 2 ] (1.8)
Também se pode definir um operador de variância V(x) igual a:

V ( x) = E[( x − μ ) 2 ] = σ 2 (1.9)
A partir dos parâmetros m, s2 e c (constante), têm-se as seguintes propriedades:
1. E(c) = c 7. E(y1 + y2) = E(y1) + E(y2) = μ1 + μ2
2. E(y) = μ 8. V(y1 + y2) = V(y1) + V(y2) + 2Cov(y1 y2)
3. E(c y) = c E(y) = c μ 9. V(y1 - y2) = V(y1) + V(y2) – 2Cov(y1 y2)
4. V(c) =0 10. V(y1 ± y2) = V(y1) + V(y2) = σ 12 + σ 22
5. V(y) = σ2 11. E(y1 y2) = E(y1) E(y2) = μ1 μ2
6. V(c y) = c V(y) = c σ
2 2 2
⎛ y ⎞ E ( y1 )
12. E ⎜⎜ 1 ⎟⎟ ≠
⎝ y2 ⎠ E ( y2 )

Onde, y1 e y2 são variáveis aleatórias, com médias iguais a μ1 e μ2 e variâncias

iguais a σ 12 e σ 22 .
No caso das propriedades 10 e 11, assume-se que essas variáveis sejam
independentes.
O parâmetro covariância ( Cov(x,y) ) representa a associação linear que existe entre as
variáveis x e y. A covariância, a qual mede o grau de dispersão conjunta de duas
variáveis aleatórias, é dada por:
cov(x, y ) = E[( x − μ x )( y − μ y )]

Sendo que no caso de duas variáveis independentes, tem-se que Cov(x,y) = 0.


Para variáveis aleatórias contínuas, a covariância é dada por:

11
∞ ∞
E ( XY ) = ∫ ∫ ( xy)dxdy (1.10)
−∞ −∞

No caso do planejamento experimental, os resultados obtidos referem-se a uma


amostragem, que se espera possam reproduzir o comportamento da população que
representam.
Os métodos estatísticos só podem ser utilizados se as amostras forem escolhidas
aleatoriamente, ou seja, com a mesma probabilidade de serem retiradas da população
que outras amostras.
Qualquer função relativa aos resultados de uma amostra e que não contenha
parâmetros desconhecidos é denominada função estatística, como por exemplo, as
funções média ( x ) e variância (s2) da amostra. Elas são estimadores pontuais, ou
estimativas, respectivamente da média (μ) e da variância (σ2) da população.
n
∑ xi
i =1
x= (1.11)
n
n
∑ ( xi − x ) 2
i =1
s2 = (1.12)
n −1
onde x1, x2, ..., xn representam a amostra e n é o número de elementos da amostra. O
desvio-padrão da amostra (s) é comumente empregado como medida de dispersão por
apresentar unidade igual à das medidas (xi).
Exemplo: Um estimador pontual não deve, necessariamente, ser distorcido ou
parcial. Deve apresentar uma variância mínima, ou seja, menor que a variância de
qualquer outro estimador do parâmetro analisado.
A expressão que determina a variância de uma amostra, tem como numerador:
n
SS = ∑ ( xi − x ) 2
i =1

que é a soma corrigida dos quadrados das observações (xi), ou seja, a soma dos
quadrados das diferenças x1 − x , x2 − x , x3 − x , K, xn − x . Como a somatória dessas
diferenças é igual a zero, somente n-1 elementos são independentes. Assim, SS tem n-1
graus de liberdade, ou ν = n-1, de modo que:
⎛ SS ⎞
E⎜ ⎟ = σ 2
⎝ν ⎠

12
1.2.8. Momentos, Assimetria e Curtose.
Momentos
Se x1; x2; . . . ; xn são os n valores assumidos pela variável X, define-se a
quantidade:


n
x r + x2r + L + x nr xrr
X = 1
r
= i =1
(1.13),
n n
como o momento de ordem r em relação a origem. Nota-se que o primeiro momento em
relação à origem ( X 1 ) é a média de X.
O momento de ordem r em relação a uma origem k, qualquer, é dado por:
n
∑ ( xi − k ) r
i =1
M r' (k ) = (1.14)
n
O momento de ordem r em relação à média X é dado por:

n
∑ ( xi − X ) r (1.15)
i =1
M r' ( X ) =
n

Nota-se que o segundo momento em relação a média é a variância.


Para o caso dos dados encontrarem-se agrupados, na forma de uma distribuição de
freqüências, as expressões para o cálculo dos momentos serão:
n
∑ ( xi − k ) r Fi
M r' (k ) = i =1 (1.16)

n
F
i =1 i

onde:
xi é o ponto médio da i-ésima classe
Fi = freqüência absoluta da i-ésima classe.

Coeficiente de Assimetria (Cs).


Assimetria é o grau de desvio, ou afastamento da simetria, de uma distribuição. Se a
curva de freqüência (polígono de freqüência suavizado) de uma distribuição tem uma
“cauda" mais longa à direita da ordenada máxima do que à esquerda, diz-se que a

13
distribuição é assimétrica à direita ou assimétrica positiva. Se o inverso ocorre, diz-se
que ela é assimétrica à esquerda ou negativa.
O coeficiente de assimetria (Cs) é dado por:

M 3'
Cs = (1.17)
(σ 2 )1,5

Classificação das distribuições quanto à assimetria:


9 Cs = 0 distribuição é simétrica perfeita.
9 Cs > 0 a distribuição é assimétrica à direita.
9 Cs < 0 a distribuição é assimétrica à esquerda.
Existem ainda o primeiro e segundo coeficientes de assimetria de Pearson dados
respectivamente por:
X − Mo
Cs = (1.18)
s
3( X − M d )
Cs = (1.19)
s

Tipos de distribuições quanto à assimetria:

Distribuição Simétrica Distribuição Assimétrica Negativa

Distribuição Assimétrica Positiva

14
Coeficiente de Curtose
Curtose é o grau de achatamento de uma distribuição, considerado usualmente em
relação à distribuição normal, que será detalhada na seção 1.2.11. A distribuição que
tem um pico relativamente alto é chamada leptocúrtica, enquanto a distribuição que
possui o topo achatado é denominada platicúrtica e a distribuição que não é muito
pontiaguda, nem muito achatada, como acontece com a distribuição normal é
denominada mesocúrtica. O coeficiente de curtose é dado por:

M 4'
Ck = (1.20)
(σ 2 ) 2

Tipos de distribuição quanto à curtose:

Distribuição Leptocúrtica Distribuição Mesocúrtica

Distribuição Platicúrtica

1.2.9. Desigualdade de Chebyshev


Seja x uma Variável Aleatória com distribuição arbitrária, média μ, valor médio
quadrático ψ2 e variância σ2.

ψ x2 = ∫ x 2 p( x )dx ∫ x 2 p( x )dx (1.21)
−∞ x ≥ε

15
∞ 2
∫− ∞ x p(x)dx ≥ ∫ x ≥ε x p(x )dx
2 (1.22)

∫ x ≥ε x p(x )dx ≥ ε2∫ p ( x )dx 1.23)


2
x ≥ε

onde ε é um valor real.


Portanto:

ψ x2
Pr ob[ x ≥ ε ] =

∫ x ≥ε p (x )dx ≤ (1.24)
ε2
Substituindo x por x - μ, ψ2 será substituído por σ2 e a desigualdade de Chebyshev
pode ser escrita como:

σ x2
Pr ob[ x − μ x ≥ ε ] ≤ (1.25)
ε2
Fazendo ε = cσ, uma constante real vezes o desvio padrão, chega-se à forma final da
desigualdade de Chebyshev:

Pr ob[ x − μ x ≥ cσ ] ≤
1
(1.26)
c2

1.2.10. Teorema do Limite Central


Uma razão para a distribuição Normal ser considerada tão importante é porque
qualquer que seja a distribuição da variável de interesse para grande amostras, a
distribuição das médias amostrais serão aproximadamente normalmente distribuídas, e
tenderão a uma distribuição normal à medida que o tamanho de amostra crescer. Então
podemos ter uma variável original com uma distribuição muito diferente da Normal
(pode até mesmo ser discreta), mas se tomarmos várias amostras grandes desta
distribuição, e então fizermos um histograma das médias amostrais, a forma se parecerá
como uma curva Normal.
No caso de uma amostra de tamanho n retirada de uma população, seja finita ou
infinita, que apresenta média μ e variância σ2, se o valor médio da amostra é dado por
x , tem-se pelo teorema do limite central que:
x−μ
z= (1.27)
σ n
de modo que se n→ ∞ , tem-se a distribuição normal padrão, definida a seguir (1.2.11).

16
1.2.11. Distribuições Características de Amostragens
Distribuição Normal
Uma das distribuições de amostragem mais empregadas em técnicas estatísticas para
modelar experimentos aleatórios com número de réplicas elevado é a distribuição
normal f(x) ou distribuição de Gauss, definida para uma variável aleatória x.
É a mais importante das distribuições de probabilidades contínuas, pois a maioria
delas segue esta distribuição, aliado ao fato da facilidade e boa precisão que é obtida na
aproximação de outras distribuições para a normal, e o Teorema do Limite Central
(TLC) que é a base das estimativas e testes de hipóteses, realizados sobre a média de
uma população qualquer, que garante que a distribuição amostral das médias segue uma
distribuição normal, independentemente da distribuição da variável em estudo (Silva,
2005).
A função densidade probabilidade normal é dada por:
2
1 ⎛ x−μ ⎞
− ⎜ ⎟
1
f ( x) = e 2⎝ σ ⎠ (1.28)
2πσ

onde µ e σ são os parâmetros média e desvio padrão, respectivamente.


O gráfico da distribuição normal é dado por:

Propriedades da distribuição normal:


9 É simétrica em relação ao ponto x = µ
9 Tem forma de sino

17
9 As três medidas de posição, média, mediana e moda se confundem no ponto de
máximo da curva (x = µ)
9 Fica perfeitamente definida conhecendo-se a média e o desvio padrão
9 Tem dois pontos de inflexão em x = µ ± σ
9 É assintótica em relação ao eixo das abicissas
Sendo a equação (1.28) uma função densidade probabilidade (f.d.p), a área

compreendida entre a curva e o eixo x é igual a 1, ou seja, ∫
−∞
f ( x)dx = 1 . Portanto, a
b
área sob a curva entre os pontos a e b dada por ∫
a
f ( x)dx = 1 representa a probabilidade

da variável X assumir um valor entre a e b.


Deste modo, é imediato verificar que a probabilidade de um ponto qualquer é nula,
a
pois ∫
a
f ( x)dx = 0 .

Notação: X ~ N(µ, σ2).


Como se pode notar, o cálculo de probabilidades via distribuição normal envolve a
solução de integrais que não são nada triviais. Em virtude da grande aplicação da
distribuição normal, procurou-se tabelar os valores de probabilidade, que seriam obtidos
por meio da integração da função densidade probabilidade normal num determinado
intervalo. A dificuldade para se processar esse tabelamento se prendeu na infinidade de
valores que µ e σ poderiam assumir. Nestas condições, teria que se dispor de uma tabela
para cada uma das infinitas combinações de µ e σ. Procurou-se, por isso, obter uma
nova forma para a distribuição normal, que não sofresse a influência desses parâmetros.
O problema foi solucionado mediante o emprego de uma nova variável z, definida
x−μ
por z = , que transforma todas as distribuições normais, em uma distribuição
σ
normal reduzida, ou padronizada, de média zero e desvio padrão um, z ~ N(0; 1).
Assim, utilizamos apenas uma tabela para o cálculo de probabilidades, para
qualquer que seja a curva correspondente a uma distribuição normal. Desta forma, para
um valor de x = µ numa distribuição normal qualquer, corresponde o valor z = 0, na
distribuição normal reduzida. Para x = µ + σ, tem-se z = 1, e assim por diante.

Distribuição Chi-quadrado χ2
Uma distribuição de amostragem bastante empregada é a chi-quadrado, ou
distribuição χ2:

18
Se z1, z2, z3,...., zk são variáveis aleatórias, normalmente e independentemente
distribuídas, com μ= 0 e σ2 = 1 [NID(0,1)], então:

χ k2 = z12 + z 22 + ..... + z k2

onde χ k2 é uma variável aleatória que segue a distribuição chi-quadrado com k graus de
liberdade. A função densidade de chi-quadrado é:

1
( χ 2 ) ( k / 2)−1 e − χ
2
f (χ 2 ) = /2
, χ2 > 0 (1.29)
⎛k⎞
2 k / 2 Γ⎜ ⎟
⎝2⎠
onde Γ(n) é a função gama. Para n inteiro positivo, Γ(n) = (n-1)!
A distribuição chi-quadrado é assimétrica e distorcida, com µ = k e σ2 = 2k.
Seja uma distribuição normal, onde x1, x2, ..., xn, representam uma amostra retirada de
uma distribuição N(µ, σ2). Tem-se que:
n

SS
∑ ( xi − x ) 2
i =1
= ≈ χ n2−1 (1.30)
σ 2
σ 2

Assim, SS/σ2 está distribuída como chi-quadrado e tem n - 1 graus de liberdade, ou


seja, uma somatória de quadrados de variáveis aleatórias dividida pela variância, segue
a distribuição χ2.

Distribuições Qui-Quadrado com 1, 5 e 10 graus de liberdade.

19
Distribuição t de Student
x−μ
Viu-se que a variável z = ~ N(0; 1). De modo semelhante, pode-se
σ
demonstrar que:
x−μ
z= ~ N(0; 1)
σ (1.31)
n
Suponha que o parâmetro σ em 1.31 seja substituído por seu estimador não
tendencioso:

s 2
=
∑ ( xi − x ) 2
(1.32)
n −1
Assim, a equação 1.31 ficará:
x−μ
t=
s (1.33)
n
Pode-se demonstrar que a variável t, segue uma distribuição t de student com k = n –
1 graus de liberdade, cuja função densidade probabilidade é:
⎛ k +1⎞ k +1
Γ⎜ ⎟ −
⎝ 2 ⎠ ⎛ 2 ⎞ 2
f ( x) = ⎜1 + x ⎟ (1.34)
⎛k⎞ ⎜ k ⎟⎠
Γ⎜ ⎟ π k ⎝
⎝2⎠
Esperança: E(t) = 0;
k
Variância: V (t ) =
k+2
Características:
9 É simétrica em relação ao ponto x = 0 (média)
9 Se k tende para infinito, t tende para z, como pode ser observado na figura abaixo.

20
Distribuições t de student com 5 e 30 graus de liberdade e distribuição normal
padronizada.

Vale lembrar que se z e χ2 são variáveis aleatórias independentes respectivamente,


normal e chi-quadrado, então a variável aleatória t é dada por:
z
t=
χ2 (1.35)
k

Distribuição F de Snedcor

Sejam duas variáveis aleatórias independentes χ u2 e χ v2 , com u e v graus de


liberdade, respectivamente. A razão:

χ u2 u
Fu ,v = (1.36)
χ v2 v
segue a distribuição F, com u graus de liberdade para o numerador e v para o
denominador.
A distribuição de probabilidade de F é dada por:
u/2
⎛ u + v ⎞⎛ u ⎞
Γ⎜ ⎟⎜ ⎟ F (u / 2)−1
h( F ) = ⎝ 2 ⎠⎝ v ⎠ 0<F<∞
(u + v ) / 2 (1.34)
⎛ u ⎞ ⎛ v ⎞ ⎡⎛ u ⎞ ⎤
Γ⎜ ⎟Γ⎜ ⎟ ⎢⎜ ⎟ F + 1⎥
⎝ 2 ⎠ ⎝ 2 ⎠ ⎣⎝ v ⎠ ⎦

21
Por exemplo, suponha duas populações com distribuição normal e variâncias
idênticas. Se retirarmos uma amostra de cada população, respectivamente x11, x12, ..., x1n
e x21, x22, ..., x2n, com n1-1 e n2-1 graus de liberdade, então:

S12
≈ Fn1 −1,n2 −1
S 22

onde S12 e S 22 são as variâncias das amostras. Ou seja, a razão das variâncias das
amostras segue uma distribuição F.

Caso σ 12 ≠ σ 22 , tem-se:

S12
σ 12 S12 S 22
F= pois (n1 − 1) ≈ χ n21 −1 e (n2 − 1) ≈ χ n22 −1
S 22 σ 12 σ 22
σ 22

Distribuição F, com 10 graus de liberdade para o numerador e 20 para o denominador.

1.2.12. Estimadores
Estimador
Consideremos uma amostra (x1; x2; x3; ... ; xn) de uma variável aleatória que deve
descrever uma característica de interesse da população. Seja θ um parâmetro que
desejamos estimar, como por exemplo a média µ = E(x) ou a variância σ2 = V (x). Um
estimador, θˆ , do parâmetro θ é uma variável aleatória, que é função das observações x1;
x2; x3; ... ; xn.
Assim,

22
n
∑ xi
i =1
x= é um estimador da média populacional µ
n
n
∑ ( xi − x ) 2
i =1
s2 = é um estimador da variância populacional σ2
n −1

Estimativa
Estimativa é o valor numérico assumido pelo estimador quando os valores
observados x1; x2; x3; ... ; xn são considerados.
Assim,
x = 70 kg é um estimador da média populacional µ

s 2 = 9 kg 2 é um estimador da variância populacional σ2

Propriedades dos Estimadores


A) Não tendenciosidade
Um estimador θˆ é dito um estimador não tendencioso do parâmetro θ se E( θˆ ) = θ
Obs.: Os termos não tendencioso, não viciado e imparcial são sinônimos.
n
∑ xi
i =1
Exemplo 1: x = é um estimador não tendencioso da média populacional µ.
n

23
n
∑ ( xi − x ) 2
i =1
Exemplo 2: s 2 = é um estimador tendencioso da variância populacional σ2
n −1

Portanto:

Deste modo, verifica-se que s2 é um estimador tendencioso de σ2. Um estimador não


tendencioso é facilmente obtido por:

B) Consistência
Um estimador θˆ é um estimador consistente do parâmetro θ se:
lim n→∞ E[ θˆ ] = θ;

24
lim n→∞ V[ θˆ ] = 0;
n
∑ xi
i =1
x= é um estimador consistente da média populacional µ, pois:
n
E( x ) = µ;

σ2
lim n→∞ V[ x̂ ] = = 0.
n
C)
D) Eficiência
Se θ1 e θ2 são dois estimadores não tendenciosos de θ, então θ1 é mais eficiente que
θ2 se V(θ1) < V(θ2).
A eficiência relativa do estimador θ1 em relação ao estimador θ2 é dada por:
V (θ 2 )
Efθ1 ,θ 2 =
V (θ1 )
1.2.13. Intervalos de confiança.
Conhecendo-se a distribuição amostral do estimador, de um parâmetro θ, pode-se
facilmente determinar um intervalo que apresente uma confiança 1 - α para θ, como
será visto a seguir.

Intervalo de Confiança para a Média µ


Variância conhecida
⎛ σ2 ⎞
Sabe-se x ~ N ⎜ μ ; ⎟ , assim a variável z = x − μ terá distribuição N(0; 1).

⎝ n ⎟⎠ σ
n
Fixando-se um nível de confiança (1- α) virá:

25
E o intervalo de confiança para µ, com uma confiança de 1 - α, pode ser então
escrito como:
σ
IC ( μ )1−α = x ± z α (1.35)
2
n

onde n é o tamanho da amostra.

Obs.: Se ocorrer amostragem sem reposição em população finita (ASRPF) o intervalo


de confiança para a média será:

σ N −n
IC ( μ )1−α = x ± z α (1.36)
n N −1
2

onde:
N é o tamanho da população;
n é o tamanho da amostra.
Exemplo: Uma máquina produz rolamentos que apresentam desvio padrão de 0.042
polegadas em seu diâmetro. Desejando-se conhecer o diâmetro médio dos rolamentos
produzidos por esta máquina, extraiu-se uma amostra de 100 rolamentos, observando-se
uma média igual a 0.824 polegadas: Obter o intervalo com 0.90 de confiança para o
verdadeiro diâmetro médio dos rolamentos.
Solução:
Tem-se x = 0.824, σ = 0.042, n= 100, 1- α = 0.90 substituindo esses valores em
1.35 vem:

Interpretação: Como µ é um parâmetro e não uma variável aleatória, a interpretação


σ
correta do intervalo de confiança é: Construídos todos os intervalos do tipo x ± 1,65 .
n
90% deles conterão o parâmetro µ. Na prática, apenas um único intervalo é construído,
no presente exemplo tal intervalo foi [0.817; 0.831]. Esse intervalo é então comumente
chamado intervalo de confiança de 90% para µ. Isto é, tem-se 90% de confiança de que
esse intervalo contenha o valor µ, no sentido de que 90% dos intervalos assim
construídos conteriam µ.

26
É obviamente incorreto, do ponto de vista da estatística clássica, dizer que a
probabilidade do intervalo [0.817; 0.831] conter o valor µ é 0,90. Pois essa
probabilidade é 0 ou 1, dependendo de µ pertencer ou não ao intervalo fixo.

Variância Desconhecida
Quando não se conhece σ2 e consequentemente σ, mas sim sua estimativa s, o
intervalo de confiança para a média será dado por:
Amostras Pequenas (n ≤ 30)
s
IC ( μ )1−α = x ± t α (1.37)
2
n

t α com n-1 graus de liberdade,


2

onde n é o tamanho da amostra.

Obs. Se ocorrer amostragem sem reposição em população finita (ASRPF) o intervalo de


confiança para a média será:

s N −n
IC ( μ )1−α = x ± t α (1.38)
n N −1
2

t α com n-1 graus de liberdade


2

onde:
N é o tamanho da população;
n é o tamanho da amostra.
Amostras Grandes (n > 30)
Foi visto que à medida que se aumenta o tamanho da amostra, a distribuição t de
Student se aproxima da distribuição normal. Deste modo, quando se estiver trabalhando
com amostras grandes (n > 30), pode-se utilizar a distribuição normal padronizada z em
lugar da t na obtenção dos intervalos de confiança, mesmo que σ2 seja desconhecida.
Exemplo: Uma Companhia adquiriu 500 cabos. Uma amostra de 30 deles
selecionados ao acaso apresentou tensão de ruptura média igual a 2400 kg com desvio
padrão de 150 kg. Obter o intervalo com 95% de confiança para a verdadeira tensão
média de ruptura destes cabos.
Solução:

27
Tem-se: N = 500 n = 30, x = 2400, s = 150, 1- α = 0.95.

Interpretação: Existem 95% de confiança em se dizer que a verdadeira tensão média


de ruptura dos cabos está entre 2345,69 e 2454,31kg.

Diferença entre duas médias (µa - µb ).


Variâncias Conhecidas

σ a2 σ b2
IC ( μ a − μ b )1−α = x a − xb ± z α − (1.39)
na nb
2

onde:
xa e xb são as estimativas pontuais das médias das populações a e b, respectivamente;

σ a2 e σ b2 as variâncias das populações a e b, respectivamente;


na e nb os tamanhos das amostras das populações a e b, respectivamente;

Obs.: Se ocorrer ASRPF deve-se multiplicar a variância da população, na qual ocorreu


N −n
ASRPF, pelo fator de correção .
N −1

Exemplo: As empresas A e B produzem tubos para esgoto com as variâncias em seus


diâmetros iguais a 8 mm2 e 10 mm2, respectivamente. Uma amostra de 48 tubos da
empresa A apresentou diâmetro médio igual a 40 mm, e uma amostra de 36 tubos da
empresa B apresentou diâmetro médio de 42mm. Verifique, por meio de um intervalo
de confiança com 0.95 de probabilidade, se existe diferença entre os diâmetros médios
dos tubos das marcas A e B.
Solução:

28
Conclusão: Pode-se afirmar com 95% de confiança que a verdadeira diferença entre os
diâmetros médios dos tubos produzidos pelas empresas A e B está entre -2 ± 1.2973mm,
isto é, entre -3.2973 e -0.7027 mm. Como esse intervalo não compreende o valor 0
(zero) tem-se 95% de confiança em afirmar que os diâmetros médios dos tubos
produzidos por estas empresas não são iguais.

Variâncias Desconhecidas

Quando se desconhecem as variâncias populacionais ( σ a2 e σ b2 ) torna-se necessária

a substituição de seus valores paramétricos por suas estimativas amostrais ( s a2 e sb2 ).


Neste caso, deve-se utilizar a distribuição t de Student, em lugar da normal. Além desta
alteração deve-se considerar ainda se as duas populações são homocedásticas ou
heterocedásticas, isto é, se as variâncias populacionais (desconhecidas) são iguais ou
diferentes, o que pode ser aferido por meio de um teste de hipótese para homogeneidade
das variâncias.

Populações Homocedásticas

Sendo as populações homocedásticas ( σ a2 = σ b2 = σ2), assim, s a2 e sb2 são duas

estimativas para um mesmo parâmetro (σ2). Então o intervalo de confiança para a


diferença entre duas médias é dado por:

1 1
IC ( μ a − μ b )1−α = x a − xb ± t α s p + (1.40)
n a nb
2

t α com na+ nb – 2 graus de liberdade


2

onde:

(na − 1) s a2 − (nb − 1) sb2


sp =
n a + nb − 2

29
Populações Heterocedásticas

Sendo as populações heterocedásticas ( σ a2 ≠ σ b2 ), assim, s a2 e sb2 são as estimativas

de diferentes parâmetros por serem combinadas em um único valor. Então o intervalo de


confiança para a diferença entre duas médias é dado por:

s a2 sb2
IC ( μ a − μ b )1−α = x a − xb ± t α + (1.41)
n a nb
2

t α com υ graus de liberdade


2
onde:
2
⎛ s a2 sb2 ⎞
⎜ + ⎟
⎜ n a nb ⎟
υ= ⎝ ⎠
2 2
⎛ s a2 ⎞ ⎛ sb2 ⎞
⎜ ⎟ ⎜ ⎟
⎜ na ⎟ ⎜ ⎟
⎝ ⎠ + ⎝ nb ⎠
n a − 1 nb − 1

Intervalo de Confiança para Proporção


Amostras grandes (n > 30): O intervalo de confiança para a proporção é dado por:

pˆ qˆ
IC ( P)1−α = pˆ ± z α (1.42)
n
2

onde:
p̂ é a proporção estimada na amostra;
qˆ = 1 − pˆ ;
n é o tamanho da amostra
Obs.: Se ocorrer ASRPF, o intervalo de confiança para proporção é dado por:

pˆ qˆ N −n
IC ( μ )1−α = pˆ ± z α (1.43)
n N −1
2

Amostras pequenas (n ≤ 30): Quando a amostra for pequena deve-se utilizar a


distribuição t de Student, em lugar da normal e o intervalo de confiança para a
proporção será dado por:

30
pˆ qˆ
IC ( P)1−α = pˆ ± t α (1.44)
n
2

t α com n-1 graus de liberdade


2

Obs.: Se ocorrer ASRPF, o intervalo de confiança para proporção é dado por:

pˆ qˆ N −n
IC ( μ )1−α = pˆ ± t α (1.45)
n N −1
2

t α com n-1 graus de liberdade


2

Intervalo de confiança para a diferença entre proporções


Dadas duas amostras independentes, de populações diferentes, o intervalo de
confiança para a diferença entre as proporções nestas populações é dado por:
Amostras grandes (n > 30):
pˆ a qˆ a pˆ b qˆ b
IC ( Pa − Pb )1−α = ( pˆ a − pˆ b ) ± z α + (1.46)
na nb
2

onde:
p̂a é a proporção estimada na amostra;

qˆ a = 1 − pˆ a ;

qˆ b = 1 − pˆ b
na e nb são os tamanhos das amostras a e b, respectivamente.
Obs.: Se ocorrer ASRPF, deve-se multiplicar o componente da variância, referente à
N −n
população na qual ocorreu ASRPF pelo fator de correção .
N −1
Amostras pequenas (n ≤ 30):

pˆ a qˆ a pˆ b qˆ b
IC ( Pa − Pb )1−α = ( pˆ a − pˆ b ) ± t α + (1.47)
na nb
2

t α com na+ nb – 2 graus de liberdade


2

Obs.: Se ocorrer ASRPF, deve-se multiplicar o componente da variância, referente à


N −n
população na qual ocorreu ASRPF pelo fator de correção .
N −1
Intervalo de confiança para a variância (σ2)
O intervalo de confiança para a variância populacional é dado por:

31
Sabe-se que:
(n − 1) s 2
~ χ n2−1 (1.48)
σ 2

Então,

⎡ ⎤
⎢ (n − 1) s 2 2⎥
(n − 1) s
⎢ ≤σ2 ≤ ⎥ = 1−α (1.49)
⎢ χ α 2
χ α2 ⎥
⎢⎣ 1− 2 2 ⎥⎦

E o intervalo de confiança para a variância será:


⎡ ⎤
⎢ (n − 1) s 2 (n − 1) s 2 ⎥
IC (σ 2 )1−α =⎢ ; ⎥ (1.50)
⎢ χ2 α χ α2 ⎥
⎢⎣ 1− 2 2 ⎥⎦

1.3. Testes de Hipóteses


Uma hipótese científica é qualquer afirmação que possa ser refutada, caso contrário
pertencerá a outro ramo do conhecimento humano, como por exemplo, a religião. Assim
sendo, a hipótese: “Os motores da marca x são mais econômicos que os da marca y" é
uma hipótese científica, pois qualquer pessoa que duvide, ou queira comprová-la, pode
montar um experimento e averiguar sua veracidade. Por outro lado, a hipótese: “Deus
existe", não pode ser avaliada, não sendo, portanto, científica. (Silva, 2005).
Uma determinada hipótese é tida como verdadeira, se em sua avaliação não forem
encontrados indícios que a desaprovem, permanecendo assim até que se prove o
contrário. Para que uma hipótese científica seja testada, ela deve ser convertida em uma
hipótese estatística, que é uma armação sobre um parâmetro populacional. Um teste de
hipótese, fundamenta-se em um conjunto de regras, que permitem, a partir dos
resultados experimentais (amostrais) rejeitar ou não tal hipótese, associando a esta
decisão uma determinada confiança.
Em geral, intervalos de confiança são a forma mais informativa de apresentar os
achados principais de um estudo. Contudo, algumas vezes existe um particular interesse
em decidir sobre a verdade ou não, de uma hipótese específica (se dois grupos têm a
mesma média ou não, se o parâmetro populacional tem um valor em particular ou não).

32
Teste de hipóteses fornece-nos a estrutura para que façamos isto. Veremos que
intervalos de confiança e testes de hipóteses estão intimamente relacionados.
(Shimakura e Ribeiro, 2003)
Para a realização de um teste de hipóteses, devem-se formular duas hipóteses
estatísticas, a saber:
9 Hipótese de nulidade (H0) é a hipótese que seria testada, sendo geralmente
formulada com o intuito de ser rejeitada.
9 Hipótese alternativa (Ha) é qualquer hipótese que contrarie H0.
Exemplo: Suponha que se esteja interessado em verificar se a verdadeira
performance (km/litro de combustível) dos veículos, de determinada marca, equipados
com motores 1.6 c.c. seja de 14km/l, como afirma o fabricante, ou se este é inferior a
14km/l. Então deve-se formular as seguintes hipótese estatísticas:

Para verificar a veracidade da hipótese H0, deve-se conduzir um experimento


(coletar uma amostra), no qual será medida a performance de vários carros, que
fornecerão uma estimativa da performance média, e sua variância, a partir das quais,
verifica-se a veracidade da hipótese H0. Suponha que no experimento acima tenham
sido avaliados 9 carros, e que estes tenham apresentado uma performance média de 13
km=l, com variância 4(km/l)2. Pelo simples fato desta amostra de 9 carros ter
apresentado uma performance média inferior a informada pelo fabricante (14 km/l), não
se pode concluir que esta afirmativa seja falsa, pois como já é sabido, esta estimativa
está sujeita uma distribuição amostral. Deste modo, para verifica a veracidade de H0,
assume-se que esta hipótese seja verdadeira, isto é μ = 14 km/l. e calcula-se a
probabilidade de uma amostra, com tamanho n = 9, retirada desta população, fornecer
uma estimativa inferior a estimativa obtida (13 km/l). Caso esta probabilidade seja alta,
não haverá nenhuma razão para rejeitar a hipótese H0 (isto é, duvidar de sua
veracidade), sendo esta tida como verdadeira. Nesta situação, disse que a diferença
observada entre a média amostral (13 km/l) e a populacional (14 km/l) não é
significativa, daí a terminologia usual de que “o teste foi não significativo", usada para
dizer que a hipótese H0 não foi rejeitada. Por outro lado, se a probabilidade de se obter
esta estimativa for pequena (p < 0.05) há razões para acreditar que a verdadeira média
populacional seja menor do que se imaginava, ou seja a verdadeira performance deve

33
ser menor que 14 km/l. Nesta situação, diz-se que a diferença foi significativa, portanto
a hipótese H0 deve ser rejeitada (o teste foi significativo).
Obs.: Não existe nenhum argumento científico para se fixar o nível de probabilidade
limite de um teste em 0.05. Este é apenas um valor usual, devido à facilidade de sua
obtenção em tabelas. Nos nossos exemplos temos:

na amostra de n = 9 carros obteve-se x = 13km / l e s 2 = 4(km / l ) 2 ; sabendo-se que

⎛ σ2⎞
x ~ N ⎜ μ, ⎟ , assumindo μ = 14 km/l, e como não se conhece σ2, mas sim s2, tem-se:

⎝ n ⎟⎠

⎛ 4⎞
x ~ t (8) ⎜14, ⎟
⎝ 9⎠
gráfico:
x−μ 13 − 14
tc = = = −1.5
σ 2
n 9

Então,

P H0 ( x ≤ 13) = P(t ≤ −1.5) = 0.1720

Como esta probabilidade é alta, não há razões para acreditar que a verdadeira
performance média seja inferior a 14 km/l.

1.3.1. Tipos de Erros

Ao realizar-se um teste de hipótese, pode-se incorrer em dois tipos de erros, que


serão discutidos a seguir. Suponha que a hipótese H0 formulada, no exemplo anterior
seja verdadeira, isto é a performance média dos carros realmente é de 14 km/l, isto é (μ
= 14 km/l), e por efeito de acaso obtenha-se, na amostra, uma estimativa de
performance, cuja probabilidade de ocorrência seja muito baixa, o que levaria a rejeição
da hipótese H0 : μ= 14 km/l, que é verdadeira. Então, ter-se-á cometido um erro
denominado erro Tipo I (rejeitar uma hipótese H0) verdadeira. A probabilidade de se
cometer este erro é denominada nível de significância (α) sendo esta, determinada
(fixada) pelo pesquisador. Por outro lado, a hipótese formulada pode ser falsa, isto é na

34
verdade μ ≠14 km=/l, e por efeito de acaso obter uma estimativa, que nos leve a não
rejeição da hipótese H0 : μ= 14 km/l. Nesta situação ter-se-á cometido o erro Tipo II
(aceitar H0 falsa). A probabilidade de cometer este erro é (β), sendo esta uma função de
α, H0 e do tamanho amostral. As probabilidades de se cometer os erros Tipo I e Tipo II,
(α e β) são inversamente proporcionais, como pode ser observado na figura abaixo,
sendo que, a única maneira de se diminuir simultaneamente α e β é aumentando o
tamanho amostral (n).

Erros Tipo I e Tipo II

Os tipos de erros que podem ser cometidos em um teste de hipóteses, bem como
suas probabilidades estão resumidos na tabela 1.1.

Tabela 1.1. Tipos de erros passíveis de serem cometidos ao se testar uma hipótese.

1.3.2. Procedimento geral de teste

1. Estabeleça a hipótese nula, H0 e a hipótese alternativa Ha.

35
2. Decida qual o teste a ser usado, checando se este é válido para o seu problema.
3. Calcule a estatística de teste, T.
4. Encontre a probabilidade (p-valor) de observar um valor tão extremo ou maior do
que T se a hipótese nula é de fato verdadeira. Você precisará se referir aos valores
críticos nas tabelas estatísticas as quais fornecem p-valores correspondendo aos
valores das estatísticas de teste.
5. Avalie a força da evidência contra H0.(Quanto menor p-valor, tanto mais evidência
contra a hipótese nula.) Se necessário, decida se esta é evidência suficiente para
rejeitar (ou não rejeitar) a hipótese nula.
6. Estabeleça as conclusões e interpretação dos resultados.

O p-valor é a probabilidade de observar dados tão extremos quanto os obtidos se a


hipótese nula é verdadeira. Note as seguintes interpretações de p-valores:

Esteja ciente da diferença entre significância estatística e significância prática. Um


efeito pode ser estatisticamente significante, mas não ter qualquer importância prática e
vice-versa. Por exemplo, um estudo muito grande pode estimar a diferença entre a
média de peso de plantas como sendo 0.0001 gramas e concluir que a diferença é
estatisticamente significativa (p < 0.05). Contudo, na prática, esta diferença é
negligenciável e provavelmente de pouca importância prática.

1.3.3. Teste para uma média

Os passos principais do test-t para uma amostra aleatória x1 , x2,..., xn de uma

população com média μ são dados a seguir:

1. Estabeleça a hipótese nula, H0: μ = μ0 , e a hipótese alternativa Ha: μ ≠ μ0.


2. Calcule a média amostral μ̂ = x e o desvio padrão amostral s.

36
s
3. Calcule o erro padrão, SE = .
n
(μˆ − μ 0 )
4. Calcule a estatística de teste t = . Este é o número de erros padrão que
SE
μ̂ dista do valor de hipótese μ0.
5. Encontre o p-valor da distribuição t, com r = n-1 graus de liberdade, da tabela
usando os valores absolutos da estatística de teste.
6. Estabeleça conclusões e interprete os resultados.

1.3.4. Teste para uma proporção

Agora suponha que tenhamos um valor hipotético p0 para uma proporção. Podemos
realizar um teste de H0: p = p0 praticamente da mesma forma que o test-t acima. A
dualidade com intervalos de confiança segue exatamente da mesma forma. Suponha que
tenhamos uma amostra aleatória de tamanho n de uma população de interesse onde a
verdadeira proporção de membros numa categoria em particular é p. A hipótese nula é
H0: p = p0. Se o número observado na categoria de interesse é , então um teste da
hipótese é como segue:

1. Estabeleça a hipótese nula, H0: p = p0, e a hipótese alternativa Ha: H0: p ≠ p0..
x
2. Calcule a proporção amostral p̂ = .
n
)
p(1 − p̂ )
3. Calcule o erro padrão, SE =
n
( p̂ − p 0 )
4. Calcule t = , o número de erros padrão que p̂ dista do valor de
SE
hipótese p0.
5. Encontre o p-valor usando o valor absoluto da estatística de teste da tabela da
distribuição normal (ou equivalentemente da t com r = ∞ graus de liberdade).

Uma regra geral é que este teste é válido quando tem-se ambos np̂ e
n (1 − p̂) maiores do que digamos 10.

37
Quantas vezes ouvimos dizer “85 em cada 100 brasileiros preocupam-se com …”.
Se um pesquisador sério quiser saber o tamanho da amostra para fazer esta afirmação
com um erro máximo igual a ε, como deverá proceder?

⎛ x ⎞
P ( ε ) = P ( pˆ − p ≤ ε ) = P ⎜ − p ≤ ε ⎟
⎝n ⎠

Portanto:

⎧⎪ nε x − np nε ⎫⎪
P ( ε ) = P ⎨− ≤ < ⎬
⎪⎩ np (1 − p ) np (1 − p ) np (1 − p ) ⎪⎭

Uma vez que x b ( n, p ) e para n grande, tem-se que a variável aleatória:

x − np
z= tem distribuição N(0,1).
np(1 − p)

E pode ser re-escrita como:

ε n
z=
p(1 − p)

Portanto, para um dado erro ε, e uma projeção para p, é possível fazer uma
estimativa do tamanho necessário para a amostra. Quando não se tem nenhuma
expectativa com relação a p (por ex. p>90%), utiliza-se o valor máximo para o
denominador que é para p=0,5.

No nosso exemplo, teríamos para um erro de 5%:

z=1,96

e fazendo p=0,5 resulta em n=384 amostras.

38
1.3.5. Decisões e poder

Ao tomar uma decisão a favor ou contra uma hipótese existem dois tipos de erros
que você pode cometer. Você pode rejeitar a hipótese nula quando de fato ela é
verdadeira (erro tipo I) ou você pode falhar em rejeitar H0 quando de fato ela é falsa
(erro tipo II). Existe um balanço entre esses dois tipos de erros, no sentido de que ao
tentar-se minimizar a possibilidade de um tipo, aumenta-se a probabilidade do outro.
Frequentemente, denotamos as probabilidades destes dois erros como α e β,
respectivamente.

O poder de um teste é a probabilidade de rejeitar a hipótese nula quando esta é de


fato falsa. Isto é igual a 1- β. Em geral, quanto maior o tamanho da amostra, maior o
poder do teste. É desejável decidir sobre um tamanho de amostra conveniente antes de
conduzir um estudo de forma que os resultados do teste de hipótese terão poder
suficiente para responder a questão científica de interesse.

1.4. Comparação entre dois tratamentos


1.4.1. Diferença entre médias de dois grupos
Lembrando que o intervalo de confiança para a média populacional μ, de uma
amostra aleatória de tamanho n era da forma x ± t × SE . Agora consideremos a
comparação das médias das populações através da estimação das diferenças de médias e
calculando um intervalo de confiança para esta diferença das médias.
Quando temos amostras independentes de cada uma de duas populações, podemos
sumarizá-las pelas suas médias, desvios padrão e tamanhos amostrais. Denote estas

medidas por x1 , s1, n1 para a amostra um e x2 , s1, n1 para a amostra dois. Denote as
correspondentes médias populacionais e desvios padrão μ1, μ2, σ1 e σ2 respectivamente.

39
Erro padrão - assumindo desvios padrões iguais

Primeiramente, assumimos que os desvios padrão populacionais são os mesmos em


cada grupo, i.e. σ1 = σ2 = σ. Podemos combinar os dois desvios padrões amostrais para
formar uma estimativa combinada do desvio padrão. Atribuímos mais peso às amostras

maiores. Este desvio padrão combinado sp é a raiz quadrada da variância combinada s 2p

dada por

Agora podemos calcular o erro padrão das diferenças nas médias como

I.C. para a diferença entre médias assumindo desvios padrão iguais

Um intervalo de confiança para μ1 - μ2, é dado por

onde t é escolhido apropriadamente. Quando os tamanhos amostrais são grandes, um


intervalo de confiança aproximado de 95% é obtido usando t = 1.96.
Se os tamanhos amostrais não forem tão grandes então un intervalo exato de 95% de
confiança deveria de ser calculado selecionando o valor de t da tabela da distribuição t,
com n1 + n2 - 2 graus de liberdade e coluna p = 0.05. Para um intervalo de 99% de
confiança deveríamos selecionar o valor na coluna p = 0.01.

Teste para a diferença das médias

Um teste para a diferença entre médias corresponde a um teste de H0: μ1 - μ2 = 0.


Nosso teste estatístico é:

40
que é a estimativa de μ1 - μ2 menos o valor hipotético (zero neste caso) e tudo dividido
pelo erro padrão. Sob a hipótese nula, este segue uma distribuição t com n1 + n2 - 2
g.d.l. O valor obtido para t (ignorando seu sinal) é comparado com os valores tabelados
com os graus de liberdade apropriados, para obter um p-valor.

I.C. para diferença de médias - desvios padrão diferentes

Uma regra prática é que os desvios padrão populacionais σ1 e σ2 podem em geral


ser assumidas iguais se a razão do maior desvio padrão amostral para o menor for
menor do que 2 ou 3. Além disso, a suposição de variâncias iguais pode ser
grosseiramente avaliada através de historgramas dos dados. Testes formais estão
disponíveis se necessário.
Se os desvios padrão populacionais não puderem ser assumidos iguais, usamos uma
outra fórmula para o erro padrão de x 1 − x 2 , dado por:

Note que esta abordagem é usada somente para grandes amostras.


A estatística de teste usando este SE não segue uma distribuição t sob a hipótese
nula. Contudo, para tamanhos amostrais razoavelmente grandes (digamos ambos
maiores do que 30), podemos comparar a estatística de teste acima com uma
distribuição Normal padrão (última linha da tabela t).

1.4.2. Comparando proporções

Nesse tipo de experimento a idéia principal é comparar diretamente os dois lagos.


Portanto gostaríamos de calcular um intervalo de confiança de 95% para a diferença em
proporções. Note, contudo que isto é somente apropriado para grandes amostras, e desse
modo quando a amostra é pequena devemos ser cautelosos para não super-valorizar os
resultados.
Intervalo de confiança para a diferença em proporções
Seja p1 a verdadeira proporção populacional de um grupo 1, se seja p2 a proporção
no grupo 2. Estamos interessados na diferença em proporções, p2 – p1.
O erro padrão desta diferença é

41
onde p̂1 e p̂ 2 são as estimativa de p1 e p2.
Com isso podemos construir um intervalo de confiança da forma usual, ou seja,

Teste para a diferença de duas proporções


Podemos testar a hipótese nula H0: p2 – p1 = 0 versus a alternativa Ha: p2 – p1 ≠ 0,
usando a estatística:

e comparando este valor com a tabela t com infinitos graus de liberdade.

42
2. Comparações entre Mais de dois Tratamentos

Apesar de ser muito eficiente para comparação entre duas amostras, o teste t não
deve ser aplicado para comparações múltiplas devido a problemas com o erro do Tipo I.
Sabendo que em um teste de hipótese a probabilidade p de ocorrer um erro do tipo I
é igual ao nível de significância α, ao realizarmos n testes de hipóteses a distribuição
resultante será uma binomial. Portanto, a probabilidade de ocorrer k erros do tipo I pode
ser calculada pela Eq. 2.1.

prob ( k ) = C nk p k (1 − p )
n −k
(2.1)

Suponha que estejamos interessados em avaliar se 5 amostras pertencem à mesma


população. Se utilizarmos o teste t para comparar as amostras duas a duas, teremos uma
combinação C2,5 que resultará em 10 testes de comparação de médias. Para um nível de
significância de 5%, a probabilidade de que ocorra pelo menos um erro do Tipo I será o
complemento da probabilidade de que não ocorra nenhum erro, ou seja: 40,13%.

2.1. Introdução
A análise de variância ANOVA é a técnica universalmente utilizada em
comparações envolvendo várias amostras de dados.

2.1.1. Objetivo
Ao se utilizar uma ANOVA, o objetivo é a comparação de a grupos (tratamentos,
populações) representados por ni indivíduos (observações) em cada grupo.

2.1.2. Pressupostos:
As amostras são aleatórias e independentes.
Os grupos têm distribuição normal.
Os grupos são homocedásticos (variâncias constantes).

2.1.3. Hipóteses
H 0 : μi = μ i = 1,L , I
H1 : μi ≠ μ para pelo menos um i

43
2.1.4 Notação

ni
x i• 1
x i• = =
ni ni
∑ xij , é a média das ni observações do grupo i;
j=1

X •• 1 a ni
x •• = = ∑∑ x ij , é a média total.
N N i =1 j=1
onde N é o número total de observações

2.1.5 Modelo
Dado a j-ésima variável aleatória xij do i-ézimo grupo, a diferença com relação à
média amostral global pode ser escrita como:

x ij − x = ( x i• − x ) + ( x ij − x i• )

a n a n a n a n

∑∑ ( x ij − x ) = ∑∑ ( x i • − x ) + ∑∑ ( x ij − x i• ) + 2∑∑ ( x i• − x ) ( x ij − x i• ) (2.2)
2 2 2

i =1 j=1 i =1 j=1 i =1 j=1 i =1 j=1

Uma vez que:

∑(x
j=1
ij − x i• ) = 0

A Eq. 2.2 fica reduzida à Eq. 2.3.

a n a a n

∑∑ ( x − x ) = n ∑ ( x i• − x ) + ∑∑ ( x ij − x i• )
2 2 2
ij (2.3)
i =1 j=1 i =1 i =1 j=1

ou
SQDt = SQDg + SQDe

Desvio Total = Desvio entre grupos + Desvio intragrupos

glt = glg + gle

N-1 = a-1 + N-a.

44
onde N é o número total de observações e gl (ou ν) significa graus de liberdade.
Portanto, podemos definir:

• Valor Médio Quadrático Total = QMt = SQDt/glt


• Valor Médio Quadrático entre Grupos = QMg = SQDg/glg
• Valor Médio Quadrático do Erro = QMe = SQDr/gle

2.1.6. Estatística do Teste


Se os pressupostos forem válidos e se a hipótese nula for verdadeira:

(2.4)

Portanto, para um índice de significância α o critério de rejeição da hipótese nula


(H0) será:
F > Fα ,glg ,gle (2.5)

2.1.7. Análise
Se os pressupostos forem válidos, MQe é um estimador da variância das populações.
Por outro lado, se a hipótese nula for verdadeira a esperança matemática de MQg será
nula. Se a hipótese nula for falsa, MQg tende a resultar em valores maiores do que MQe
para compensar a dispersão de MQt, como pode ser visto na Figura 2.2 (lembre-se que
SQg=SQt-SQe), a qual mostra as curvas função densidade de probabilidade de três
populações com distribuição normal e a população resultante da combinação das três.

45
Figura 2.1. Exemplo de Hipótese H0 aceita.

Figura 2.2. Exemplo de Hipótese H0 recusada.

2.1.8. Tabela de ANOVA:


Os resultados de uma análise de variância são apresentados na forma da Tabela 2.1,
onde F é o valor observado da estatística de teste Fischer.

46
Tabela 2.1. Tabela com os resultados da ANOVA
Fonte de Soma dos Graus de Médias
F F(α,νg,νe)
Variação Quadrados liberdade quadráticas
Entre
SQDg a-1 QMg QMg/ QMe
Grupos
Dentro dos
SQDe N-a QMe
grupos
Total SQDt N-1

2.2. Teste de Normalidade

Apesar da análise de variância ser bem robusta com relação aos pressupostas, um
teste de normalidade e um de homocedasticidade devem ser realizados para fins de
controle.
Nos testes de normalidade, o passo inicial consiste na formulação das hipóteses:

Passo1: Formulação das hipóteses


H0: A característica em estudo da população ou os erros (desvios) segue a distribuição
normal.
H1: A característica em estudo da população ou os erros (desvios) não segue a
distribuição normal.

Passo 2: Escolha do índice de significância α


A seguir, para cada tipo de teste, tem-se a estatística apropriada.

2.2.1 - Teste de Kolmogorov-Smirnov


O teste de Kolmogorov-Smirnov pode ser aplicado para testar se a característica
estudada da amostra é oriunda de uma população com distribuição normal. O teste é de
execução simples, quando comparado ao qui-quadrado, é baseado na maior diferença
absoluta entre a freqüência acumulada observada e a estimada pela distribuição normal
(Sokal & Rohlf, 1997).

Passo 3: Estatística apropriada

47
A estatística apropriada do teste é baseada na maior diferença absoluta entre a
função de distribuição normal acumulada, F(zi) , e a freqüência relativa observada
acumulada e ajustada, F0,5 . As expressões utilizadas são:
1
D máx = g máx +
2n
onde:
gmáx : maior valor calculado de g;
n : tamanho da amostra ou número de parcelas.
g = F ( zi ) − F0,5

F0,5 =
( i − 0,5)
n
F(zi): função de distribuição normal acumulada;
i: número da amostra;

Passo 4: Conclusão
Quando o valor Dmáx for maior que o valor crítico dado pela Tabela 2.3, para um
tamanho de amostra n, δ = 0,5 e significância α), a hipótese Ho é rejeitada e conclui-se
que a característica em estudo da população não segue a distribuição normal. Por outro
lado, se Dmáx for menor que o valor crítico tabelado ( Dmáx < Dt ), a hipótese Ho é
aceita e conclui-se que a característica em estudo da população segue a distribuição
normal.

Tabela 2.2. Valores Críticos da Distribuição Dn da Estatística (Kolmogorov-Smirnov)

48
Para n>40 os valores críticos de Dn podem ser aproximados pelas seguintes
expressões:

Exemplo: Para exemplificar, serão utilizados os dados de massa da matéria fresca de


uma amostra com 10 repetições de 100 sementes de Dolichos biflorus L. Os passos para
a execução do teste são:

Passo 1: Formulação das hipóteses


H0: A massa da matéria fresca de sementes de Dolichos biflorus L. na população segue
a distribuição normal.
H1: A massa da matéria fresca de sementes de Dolichos biflorus L. na população não
segue a distribuição normal.

Passo 2: Significância estabelecida α = 0,05


Passo 3: Estatística apropriada
Na Figura 2.3 é mostrada, em forma de tabela, os passos necessários para calcular
Dmáx.

Fig. 2.3. Tabela com os passos necessários para calcular Dmáx para o exemplo.

49
Passo 4: Conclusão
Como a amostra é menor que 100, o valor de Dmáx = 0,1704 deve ser comparado
com o valor Dt = 0,21072 obtido na Tabela 2.2 para n = 10 , δ = 0,5 e significância 0,05.
Como o valor calculado de Dmáx é menor que o valor crítico tabelado Dt, a hipótese Ho
é aceita e conclui-se que a massa de matéria fresca de sementes de Dolichos biflorus L.
na população segue a distribuição normal.

2.2.2 Teste de Shapiro-Wilk


Passo 3: Estatística apropriada:
1 – Ordenar em ordem crescente as n observações da amostra
2 – Calcular:

3 – Calcular:

Se N é ímpar, despreza-se a observação mediana


Os valores de αN-i+1, são obtidos da Tabela 2.3.

Tabela 2.3.Coeficientes αN-i+1 para o teste de normalidade W de Shapiro-Wick.

50
4 – Calcular a estatística de teste:

Passo 4: Conclusão
Quando o valor W for maior que o valor crítico dado pela Tabela 2.4, para um
tamanho de amostra n e significância α), a hipótese Ho é rejeitada e conclui-se que a
característica em estudo da população não segue a distribuição normal. Por outro lado,
se W for menor que o valor crítico tabelado, a hipótese Ho é aceita e conclui-se que a
característica em estudo da população segue a distribuição normal.

Tabela 2.4. Valores Críticos da Distribuição W da Estatística Shapiro-Wick

51
Exemplo: Considere a seguinte amostra: 8 12 10 24 12 10 16 19 9 10. Teste se a
amostra provém de uma população Normal, isto é:
H0:A amostra provém de uma população Normal
H1:A amostra não provém de uma população Normal
1 - Ordenar a amostra:
8 9 10 10 10 12 12 16 19 24

2 – Calcular n*S2: 236

3 – Calcular b:

4 – Calcular W: 0.840

5 – Decisão:
Wcalc=0,840 < W(0,05,10) = 0.842
Deve-se rejeitar-se a hipótese de normalidade da amostra para um índice de
significância de 5%.

2.2.3 - Teste D’Agostino-Pearson


O teste D’Agostino-Pearson é um teste de normalidade abrangente que detecta
desvio de normalidade em função da assimetria (skewness) ou curtose (kurtosis).

Passo 3: Estatística apropriada:

1 – Calcular Zg1 e Zg2 :

52
n ∑ ( Xi − X )
3
( n − 2 ) g1
g1 = k 3 / (S ) 2 3
; k3 =
( n − 1)( n − 2 )
; b1 =
n ( n − 1)

A = b1
( n + 1)( n + 3)
; B=
( )
3 n 2 + 27n − 70 ( n + 1)( n + 3)
;
6 ( n − 2) ( n − 2 )( n + 5)( n + 7 )( n + 9 )

1 A
C = 2 ( B − 1) − 1 ; D= C; E= ; F=
ln D 2
C −1

(
Zg1 = E ln F + F2 + 1 ; ) Simetria

2
∑ ( Xi − X ) n ( n + 1)( n − 1) − 3 ⎡⎣⎢∑ ( Xi − X ) ⎤⎦⎥
4 2

g 2 = k 4 S4 ; k4 =
( n − 2 )( n − 3)

24n ( n − 2 )( n − 3) ( n − 2 )( n − 1) g 2
G= ; H=
( n + 1) ( n + 3)( n + 5 )
2
( n + 1)( n − 1) G

J=
(
6 n 2 − 5n + 2 ) 6 ( n + 3)( n + 5 )
; K = 6 + 8 / J ⎡2 / J 1 + 4 / J2 ⎤
( n + 7 )( n + 9 ) n ( n − 2 )( n − 3) ⎢⎣ ⎥⎦

2
1−
L= K
2
1+ H
K−4

2 3
1− − L
Zg 2 = 9K ; Curtose
2
9K

53
2 - Calcular a estatística de teste:

2 2
Dp = Zg1 + Zg2

Se H0 for verdadeiro, Dp tem tem um distribuição chi-quadrado com dois graus de

liberdade ( Χ 22 )

Passo 4: Conclusão

Quando o valor Dp for maior que o valor crítico Χ 22 , para um tamanho de amostra n

e significância α, a hipótese Ho é rejeitada e conclui-se que a característica em estudo


da população não segue a distribuição normal.

2.3. Teste de Homocedasticidade

Os Testes de homocedasticidade mais conhecidos são:


• Teste de Hartley
• Teste de Cochran
• Teste de Bartlett

Como nos testes de normalidade, tem-se:


Passo1: Formulação das hipóteses
H0: As variâncias das populações são iguais.
H1: Existe pelo menos uma variância diferente

Passo 2: Escolha do índice de significância α


A seguir, para cada tipo de teste, tem-se a estatística apropriada.

2.3.1. Teste de Hartley:


Passo 3: Estatística apropriada:
S2max
Fmax =
S2min

54
onde Smax e Smin são, respectivamente, os valores máximo e mínimo de desvio padrão
estimados para as n amostras.

Passo 4: Conclusão
Rejeitar H0 se Fmax > F(α,a,N-1)
onde α é o índice de significância do teste, a é o número de amostras sendo testadas e N
o número de observações global.

2.3.2. Teste de Cochran:

Passo 3: Estatística apropriada:

S2max
C= a
∑ Si2
i =1

Passo 4: Conclusão
Rejeitar H0 se C > C(α,a,N-1)

onde α é o índice de significância do teste, a é o número de amostras sendo testadas e N


o número de observações global, e
1
C(α, a, n) =
⎡⎣1 + ( a − 1) F ( (1 − α) / a, (a − 1) *a, n ) ⎤⎦

Com F igual a inversa da distribuição de Fischer.

2.3.3. Teste de Bartlett

Passo 3: Estatística apropriada:

⎡⎣ ∑ ( n i − 1) ⎤⎦ ln ⎢ ∑ i
⎡ ( n − 1)Si2 ⎤
⎢ ∑ ( n − 1) ⎥
( )
⎥ − ∑ ( n i − 1) ln Si2
Χc2 = ⎣ i ⎦
1 ⎡ 1 1 ⎤
1+ ⎢∑ − ⎥
3 ( k − 1) ⎣⎢ n i − 1 ∑ ( n i − 1) ⎦⎥

55
Passo 4: Conclusão

Rejeitar H0 se Χ c2 > Χ a2−1

onde α é o índice de significância do teste, a é o número de amostras sendo testadas e ni


é o número de observações da i-ésima amostra.

2.4. Teste de Kruskal-Wallis

Apesar da ANOVA ser bastante robusta em relação aos pressupostos, nos casos em
que os pressupostos falham de maneira significativa, pode utilizar o teste de Kruskal-
Wallis, o qual é uma abordagem não paramétrica para comparação de médias.

2.4.1 Pressupostos
Os dados devem ser variáveis aleatórias independentes.
As distribuições não precisam ser normais e a variância das populações não
precisam ser iguais.
O número mínimo de observações por amostra é cinco.
Os tamanhos das amostras devem, sempre que possível, serem iguais, apesar de ser
aceito uma pequena diferença.

2.4.2 Limitações
Se a hipótese nula for aceita, você não pode dizer que as amostras são as mesmas.

2.4.3. O Teste
Passo1: Formulação das hipóteses
H0: Todas a k (a) populações são idênticas
H1: Pelo menos uma das populações gera observações mais elevadas do que pelo
menos uma das populações.

Passo 2: Escolha do índice de significância α

Passo 3: Estatística do teste


1- Calcular a graduação:

56
Cada uma das k amostras contêm ni observações, totalizando N observações. As N
observações são graduadas por ordem crescente, isto é, para cada observação xij é
atribuída uma graduação R(xij). Caso existam observações iguais, a elas serão
atribuídos os valores médios.
2 - Calcular Ri:
k
R i = ∑ R x ij ( )
i =1

3 - Calcular a estatística de teste:

12 k
R i2
H= ∑ − 3 ( N + 1)
N ( N + 1) i =1 n i

Se tiver muitas observações repetidas, corrigir H:


H
H' = l
∑ q j ( q 2j − 1)
j=1
1−
(
N N2 −1 )
onde l é o número de conjuntos com observações repetidas e qj é o número de elementos
no j-ésimo conjunto.

Passo 4: Conclusão

Rejeitar H0 se H > w1−α


Os valores críticos são retirados da tabela com a estatística de Kruskal-Wallis, ou

podem ser aproximados por uma χ k2−1 .

Exemplo: Quatro reatores químicos diferentes foram testados para determinar o


rendimento de uma dada reação. Os resultados observados foram os seguintes:
Reator 1 Reator 2 Reator 3 Reator 4
117 119 83 52
114 161 52 97
145 123 68 44
153 112 97 83
105 83 104
66

57
Verifique se os reatores têm rendimento médio idêntico.
Solução:

Para um índice de significância de 5%, tem-se que χ 02.05,31 = 7.81 , ou seja: a

hipótese nula foi recusada.

58
3. Blocos Aleatorizados e Planejamentos Fatoriais com Duas Classificações

3.1. Testes de Hipótese de Dados Emparelhados


Num estudo pareado, temos duas amostras, mas cada observação da primeira
amostra é pareada com uma observação da segunda amostra. Tal delineamento ocorre,
por exemplo, num estudo de medidas feitas antes e depois no mesmo indivíduo ou num
estudo de gêmeos (onde cada conjunto de gêmeos forma um dado pareado). Como
esperado, as duas observações do mesmo indivíduo (ou de um conjunto de gêmeos) são
mais prováveis de serem similares, e, portanto não são considerados estatisticamente
independentes (Shimakura e Ribeiro, 2003).
Com dados pareados, podemos usar a seguinte notação:
x1i = medição 1 no par i,
x2i = medição 1 no par i,
então, escrevemos as diferenças nas medidas de cada par como: di = x2i – x1i.
Agora temos uma amostra de diferenças di, e podemos usar os métodos que já
estamos familiares. Podemos calcular um intervalo de confiança para a diferença média
e testar se a diferença média é igual a um particular valor (usualmente zero) ou não.
Referimo-nos a tal teste como um paired t-test ao contrário do test-t para duas amostras
acima.
Note que neste caso estamos interessados na diferença média enquanto que quando
temos duas amostras independentes, estamos interessados na diferença nas médias.
Ainda que numericamente estas quantidades são as mesmas, conceitualmente elas são
diferentes.
Exemplo: A mudança nos níveis de um contaminante numa certa área do início ao
final de seis meses de observação foram (em μ/l):

-1.5 -0.6 -0.3 0.2 -2.0 -1.2

A média e o desvio padrão são -0.9 e 0.81 μ/l, respectivamente. Então o erro padrão
é 0.81 / 6 = 0.33 μ / l .
Podemos agora realizar um test-t pareado para testar a hipótese nula de que a perda
na concentração média é 0. Para isso calculamos:

59
Note que este valor é negativo (porque a mudança média observada foi a redução na
concentração do poluente -- um valor positivo seria um aumento na concentração do
poluente). Observamos o valor absoluto da estatística de teste (2.73) na tabela, usando a
linha com n – 1 = 5 graus de liberdade.
A quinta linha da tabela mostra que 0.01 < p < 0.05 (porque o valor 2.73 está entre
os valores tabelados 2.571 e 4.032). Então, rejeitamos a hipótese nula ao nível de 5%.
Existe evidência ao nível de 5% de que a área em estudo sofreu uma redução em média
nos níveis do contaminante durante o período de seis meses.
Podemos adicionar à nossa conclusão o intervalo de confiança de 95% para a
redução média nos níveis do contaminante:

Estamos 95% confiantes que a redução média nos níveis do contaminante está entre
0.05 μ/l e 1.75 μ/l.

3.2. Blocos Aleatorizados


Em algumas situações não há interesse em que o planejamento experimental seja
totalmente aleatorizado, devido à heterogeneidade do material de análise. Nesses casos,
há necessidade de utilizar-se da técnica de blocos que representarão uma porção mais
homogênea do material (Button, 2005).
Um exemplo da aplicação dos blocos é a análise de comparação por pares de modo
a minimizar os erros causados pela heterogeneidade do material analisado, caso o
planejamento totalmente aleatorizado fosse empregado. Nessa análise, serão usados dois
níveis da variável de influência estudada, indicados pelo índice i e n réplicas indicadas
por j. O modelo estatístico que descreve os dados obtidos pode ser representado por:

onde, yij é uma observação (ou resultado), obtida para o nível i na réplica j, μi é a média
para o nível i, βj é o efeito sobre o resultado devido à j-ésima réplica e εij, um erro

experimental que apresenta média nula e variância σ i2 .

Se fizermos a análise da diferença entre os pares:

60
O valor esperado para a diferença é:

O teste da hipótese nula H0: μ1 = μ2 pode ser feito pela diferença por pares μd, ou
seja,
H0: μd = 0
H1: μd ≠ 0
O teste estatístico é feito com:

onde:

é a média das diferenças da amostra

é o desvio padrão das


diferenças da amostra

A hipótese nula é rejeitada caso verifique-se que |t0| > tα/2,n-1.


A técnica de análise por pares com o uso de blocos tem como principal benefício à
redução da estimativa da variabilidade, devido à eliminação da influência de variáveis
incontroláveis.

3.3. Efeitos de Tratamentos : Planejamento Aleatorizado por Níveis


Seja um procedimento experimental onde se realizaram ensaios com diferentes
níveis (ou tratamentos) de uma única variável de influência (fator), com n réplicas para
cada nível, como mostrado na tabela a seguir:

61
onde yij é o j-ésimo elemento obtido no tratamento (nível) i. Esses elementos podem ser
definidos pelo modelo estatístico linear:

onde μ é a média geral, comum a todos os tratamentos, τi é um parâmetro que define o


efeito de cada tratamento e εij é um componente devido a erros aleatórios.
O objetivo deste estudo é avaliar os efeitos dos tratamentos e estimá-los, através do
teste de hipóteses apropriadas. Para esse teste, assume-se que os erros do modelo
utilizado são normalmente e independentemente distribuídos com média zero e
variância σ2 igual para todos os tratamentos.
Esse modelo é denominado análise de variância de um fator único e para que a
análise seja objetiva é necessário que o procedimento experimental seja completamente
aleatorizado.
A análise dos efeitos dos tratamentos pode ser feita de duas maneiras. Na primeira,
os tratamentos foram escolhidos de forma específica e desta forma, o teste de hipóteses
refere-se às médias dos tratamentos e as conclusões extraídas serão aplicáveis somente
aos níveis considerados na análise, não podendo ser estendidos a outros níveis não
analisados. Nesse caso, tem-se a análise de um modelo de efeitos fixos (Button, 2005).
Já quando os tratamentos analisados representam uma amostra aleatória de uma
população de tratamentos, podem-se estender as conclusões da análise feitas para essa
amostra, para todos os outros tratamentos da população. Nesse caso, testam-se hipóteses
e tenta-se estimar a variabilidade de τi assim, tem-se a análise de um modelo de efeitos
aleatórios ou de um modelo de componentes de variância.

62
3.3.1. Análise de um modelo de efeitos fixos
Neste caso, os efeitos dos tratamentos τi são definidos como desvios a partir da
média geral, de modo que:

Da tabela anterior, tem-se que:

onde N = a.n é o número total de observações e y representa a média geral de todas as


observações.
A média estimada do i-ésimo tratamento é dada por E(yij) = μi = μ + τi, i = 1,2,..., a.
Ou seja, consiste da média geral m somada ao efeito do tratamento τi.
O teste de hipóteses é feito para verificar se as médias dos tratamentos são iguais:

caso H0 seja verdadeira, de modo que todos os tratamentos têm média igual a μ.
Para essa verificação, a análise de variância é a que melhor se aplica. O termo
análise de variância deriva da divisão da variabilidade total em seus componentes.
A variabilidade total dos resultados é representada pela soma corrigida dos
quadrados SST, que dividida pelo número de graus de liberdade N-1 fornece a variância
da amostra.

Essa soma pode ser escrita como:

63
O último termo da expressão é nulo pois:

Assim,

Como se observa na expressão acima, a soma corrigida dos quadrados – que


representa a variabilidade dos dados - é representada pela somatória dos quadrados das
diferenças entre as médias dos tratamentos e a média geral de todos os elementos,
adicionada à somatória - dentro dos tratamentos - dos quadrados das diferenças entre as
observações e as médias dos tratamentos.
Assim,
SST = SSTRATAMENTOS + SSE

onde SSTRATAMENTOS denomina-se soma dos quadrados devidos aos tratamentos (entre
tratamentos) e SSE é denominada soma dos quadrados devidos ao erro (dentro dos
tratamentos). SST apresenta N-1 graus de liberdade, SSTRATAMENTOS apresenta a-1 e SSE,
N-a graus de liberdade.
SS E
Assim, é uma estimativa da variância dentro de cada um dos tratamentos e
N−a
SSTRATAMENTOS
, a estimativa da variância entre os tratamentos.
a −1
Para a análise estatística das hipóteses, tem-se que SST é uma soma de quadrados de
variáveis aleatórias normalmente distribuídas, SST/σ2, SSE/σ2 e SSTRATAMENTOS/σ2 são
distribuídas como chi-quadrado respectivamente, com N-1, N-a e a-1 graus de
liberdade, se a hipótese nula H0 : τi = 0 for verdadeira. Nesse caso, aplicando-se o
teorema de Cochran (N-1 = N-a + a-1) tem-se que SSE/σ2 e SSTRATAMENTOS/σ2 são
variáveis aleatórias chi-quadrado independentes.

64
Se a hipótese nula é verdadeira, ou seja, não há diferença entre as médias dos
SSTRATAMENTOS (a − 1)
tratamentos, a razão F0 = é uma distribuição F com a-1 e N-a
SS E ( N − a )
graus de liberdade.
No caso da hipótese nula ser verdadeira, tanto o numerador quanto o denominador
da expressão são estimadores confiáveis de σ2. Assim, se o valor esperado para o
numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se F0 > Fα, a-1, N-a
A análise da variância pode ser feita construindo tabelas como a seguir:

O método apresentado anteriormente, considera que todas amostras possuíam n


réplicas. Num caso especial, onde o número de observações não pode ser mantido
constante em todos os tratamentos, definindo-se como ni, o tamanho da amostra para
a
cada um dos i tratamentos, tem-se nessa situação, N = ∑ n i e as expressões das somas
i =1
ficam:

Deve-se preferir o uso de tratamentos com amostras de tamanhos iguais, pois a


hipótese de que as variâncias sejam iguais para todos os tratamentos é mais facilmente
verificada quando ni = n e também porque a capacidade do teste é maximizada nessa
situação.

65
3.3.2 Comparação das médias individuais dos tratamentos
O método apresentado anteriormente permite verificar-se se as médias de diversos
tratamentos são diferentes ou não, mas não possibilita verificar quais delas divergem.
Para tanto, há necessidade de as somatórias das observações de cada tratamento (yi) ou
de suas médias ( y i ). Essas comparações são feitas através dos denominados métodos de
comparação múltipla. Os testes de comparação múltipla permitem investigar onde se
encontram as diferenças possíveis entre k médias populacionais.
Existem muitos testes deste tipo, no entanto, serão abordados apenas três:
• Teste HSD (honestly significant difference) de Tuckey
• Teste de Scheffé
• Teste do contraste
Estes testes permitem examinar simultaneamente pares de médias amostrais para
identificar quais os pares onde se registram diferenças significativas.

Teste HSD de Tuckey


Quando as amostras têm tamanhos iguais este teste é mais adequado do que o teste
de Scheffé.
O teste HSD de Tuckey foi originalmente desenvolvido para amostras de igual
tamanho, no entanto, muitos estatísticos sustentam que este é um método robusto a
desvios moderados deste pressuposto.
Neste teste, duas médias amostrais são comparadas usando:

onde, ST (1−α ) é o quantil de probabilidade (1-α) da distribuição da “Studentized Range”


(Tabela 3.1) com (k , N − k) graus de liberdade – ST (k , N -k):

P(W ≤ ST (1−α ) ) = 1−α , W ~ ST (k , N -k).

A hipótese H0: μi = μj é rejeitada, isto é, as médias amostrais xi e xj são consideradas


significativamente diferentes, se

66
Exemplo: Dado as médias amostrais de venda, relativas a 12 observações cada, de três
lojas, existe evidências estatística de que as vendas das lojas são diferentes?
x1 − x2 = 49 − 56 = 7

x1 − x3 = 49 − 51 = 2

x2 − x3 = 56 − 51 = 5

Usando um nível de significância igual a 0.05, ST (1−α ) = 3.77, logo:

Como x1 − x 2 = 7 > 4.718 , rejeita-se a hipótese H0: μ1= μ2.

Também, x2 − x3 = 5 > 4.718 , logo, rejeita-se a hipótese H0: μ2 = μ3.

Finalmente, como x1 − x3 = 2 < 4.718 , não se rejeita a hipótese H0: μ1= μ3.

Assim, há evidência de que a loja 2 tem um volume médio de vendas diferente das
lojas 1 e 3. Isto é, a média observada para a loja 2 difere significativamente das médias
observadas para as lojas 1 e 3, enquanto que, a diferença registrada entre o volume de
vendas da loja 1 e da loja 3 não é significativa.

Tabela 3.1. - Distribuição da Amplitude Studentizada ( P(qr,g>qrab) = 0.05)

67
Teste Scheffé
Neste teste a hipótese nula H0: μi = μj é rejeitada se:

onde, F(1−α ) é o quantil de probabilidade (1-α) da distribuição FNk −−1k :

Exemplo:
x1 − x2 = 6.4 − 9.5714 = 3.1714

x1 − x3 = 6.4 − 6.3333 = 0.0667

x2 − x3 = 9.5714 − 6.3333 = 3.2318

Consideremos um nível de significância igual a 0.01.

Assim, ao nível de significância de 0.01, há evidência de que à campanha de


marketing 2 está associado um volume médio de vendas diferente dos volumes médios
associados às campanhas 1 e 3. Isto é, a média observada para a campanha 2 difere
significativamente das médias observadas para as campanhas 1 e 3, enquanto que, a
diferença registrada entre as campanhas 1 e 3 não é significativa.

68
Teste de contraste
Um contraste C é uma combinação linear dos totais yi, que permite a comparação
das médias dos tratamentos.
a
C = ∑ ci y i
i =1

com a restrição de que:


a
∑ ci = 0 , para tratamentos com n iguais.
i =1

a
∑ ni ci = 0 , para tratamentos com n diferentes.
i =1

A soma dos quadrados para qualquer contraste é dada por:

para tratamentos com n iguais

para tratamentos com n diferentes

Um contraste é testado comparando-se SSC com SSE/(N-a) que deve ser distribuído
como Fα,1,N-a caso a hipótese nula seja verdadeira, ou seja, com H0 será rejeitada se F0 >
Fα,1,N-a.
O uso de contrastes ortogonais é um caso particular deste método, que oferecem
testes independentes para as médias dos tratamentos. Dois contrastes {ci} e {di} são
ortogonais se
a
∑ ci d i = 0 , para tratamentos com n iguais.
i =1

a
∑ ni ci d i = 0 , para tratamentos com n diferentes.
i =1

69
3.3.3 Análise de um modelo de efeitos aleatórios
Numa situação em que se deseja verificar um fator que apresenta um grande número
de níveis possíveis e seleciona-se aleatoriamente alguns destes níveis para análise, diz-
se que esse fator é aleatório. Como a escolha foi feita aleatoriamente, as conclusões
extraídas a partir dos resultados obtidos nos níveis analisados, podem ser estendidas
para toda a população de níveis. Nesse caso, assume-se que essa população é infinita ou
suficientemente grande para ser considerada infinita (Button, 2005).
O modelo estatístico linear pode ser novamente utilizado.

onde τi e εij são variáveis aleatórias. Se τi apresenta variância σ 2τ e é independente de εij,

a variância de qualquer observação é dada por:

V ( y ij ) = σ τ2 + σ 2

onde as duas parcelas são denominadas componentes de variância e o modelo, modelo


de componentes de variância ou modelo de efeitos aleatórios.

O teste de hipóteses neste modelo, assume-se que {εij} seja NID( 0, σ 2 ), que {τi}

seja NID( 0, σ 2τ ) e que ambas sejam independentes.

A representação da soma de quadrados SST = SSTRATAMENTOS + SSE permanece


válida. O teste de hipóteses é feito para a verificação da variância dos efeitos dos

tratamentos ( σ 2τ ):

Se σ 2τ = 0 , todos os tratamentos apresentam os mesmos efeitos. Porém, se σ 2τ > 0

esses tratamentos apresentam variabilidade significativa.

Novamente, SSE/ σ 2 e SSTRATAMENTOS/ σ 2 são distribuídas como chi-quadrado

respectivamente, com N-a e a-1 graus de liberdade, se a hipótese nula H0 for verdadeira
e ambas são variáveis aleatórias chi-quadrado independentes. Desta forma, a razão
SSTRATAMENTOS (a − 1)
F0 = é uma distribuição F com a-1 e N-a graus de liberdade.
SS E ( N − a )

70
Definindo MSTRAT como SSTRATAMENTOS/ a - 1 e MSE como SSE/ (N - a) pode-se
provar que:

A hipótese nula será rejeitada se F0 > Fα, a -1, N - a.

As variâncias σ 2 e σ 2τ podem ser estimadas:

No caso de amostras desiguais, n é substituído por:

Se as observações distribuem-se como NID, a razão (N - a) MSE/ σ 2 é distribuída

como χ 2N − a .

O intervalo de confiança 100 (1 - α) para o componente de variância σ 2 é dado por:

( )
Já a razão (a − 1) MS TRAT σ 2 + nσ 2τ é distribuída como χ a2 −1 , de modo que o

σ 2τ
intervalo de confiança para a relação é dado por:
σ 2 + σ 2τ

onde

71
3.4. Efeitos de Blocos
3.4.1. Planejamento por Níveis Completo Aleatorizado por Blocos
Nesse tipo de planejamento, tem-se por objetivo avaliar a influência dos tratamentos
para uma dada variável de influência, bloqueando-se uma fonte de variabilidade, que se
deseja eliminar (Button, 2005).
Como exemplo, teríamos a verificação de penetradores (tratamentos) na medição de
dureza de materiais distintos. Assim, os materiais seriam bloqueados.
O planejamento é definido como completo pois cada bloco contém todos os
tratamentos e, é aleatorizado dentro dos blocos.
Nesse estudo, tem-se a tratamento e b blocos, com o seguinte modelo estatístico:

a
onde μ é a média da população, τi é efeito do tratamento i, ( ∑τ i = 0 ) βj é o efeito do
i =1

b
bloco j ( ∑ β i = 0 ) e εij é o erro aleatório, distribuído como NID( 0, σ 2 ).
i =1

Devido ao planejamento por níveis e blocos, define-se este planejamento como um


modelo de efeitos fixos, tanto para os tratamentos como para os blocos.
O teste de hipóteses é dado por:

Também se define as seguintes somatórias:

As somatórias dos quadrados das diferenças podem ser relacionadas como


SST=SSTRATAMENTOS+ SSblocos + SSE, o que fornece o seguinte quadro de análise:

72
SS E
Assim, é uma estimativa da variância do conjunto total de dados,
(a − 1)(b − 1)
SSTRATAMENTOS
, a estimativa da variância dentro de cada um dos tratamentos e
a −1
SS blo cos
, a estimativa da variância dentro de cada um dos blocos.
b −1
Para a análise estatística das hipóteses, tem-se que SST é uma soma de quadrados de
variáveis aleatórias normalmente distribuídas, SST/σ2, SSTRATAMENTOS/σ2, SSBLOCOS/σ2 e
SSE/σ2 são distribuídas como chi-quadrado respectivamente, com N-1, a-1, b-1 e (a-
1).(b-1) graus de liberdade, se a hipótese nula H0 : τi = 0 for verdadeira.
Nesse caso, aplicando-se o teorema de Cochran (N-1 = a-1+b-1+( a-1).(b-1)) tem-se
que SSE/σ2, SSBLOCOS/σ2 e SSTRATAMENTOS/σ2 são variáveis aleatórias chi-quadrado
independentes.
Se a hipótese nula é verdadeira, ou seja, não há diferença entre as médias dos
tratamentos, a razão:
SSTRATAMENTOS (a − 1)
F0 = para os tratamentos
SS E (a − 1)(b − 1)

SS BLOCOS (b − 1)
F0 = para os blocos
SS E (a − 1)(b − 1)

73
são distribuições F com a-1 e (a-1).(b-1) e b-1 e (a-1).(b-1) graus de liberdade,
respectivamente.
No caso da hipótese nula ser verdadeira, tanto o numerador quanto o denominador
da expressão são estimadores confiáveis de σ2. Assim, se o valor esperado para o
numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se:
F0 > Fα, a - 1, (a - 1)(b - 1) para o teste dos tratamentos.
F0 > Fα, b -1, (a - 1)(b - 1) para o teste dos blocos.
Caso a hipótese nula seja rejeitada (os tratamentos têm influência), pode-se verificar
a influência de cada tratamento através de comparações múltiplas, com o uso de
contrastes.
Nesse caso, o procedimento é idêntico ao usado no modelo de efeitos fixos, apenas
empregando-se:

Um contraste será testado comparando-se SSC com SSE/((a-1).(b-1)) que deve ser
distribuído como Fα, 1, (a - 1)(b - 1) caso a hipótese nula seja verdadeira, ou seja, com:
SS C
F0 =
SS E (a − 1)(b − 1)
H0 será rejeitada se F0 > Fα, 1, (a - 1)(b - 1).

3.4.2. Planejamento Por Níveis Incompleto Aleatorizados Por Blocos


Quando no trabalho experimental há escassez de recursos, seja de matéria-prima ou
de disponibilidade no uso de equipamentos e instrumentos, pode ocorrer de não ser
possível o planejamento completo anteriormente apresentado. Nesse caso, pode-se
utilizar o planejamento incompleto aleatorizado por blocos, no qual nem todos os
tratamentos estão presentes em cada bloco (Button, 2005).
No planejamento incompleto balanceado, todos os blocos possuem o mesmo
número de tratamentos, sendo esse número definido como k, cada tratamento ocorre r

74
vezes no planejamento (ou é replicado r vezes), e assim, existem N = a.r = b.k
observações. Já o número de vezes que cada par de tratamentos aparece no mesmo
bloco é dado por l (que deve ser inteiro):

onde
a - número de tratamentos
b - número de blocos
k - número de tratamentos por bloco
r - número de vezes de ocorrência de cada tratamento
Se a = b, o planejamento é denominado simétrico.
O modelo estatístico que representa esse planejamento é dado por:

semelhante ao obtido para análise de modelos fixos.


A variabilidade total do modelo pode ser representada por:
SST = SSTRATAMENTOS(ajustado) + SSblocos + SSE
A somatória dos quadrados das diferenças para análise dos níveis (SSTRATAMENTOS
(ajustado)) deve ser ajustado, pois o número de observações difere dentro decada bloco.
Assim, tem-se:

com i = 1, 2, ....., a e onde nij = 1 se o tratamento i aparece no bloco j e nij = 0 caso


contrário.
Já SSE é obtido por subtração do total:

SSE = SST - SSTRATAMENTOS(ajustado) - SSblocos

75
SST apresenta N-1 graus de liberdade, SSTRAT (ajust.), a-1, SSBLOCOS, b-1 e SSE tem N-
a-b+1 graus de liberdade.
O teste estatístico apropriado para verificar a influência dos efeitos dos tratamentos
é:
SS TRAT .( ajust ) (a − 1)
F0 =
SS E ( N − a − b + 1)

A hipótese nula será rejeitada caso F0 > F a -1, N- a- b -1

76
4. Planejamentos com Múltiplos Blocos
4.1. Planejamentos Quadrados Latinos

Este planejamento é útil quando se tem por objetivo eliminar duas fontes de
variabilidade, bloqueando duas direções.
Como exemplo, assuma-se um estudo em que se deseja determinar a influência da
formulação sobre a quantidade de energia liberada num processo. Assim, tem-se a
energia como variável de resposta e a formulação como variável de influência. Porém,
as formulações podem ser preparadas por operadores diversos com diferentes matérias-
primas, o que configura duas fontes de variabilidade que se deseja eliminar.
O quadrado latino consiste de um arranjo quadrado p x p, onde os tratamentos
(níveis) da variável de influência são representados por letras latinas maiúsculas (A, B,
C,....), sendo que cada letra só pode aparecer uma única vez em cada linha e coluna.
As linhas e colunas do quadrado são ocupadas pelos níveis das fontes de
variabilidade bloqueadas. Denomina-se padrão um quadrado latino que tem a primeira
linha e a primeira coluna com os níveis em ordem alfabético, tem-se que um arranjo
quadrado latino 3 x 3 poderá apresentar somente uma combinação, enquanto que um
arranjo 4 x 4 apresentará 4 combinações, um 5 x 5 terá 56 e um 7 x 7 terá 16.942.080
(Button, 2005).
Alguns exemplos:

4x4 5x5
A B D C A B C D E
B C A D B C D E A
C D B A C D E A B
D A C B D E A B C
E A B C D

No caso do exemplo do arranjo 4 x 4, após sortear os tratamentos para o nível 1 da


fonte das linhas, ao iniciar o sorteio dos tratamentos para a segunda linha, o tratamento
A seria separado para a primeira coluna, o tratamento B para a segunda, o D para a
terceira, restando conseqüentemente, o tratamento C para a quarta coluna. O
procedimento repete-se para as demais linhas, restringindo cada vez mais o número de
tratamentos possíveis de sortear-se para cada coluna.

77
Este planejamento tem seus resultados analisados pelo seguinte modelo estatístico:

onde μ é a média da população, ai é o efeito do linha i, τj é o efeito do tratamento j da


variável de influência e βk é o efeito da coluna k e εijk é o erro aleatório, distribuído

como NID( 0, σ 2 ).

O teste de hipóteses é dado por:

As somatórias dos quadrados das diferenças são representadas pela expressão e pelo
quadro de análise apresentados a seguir.
SST = SSTRATAMENTOS + SSLinhas + SScolunas + SSE

78
Novamente, para a análise estatística das hipóteses, tem-se que SST é uma soma de

quadrados de variáveis aleatórias normalmente distribuídas, SST/ σ 2 ,

SSTRATAMENTOS/ σ 2 , SSLINHAS/ σ 2 , SSCOLUNAS/ σ 2 e SSE/ σ 2 são distribuídas como chi-

quadrado respectivamente, com N-1 , p-1, p-1, p-1 e (p-2).(p-1) graus de liberdade, se a
hipótese nula H0 : τi = 0 for verdadeira.
Nesse caso, aplicando-se o teorema de Cochran (N-1 = p-1+p-1+p-1+(p-2).(p-1)),

onde N=p2, tem-se que SSE/ σ 2 , SSLINHAS/ σ 2 , SSCOLUNAS/s2 e SSTRATAMENTOS/ σ 2 são

variáveis aleatórias chi-quadrado independentes.


Se a hipótese nula é verdadeira, ou seja, não há diferença entre as médias dos
tratamentos. Portanto, a razão:

SSTRATAMENTOS ( p − 1)
F0 =
SS E ( p − 1)( p − 2)
para os tratamentos

é uma distribuição F com p-1 e (p-1).(p-2) graus de liberdade.


No caso da hipótese nula ser verdadeira, tanto o numerador quanto o denominador

da expressão são estimadores confiáveis de σ 2 . Assim, se o valor esperado para o

numerador é maior que o valor esperado para o denominador, deve-se rejeitar H0 para
valores do teste de hipóteses que sejam muito grandes, ou seja, a hipótese nula será
rejeitada se F0 > Fα, p - 1, (p - 1)(p- 1).
Os testes com as fontes das linhas e das colunas perdem objetividade estatística
visto que durante o planejamento eles foram bloqueados, ou seja, tiveram sua
aleatoriedade restrita (Button, 2005).
A grande desvantagem do planejamento quadrado latino com quadrados pequenos
(3 x 3 ou 4 x 4) é o pequeno número de graus de liberdade associado. Para evitar esse
problema, usa-se replicar os experimentos. Essa réplica pode ser feita de três modos
distintos:
1. usando combinações com os mesmos níveis das fontes (linhas e colunas) em cada
réplica;
2. alternando níveis das fontes em cada réplica, fixando o nível da linha e alterando
o nível da coluna, ou vice-versa, para cada combinação;

79
3. usando diferentes níveis de linhas e colunas para cada réplica.
Nesses casos, as somatórias dos quadrados das diferenças são dadas por:
SST = SSTRATAMENTOS + SSLINHAS + SSCOLUNAS + SSRÉPLICAS + SSE
O quadro de análise para o caso (a) tem o índice representando as réplicas, assim
cada resultado é identificado por yijkl, ou seja, a observação na linha i, no tratamento j,
na coluna k e na réplica l. Com n réplicas para cada conjunto i, j, k tem-se um número
total de observações N = np2.

4.2. Planejamento Quadrado Greco-Latino


Esses planejamentos resultam da sobreposição de dois quadrados latinos p x p. As
letras latinas e gregas referem-se aos tratamentos. Como restrição, cada letra grega
aparece apenas uma vez ao lado de cada letra latina, configurando que os quadrados
sobrepostos denominam-se ortogonais.
Com o uso desse planejamento, torna-se possível o controle sistemático de três
fontes de variabilidade, ou seja, através do bloqueio em três direções podem-se analisar
quatro fatores (linhas, colunas, letras latinas e letras gregas), cada um deles em p níveis,

80
com um total de p2 observações. Podem-se obter quadrados greco-latinos a partir de
p≥3, exceto para p = 6.
A seguir, apresenta-se um exemplo de quadrado greco-latino 4 x 4:

O modelo estatístico correspondente a este planejamento é dado por:

onde m é a média da população, θi é o efeito do linha i, τj é o efeito do tratamento j da


variável de influência (letra latina), ωk é o efeito do tratamento k da fonte (letra grega),

ψl é o efeito da coluna l e εijkl é o erro aleatório, distribuído como NID(0, σ 2 ).

As somatórias dos quadrados das diferenças é representada pela expressão e pelo


quadro de análise apresentados a seguir.
SST = SSTRATAMENTOS (Latinas) + SSTRATAMENTOS (gregas) + SSLINHAS + SSCOLUNAS + SSE

81
A análise estatística do planejamento com quadrados greco-latinos é similar à usada
para os quadrados latinos. Assim, a hipótese nula será rejeitada para os níveis da
variável de influência, caso F0 > Fα, p - 1, (p - 1)(p - 3).

onde
SSTRATAMENTOS ( p − 1)
F0 =
SS E ( p − 1)( p − 3)
para os tratamentos (letras latinas)

82
5. Planejamentos Fatoriais: Modelos Empíricos
5.1. Planejamento Fatorial Completo 22*

Um dos problemas mais comuns que um pesquisador pode enfrentar é a


determinação de influência de uma ou mais variáveis sobre uma outra variável de
interesse.
Por exemplo, no estudo do volume do espaço de trabalho um robô manipulador é
interessante verificar como este volume é afetado ao se variar o ângulo entre as juntas
do robô, os dados dimensionais, quando se considera a presença de pontos singulares.
Esse problema é um caso particular da situação geral mostrada esquematicamente
na Fig. 5.1 em que um certo número de fatores, F1, F2, ... ,Fk, atuando sobre o sistema um
estudo, produz as respostas R1, R2, ...,Rj. U 1 m sistema pode ser uma função desconhecida
que se deseja determinar ou uma função conhecida, porém complicada analiticamente.

Figura 5.1. Representação de um sistema genérico.

Os fatores (ou variáveis de projeto), isto é, as variáveis controladas pelo


experimentador tanto podem ser qualitativas (como a presença ou não de pontos
singulares, no exemplo anterior) como quantitativas (como os dados dimensionais do
robô). Dependendo do problema, pode haver mais de uma resposta de interesse.
Eventualmente essas respostas também podem ser qualitativas.

Exemplo 1: Na Fig. 5.2, sob a ação da força F, o sistema de peso W se move até a
posição de equilíbrio que corresponde à mínima energia potencial. Seja a energia
potencial dada por:

1
Fonte EITON P. SILVA, SEZIMÁRIA F. P. SARAMAGO, FAMAT - UFU

83
Ep = W l (1 − cos θ ) − F l sen θ (5.1)
onde W = 400N e l =2,5m.

Figura 5.2. Pendulo de peso W sob a ação de uma força constante F.

Este exemplo será usado para ilustrar a execução e a análise dos resultados de um
planejamento fatorial 22. À partir deste exemplo, serão apresentados alguns conceitos
fundamentais que depois poderão ser aplicados a planejamentos envolvendo um número
qualquer de fatores.
Para executar um planejamento fatorial é necessário em primeiro lugar especificar
os níveis em que cada fator será estudado, isto é, os valores dos fatores (ou as versões,
nos casos qualitativos) que serão empregados. Pode-se, por exemplo, querer estudar o
efeito do fator força F em quatro níveis, 10N, 20N, 80N e 100N, e o efeito do ângulo θ
em três níveis, 0º, 45º e 90º.
Um planejamento fatorial requer a execução de experimentos para todas as possíveis
combinações dos níveis dos fatores. Cada um desses experimentos, em que o sistema é
submetido (por exemplo: F= 10N e θ = 45º), é um ensaio experimental. Havendo 4
níveis num fator e 3 no outro, como nesse caso, serão necessário 4x3 = 12 ensaios
diferentes, e o planejamento é chamado de fatorial 4x3. Em geral, se houver n1 níveis do
fator 1, n2 do fator 2, ..., e nk do fator k, o planejamento será um fatorial n1x n2 x ...x nk
de experimentos. Este é o número mínimo para se ter um planejamento fatorial
completo. O pesquisador pode querer repetir ensaios, para ter uma estimativa do erro
experimental, e nesse caso o número total de experimentos será maior.
Havendo k fatores, isto é, k variáveis controladas pelo experimentador, o
planejamento de dois níveis irá requerer a realização de 2x2x...x2 = 2k ensaios
diferentes, sendo chamado por isso de planejamento fatorial 2k (Barros, 1995).
Para o Exemplo 1, foram escolhidos os níveis 80N e 100N para a força F e 5º e
85º para o ângulo θ. A execução do planejamento 22 consiste em realizar ensaios e

84
registrar as respostas observadas (a energia potencial Ep, neste caso) em todas as
possíveis combinações desses níveis: (80N, 5º), (80N, 85º), (100N, 5º) e (100N, 85º). A
listagem dessas combinações, que é chamada de matriz de planejamento, é apresentada
na Tab. 5.1, juntamente com os valores de Ep.

Tabela 5.1. Matriz de Planejamento


Ângulo Energia
Força
Ensaio θ Potencial
F (N)
(graus) (Nm)
1 80 (-) 5 (-) -13,63
2 100 (+) 5 (-) -17,98
3 80 (-) 85 (+) 713,60
4 100 (+) 85 (+) 663,79

5.1.1. Cálculo dos efeitos


O efeito principal da força F é, por definição, a média dos efeitos da força nos
dois níveis do ângulo θ.
Usando a letra A para representar esse efeito, pode-se escrever:

1 ⎡( −17 ,98 − ( −13,63)) + ⎤ (5.2)


A= ⎥ = − 27 ,08
2 ⎢⎣(663,79 − 713,60 ) ⎦

A Eq. (5.2) pode ser reescrita como a diferença entre as duas médias:

1 1
A = (−17,98 + 663,79) − (−13,63 + 713,60) =-27,08 (5.3)
2 2

Como os valores –17,98 e 663,79 pertencem ao nível (+) e –13,63 e 713,60


pertencem ao nível (-) da variável força, tem-se que o efeito principal A é a diferença
entre a resposta média no nível superior e a resposta média no nível inferior desse
fator. Esse raciocínio vale para qualquer efeito principal num planejamento fatorial de
dois níveis e pode ser considerado como uma definição alternativa de efeito principal.
Utilizando esse raciocínio para o efeito principal do ângulo θ, que será denotado
por B tem-se:

85
1 1
B = (713,60 + 663,79) − (−13,63 − 17,98)
2 2
B=704,5 (5.4)

O significado prático desse resultado é que a Energia Potencial associada ao


ângulo θ=5º é, em média, 704,5% inferior a Energia Potencial obtida com o ângulo
θ=85º (mas, não se pode esquecer que a força e o ângulo podem se interagir, isto é, o
efeito de um fator pode depender do nível do outro fator).
Se não houvesse interação entre θ e F, o efeito A seria o mesmo nos dois níveis de
θ. Ou, equivalentemente, o efeito B seria o mesmo nos dois níveis de F.
O efeito de interação entre a força F e o ângulo θ, que será denotado por AxB ou
simplesmente AB é dado por:

1⎡ ⎤
AB = ⎢(663,79 − (−17,98) ) − (713,60 − ( −13,63) )⎥
2 ⎢ 14442 444 3 14442444 3⎥
⎣ α β ⎦

AB= -22,73 (5.5)

onde α é obtido com F fixo no nível superior, variando-se θ; β é obtido com F fixo no
nível inferior, variando-se θ. Pode-se verificar facilmente que AB = BA.

5.1.2. Interpretação geométrica dos efeitos


Pode-se dar uma interpretação geométrica dos efeitos que foram calculados se o
planejamento experimental for representado num sistema cartesiano em que cada eixo
corresponda a um fator. Como são apenas dois fatores, o espaço definido por eles é um
plano, no qual os quatro ensaios ocupam vértices de um quadrado. Os efeitos principais
são diferenças médias entre valores situados em arestas opostas e perpendiculares ao
eixo do fator em questão. Assim, a Fig. 3.5(a) mostra o efeito da força F e a Fig. 3.5(b)
o efeito do ângulo θ. O efeito de interação, Fig. 3.5(c), é a diferença média entre valores
situados nas duas arestas diagonais do quadrado, sendo considerada positiva a diagonal
que liga o ensaio (- -) ao ensaio (+ +).

86
(a)

(b)

(c)
Figura 5.3. Interpretação geométrica dos efeitos em um planejamento 22.

5.1.3. Interpretação dos Resultados de um planejamento 22.


A melhor forma de interpretar os resultados é traçar um diagrama contendo as
respostas em todas as combinações de níveis das variáveis, conforme Fig. 5.4.

87
Figura 5.4. Diagrama para interpretação dos resultados de um planejamento 22.

A mudança do ângulo θ de 85º para 5º diminui a energia potencial, mas essa


diminuição é mais pronunciada quando F=80N. E a mudança do valor absoluto da
força F de 80N para 100N diminui a energia potencial sendo essa diminuição mais
pronunciada quando θ=85º. A energia potencial mínima é obtida quando F=100N e θ =
5º e seu valor é –17,98 Nm.

5.1.4. Codificação dos fatores

É conveniente trabalhar com os fatores em uma escala onde cada fator varia de –1
para +1. Uma maneira comum de fazer isso é :

2 (F − μ F ) 2 (θ − μθ )
x1 = e x2 = (5.6)
u
(F − F ) l
(θ u −θ l )

onde μF e μ θ representam a média dos níveis de F e θ; Fu e Fl representam os limites


superior e inferior da força F; θu e θl representam os limites superior e inferior do
ângulo θ. Por exemplo, para F=95 N e θ=60º, obtém-se x1=0.5, x2=0.375.

−p
5.2. Experimentos Fatoriais Fracionados 2kResolução

Quando existem muitos fatores, um experimento fatorial completo, com todas as


combinações possíveis dos níveis dos fatores, envolve um grande número de teste
mesmo quando somente dois níveis de cada fator estão sendo pesquisados. Nesses
casos, faz-se útil um plano que exija menos testes do que o experimento fatorial

88
completo.
A idéia por traz de um projeto fatorial fracionário consiste em utilizar o fato de
que um projeto fatorial é ortogonal e que a interações de mais altas não são
significativas, ou seja: utilizam-se as interações de mais alta ordem para blocar
(confudir) fatores extras. Portanto, a fração é um subgrupo, cuidadosamente prescrito,
de todas as combinações possíveis. A análise dos fatoriais fracionários é relativamente
direta e, em função de sua estrutura, a utilização de um fatorial fracionário não impede a
possibilidade de uma complementação posterior de todo o experimento fatorial.

5.2.1 Confundindo (Sinônimos, Tendências)


Num experimento fatorial completo, temos 2k tentativas experimentais. Na
análise de um fatorial completo, temos a média geral, K efeitos, principais (2k - k - 1)
efeitos de interações. Os 2k experimentos podem ser utilizados para fornecer estimativas
independentes de todos os 2k efeitos. Num fatorial fracionário (digamos a fração 1/2p),
haverá apenas 2k-p experimentos e, portanto, somente 2k-p estimativas independentes são
possíveis. No delineamento de planos fracionários (isto é, na seleção do subgrupo ideal
do total das 2k combinações), a meta é manter cada uma das 2k-p estimativas o mais livre
de tendências ou o mais independente possível, ou seja, manter as estimativas dos
efeitos principais e, se possível, as interações de segunda ordem sem tendências ou
quase.
Em nível de exemplo, considere o seguinte experimento fracionário 23-1

A B C Observação Z
- - + 8
+ - - 11
- + - 9
+ + + 14

Neste exemplo, estuda-se o efeito de 3 efeitos utilizando apenas 4 experimentos.


Observe que os níveis de C são obtidos via produto dos níveis de A e B.
Os efeitos principais são dados pela estatística Z+−Z- onde uma vez mais os
subíndices menos e mais de cada letra no delineamento identificam as observações que
entram em cada média. Assim:
1. O efeito principal de A é estimado como sendo (11 + 14) / 2 - (8 + 9) / 2 = 4,0.

89
2. O efeito principal de B é estimado como sendo (9 + 14) / 2 - (8 +11) / 2 = 2.
3. O efeito principal de C é estimado como sendo (8 + 14) / 2 - (11 + 9) = 1,0.
Agora ao considerar a estimativa da interação dos fatores AB, o analista
descobrirá que os sinais necessários para estimar a interação AB são idênticos aqueles já
empregados para estimar o efeito principal de C. Portanto, o efeito principal de C e a
interação de dois fatores AB se confundem. Em outras palavras, a estatística Z+ -Z-=1.0,
possui uma estrutura de “sinônimos”, isto é, a estatística tanto pode se identificada
como C ou como AB. Na verdade, o valor esperado da estatística é igual a C + AB, a
soma dos dois efeitos, e na ausência de informações claras sobre o efeito principal de C,
não somos capazes de dizer se o efeito AB é positivo, negativo, grande ou pequeno. Da
mesma maneira:
• A estimativa de A confunde-se com BC.
• A estimativa de B confunde-se com AC.
Quando alguns, ou todos, efeitos principais se confundem com interações de dois
fatores, diz-se que o delineamento fatorial fracionário é de “Resolução III”. Quando um
ou mais efeitos principais confundem-se com interações de (no mínimo) três fatores,
diz-se que o fracionário é um delineamento de “Resolução IV”. Fracionários com
efeitos principais confundidos com interações de (no mínimo) quatro fatores são de
“Resolução V” e etc.

5.2.2. Delineamento de um Experimento Fatorial Fracionário.


Consideremos N igual ao número de realizações experimentais e K o número de
fatores a serem investigados. Quando N =2k, tem-se um delineamento fatorial completo,
quando N = 2k-p, tem-se uma réplica (1/2)p do fatorial 2k; por exemplo, 27-3 é uma
réplica de um oitavo de um fatorial 27, contendo 16 observações.
Para fazer o delineamento de um experimento fatorial fracionário de K fatores
A,B,C ..., basta utilizar-se as relações seguintes:
AA=BB=CC=...=I
A(BC)=(AB)C
e como conseqüência:
se D=ABC ⇒ I=ABCD (relações geradoras)
As relações acima vêm da representação dos níveis dos efeitos por vetores com
+1 e -1;
Seja, por exemplo, que estamos interessados em construir um delineamento 27-3.

90
Primeiramente devemos construir 3 (p) relações geradoras:

I=ABCDE ⇒ E=ABCD
I=ABCF ⇒ F=ABC
I=ABDG ⇒ G=ABD

é lógico que outras relações geradoras poderiam ser construídas. Quando se utilizam
todas as combinações possíveis de relações geradoras diz-se que o planejamento é
saturado. A resolução do planejamento é dado pelo tamanho da menor relação geradora,

no caso tem-se um fatorial 27IV−3 .

A partir das relações geradoras constrói-se a tabela com o delineamento


experimental:

Contraste Fator A Fator B Fator C Fator D Fator E Fator F Fator G


1 - - - - + - -
2 + - - - - + +
3 - + - - - + +
4 + + - - + - -
5 - - + - - + -
6 + - + - + - +
7 - + + - + - +
8 + + + - - + -
9 - - - + - - +
10 + - - + + + -
11 - + - + + + -
12 + + - + - - +
13 - - + + + + +
14 + - + + - - -
15 - + + + - - -
16 + + + + + + +

Para saber quais interações confundem uma estimativa, basta isolar a estimativa
do lado esquerdo das relações geradoras. Por exemplo:

91
A estimativa de A confunde-se com:

BCDE, pois A=BCDE


BCF, pois A=BCF
BD, pois A=BDG

5.3. Delineamento de Taguchi


A metodologia proposta por Genechi Taguchi, no início da década de 80,
apresenta três objetivos principais:
1. Projetar produtos ou processos que sejam robustos em relação às condições
ambientais;
2. Projetar e desenvolver produtos que sejam robustos à variabilidade de seus
componentes;
3. Minimizar a variabilidade em torno de um valor nominal.
A metodologia de planejamento experimental proposta por Taguchi pode ser
apresentada no exemplo descrito a seguir (extraído de Neto et all, 2001).
Consideremos uma mistura para bolo, fabricada, digamos, com quatro
ingredientes: farinha de trigo, açúcar, ovos e gordura vegetal. Quando o cozinheiro vai
preparar o bolo, tem de adicionar leite, ajustar a temperatura do forno e controlar o
tempo que a massa vai ficar assando. Esses fatores também afetam o resultado final,
mas estão fora do alcance do fabricante, por mais explícitas que sejam as instruções na
embalagem.
Aos primeiros fatores, que podem ser controlados durante a fabricação da
mistura, Taguchi chama de parâmetros. Os outros são fontes de ruído. Na abordagem de
Taguchi, estes últimos também devem ser incluídos durante o planejamento e o
desenvolvimento do produto. Para isso ele recomenda o uso de planejamentos fatoriais
ortogonais, semelhantes aos vistos neste capítulo.
Dois tipos de planejamento devem ser construídos: um arranjo interno,
envolvendo apenas os parâmetros, e um arranjo externo baseado nas fontes de ruído.
Esses dois arranjos são então cruzados, isto é, realizam-se ensaios em todas as suas
possíveis combinações. Na mistura para bolo, por exemplo, se considerarmos apenas
dois níveis para todos os sete fatores mencionados, um delineamento experimental de
Taguchi poderia resultar no esquema mostrado na tabela 5.2.
Para Taguchi, a resposta deve estar tão próxima do alvo quanto possível, mas

92
também deve ser robusta (pouco sensível) à influência do ruído. O método de Taguchi
propõe que se analise a resposta média para cada combinação no arranjo interno, e que a
variabilidade seja analisada escolhendo uma razão sinal-ruído (SN) apropriado. Três
razões SN padrão são amplamente empregadas:

1) A melhor nominal SNT, usada quando se deseja reduzir a variabilidade em torno


de um valor nominal, que é o caso deste exemplo:

__ 2
y
SN T = 10 log ,
s2

2) A quanto maior melhor SNL, usada quando se deseja maximizar os resultados:

⎛1 n 1 ⎞
SN L = −10 log10 ⎜ ∑ 2 ⎟
⎜n ⎟
⎝ i =1 yi ⎠

3) A quanto menor melhor SNS, usada quando se deseja minimizar os resultados:

⎛1 n ⎞
SNS = −10 log10 ⎜ ∑ yi2 ⎟
⎜n ⎟
⎝ i =1 ⎠

Dois ensaios da tabela, o segundo e o oitavo, produzem respostas médias


exatamente sobre o alvo (80). No entanto, o segundo ensaio deve ser preferido, porque
tem um desvio padrão de apenas 1,83, contra 4,97 do oitavo.

Tabela 5.2. Exemplo de Planejamento de Taguchi para o desenvolvimento de uma

93
mistura para bolo.
Tempo/Leite/Temperatura
F G A O --+ -+- +-- +++ y s SNT
- - - - 85 96 97 92 92,5 5,45 24,6
- - - + 82 81 78 79 80 1,83 32,8
- + + - 75 80 70 73 74,5 4,20 25,0
- + + + 66 75 83 70 73,5 7,33 20,0
+ - + - 84 91 95 90 90 4,55 25,9
+ - + + 78 72 80 69 74,8 5,12 23,3
+ + - - 86 85 90 91 88 2,94 29,5
+ + - + 86 82 77 75 80 4,97 24,1

Taguchi sugere que os experimentos utilizem ensaios de dois níveis, definidos


por planejamentos em redes ortogonais designadas por L4, L8, L12, L16 e L32, onde o
numero indica o total de ensaios de cada planejamento. Os arranjos ortogonais são
planejamentos fatoriais fracionados, ou seja, planejamentos fatoriais que têm o número
de ensaios reduzidos ao se considerar somente os efeitos das variáveis de influência e de
algumas de suas interações. Isso pode ser feito quando se conhece previamente que a
interação de algumas variáveis não apresentará influência significativa sobre a variável
de resposta. Assim, a rede L4 é um fatorial fracionário 23-1, no qual os níveis da terceira
variável são definidos pela relação geradora I = 123. O planejamento L8 é equivalente
ao fatorial 27-4, construído a partir das relações geradoras I = -124, I = -135, I = -236 e I
= 1237.
A grande crítica que se faz à metodologia de Taguchi é o fato dela não
considerar os efeitos das interações das variáveis de influência, o que pode ser
estatisticamente ncorreto em algumas análises, pois como foi destacado, os arranjos
ortogonais empregados por Taguchi nada mais são do que planejamento fatoriais
fracionados, que foram originalmente desenvolvidos para situações em que previamente
descartavam-se os efeitos de algumas interações de variáveis.
Para um melhor entendimento do delineamento de Taguchi, sugere-se a leitura
do livro de Montgomery.

94
6. Análise de Regressão
6.1. Ajuste de Parâmetros
No problema de estimação de parâmetros, a expressão matemática para a função de
transferência ( TF ) do modelo em função dos parâmetros do sistema é conhecida. Os
valores das entradas f e saídas Y, bem como as condições iniciais ou valores de
contorno são avaliáveis, caso necessário, e alguns ou todos os parâmetros β do modelo
são desconhecidos. Caso haja ruído ε nos dados medidos ηm, uma hipótese comumente
utilizada é de que o mesmo é aditivo aos dados ηr, do sistema real, como mostrado na
figura 6.1. A solução para o problema é obter “a melhor” estimada dos parâmetros
desconhecidos, usando alguns valores medidos das excitações e das respostas do
sistema (Duarte, 1994).

Fig. 6.1. Hipótese sobre o ruído ε.

O processo de ajuste consiste na construção de uma função objetivo, r, dependente


do erro, e, existente entre os dados simulados η e os medidos ηm. A estimação de
parâmetros β do modelo é obtida através da maximização ou minimização da função
objetivo.
Existem dois modelos de erros utilizados como função objetivo: o modelo de erro na
entrada, ou na excitação, e o modelo de erro na saída, ou na resposta.
O esquema do modelo de erro na entrada está mostrado na figura 6.2.

Fig. 6.2. Modelo de erro na entrada ou excitação.

95
Como pode ser observado no esquema mostrado na figura 6.2, o modelo
matemático usado para o ajuste de parâmetros, é dado por:

η = TF −1 (Y, β )
(6.1)
ηm = ηr + ε

Os modelos matemáticos utilizados em dinâmica podem ser construídos de tal forma


que o modelo de erro na entrada conduza a modelos de ajuste linear em relação aos
parâmetros β, mesmo para o caso de modelos não lineares em relação às grandezas
físicas do sistema. Nestes casos, a equação 6.1 pode ser reescrita como:

η = X(Y ).β
(6.2)
η = ηr + ε

onde X(Y) é a matriz de sensibilidade, função das respostas do sistema.


O esquema do modelo de erro na saída está mostrado na figura 6.3.

Fig. 6.3. Modelo de erro na saída ou resposta.

Para sistemas dinâmicos o modelo de erro na saída é um modelo não linear em


relação aos parâmetros. O modelo matemático usado para o ajuste de parâmetros, é
dado por:

96
η = TF(f , β)
(6.3)
ηm = ηr + ε

No caso de modelos não lineares em relação aos parâmetros, torna-se necessária a


utilização de algoritmos não lineares para a maximização ou minimização da função
objetivo. Mos métodos que usam derivadas, a função não linear (03), ou a função
objetivo, são linearizadas e, procedimentos recursivos são utilizados para estimação dos
valores dos parâmetros.
No método de linearização de Gauss, os dois primeiros termos de uma expansão em
série de Taylor de TF, na equação 6.3, são retidos. Seja η um vetor de dimensão n e
função dos p parâmetros β a serem estimados. Supondo que f tenha derivada contínua
nas vizinhanças do vetor b, distante Δβ de β. A resposta η pode ser aproximada pela
Equação 6.4:

η = TF(f , β) = TF(f , b + Δβ) ≅ TF(f , b ) + X(b ).Δβ (6.4)

onde X(b) é a matriz de sensibilidade das respostas em relação aos parâmetros, com um
elemento genérico da linha i e coluna j, calculado pela Equação 6.5.
∂η(i )
X(i, j) = − (6.5)
∂b( j)

Substituindo-se a Equação 6.4 na Equação 6.3, resulta na Equação 6.6 que tem, a
menos de uma constante, a mesma forma da equação 6.2.

η = TF(f , b ) + X(b ).Δβ


ηm = ηr + ε (6.6)

De maneira iterativa, os valores de b são atualizados até uma eventual convergência


do processo. Para evitar que o procedimento divirja, normalmente, algum
amortecimento é introduzido na direção de busca (Box-Kanemasu, Levenberg,
Marquardt).

97
Utiliza-se uma expansão em série de Taylor da função objetivo, não linear, retendo
os termos de até segunda ordem, resultando em:

1
r (b + Δb ) = r (b ) + J(b ).Δb + Δb'.H(b ).Δb (6.7)
2

onde ‘ significa transposto, J é a matriz Jacobiana e H a Hessiana.


Para se determinar, em primeira aproximação, o valor de Δb que minimiza r(b),
considera-se que as matrizes Jacobiana e Hessiana são independentes de Δb, diferencia-
se parcialmente o lado esquerdo da Equação 6.7 em relação a Δb, e igualando-se a zero,
resulta:

J(b ) + H(b )Δb = φ (6.8)

A solução de (6.8), para Δb, é dada por:

Δb = − H −1 (b ). J (b ) (6.9)

6.2. Principais Estimadores e suas Características


Os principais estimadores de parâmetros podem ser desenvolvidos a partir do
teorema de Bayes, que é definido pela seguinte expressão:

P(η m | β).P(β)
P(β | η m ) = (6.10)
P(η m )

onde P( ) significa probabilidade e P( | ) indica probabilidade condicional, sendo β e ηm


variáveis aleatórias.
Tem-se por objetivo maximizar P(β|ηm). Os estimadores ditos Bayesianos
normalmente utilizam as seguintes informações e hipóteses a priori, com relação às
variáveis β e ηm:
9 β tem distribuição Normal N(βo,V), sendo βo a esperança matemática E[β] e V a
matriz de covariância Cov[β].
9 ε é um ruído com distribuição Normal de media zero e covariância ψ.

98
9 β e ε são estatisticamente independentes.
9 Não existe erro na matriz de sensibilidade X.
Com estas hipóteses, a variável aleatória ηm tem uma distribuição Normal, sendo:

E[η m ] = X.βo
Cov[η m ] = X.V.X' + Ψ (6.11)

Da Equação (6.2), resulta:

Cov[η m ] = E[(η m − X.βo )(


. η m − X.βo )']
= E[{X(β − βo ) + ε}.{X(β − βo ) + ε}'] (6.12)

Tendo-se em vista a Equação 6.12 e a hipótese de que β e ε são estatisticamente


independentes, pode-se derivar a expressão para P(β|ηm):

P(β | ε ). ∂ε / ∂η m P(β ).P(ε ) P(β ).P(η m − X.β )


P(β | η m ) = = = (6.13)
P(η m ) P(η m ) P(η m )

onde o símbolo significa módulo.

Usando a Equação 6.13 com a hipótese de distribuição normal, a função de


densidade de probabilidade g, fica:

⎛ 1 1 ⎞
g (β | η m ) = K. exp⎜ − .(β − β o ) − .(η m − Xβ )'.Ψ −1 .(η m − X.β )⎟ (6.14)
⎝ 2 2 ⎠

onde K é uma constante e exp é a função exponencial.


Aplicando o logaritmo Neperiano à Equação 6.14 tem-se:

1
(
ln (g(β | η m )) = ln (K ) − . (β − β o )'.V −1 .(β − β o ) + (η m − Xβ )'.Ψ −1 .(η m − Xβ )
2
) (6.15)

A estimada ótima de β é obtida pela minimização da Equação 6.15.

99
6.2.1. Estimador de Máximo a Posteriori (MAP)

O estimador de Máximo a Posteriori (MAP) direto, bem como o seqüencial


equivalente, que é o filtro de Kalman Estendido, baseiam-se na minimização da
Equação 6.15, que resulta em:

b MAP = β o + ΓMAP .X'.Ψ −1 .(η m − Xβ o )


onde:
−1
ΓMAP = X '.Ψ −1 . X + V −1

bMAP é o vetor com valores estimados de β.

Substituindo a Equação 6.16 na Equação 6.4, obtém-se a Equação recursiva do


MAP não linear, para a k-ésima mais uma interação, dada por:

K +1
bMAP = bMAP
K
+ ΓMAP
K
( ( ) (
. X ' K . X ' K .Ψ −1 . η m − η K + V −1 . β o − bMAP
K
)) (6.17)

onde:

(Γ ) K
MAP
−1
= X ' K .Ψ −1 . X K + V −1

Para utilização do estimador MAP, é necessário conhecer as propriedades


estatísticas do ruído ε e as dos parâmetros β. Em um problema de estimação de
parâmetros, o valor esperado para os parâmetros β, bem como a matriz de covariância
V, são especificadas tendo em vista os conhecimentos prévios do usuário a respeito do
sistema.
As principais características deste estimador são:
- Hipóteses fundamentais:
a) A matriz de sensibilidade X é livre de erro.
b) β e ε são variáveis aleatórias independentes.
c) O ruído ε é aditivo.
- Hipóteses simplificadoras:
a) β possui distribuição Normal N(βo,V).
b) ε possui distribuição Normal N(0,ψ).
- Condição de utilização: o determinante X '.Ψ −1 . X + V −1 ≠ 0.

100
- Polarização: o estimador é polarizado com E(bMAP) = βo.
- Eficiência: o estimador é eficiente, de mínima variância, cuja covariância de
estimativa é dada por:

Cov(bMAP ) = (X '.Ψ −1
. X + V −1 )
−1
(6.18)

O fato do estimador MAP ser polarizado é muito útil quando se procura ajustar
simultaneamente os valores de parâmetros de um sistema composto por modelos
lineares e não lineares. Nestes casos, o ajuste torna-se difícil, às vezes impossível, pois
as curvas de resposta do modelo do sistema são, normalmente, muito mais sensíveis às
variações dos valores dos parâmetros dos modelos lineares do que às dos modelos não
lineares. Uma maneira de contornar este problema é dividir o procedimento em duas
etapas: inicialmente controlam-se as forças de excitação de maneira que os níveis de
vibração sejam baixos e, consequentemente, os efeitos das não linearidades sejam
desprezíveis. Em seguida o ajuste é refeito com as curvas de respostas para níveis mais
altos de vibração do sistema.
Na primeira etapa os valores dos parâmetros dos modelos lineares são ajustados e as
matrizes de covariância de suas estimativas são calculadas. Para os parâmetros dos
modelos não lineares, completa-se a matriz de covariância total com valores grandes na
diagonal e nulo fora dela. Na segunda etapa, utiliza-se o estimador MAP com a matriz
de covariância total gerada, para o ajuste simultâneo de todos os parâmetros do sistema.
Devido às características de polarização do estimador MAP, na segunda etapa os
valores dos parâmetros dos modelos das não linearidades serão ajustados sem grande
variação nos valores dos parâmetros dos modelos lineares ajustados anteriormente.

6.2.2. Estimador de Máxima Verossimilhança (ML)


Para usar este estimador, não é necessário nenhum conhecimento a priori das
propriedades estatísticas dos parâmetros.
O estimador de Máxima Verossimilhança ML é baseado na maximização da função
de probabilidade condicional P(ηm | β), com as mesmas hipóteses do estimador MAP:
ruído aditivo com distribuição Normal de média zero, e X livre de erro.
O estimador ML pode ser derivado diretamente do estimador MAP, bastando, para
isto, montar uma matriz de covariância dos parâmetros com valores na diagonal

101
elevados (da ordem de 1012), significando que não existe qualquer certeza sobre os
valores dos parâmetros. Com a matriz de covariância montada desta maneira, da
Equação 6.16 resulta:

K +1
bML = bML
K
+ ΓML
K
( (
. X ' K . X ' K .Ψ −1 . η m − η K )) (6.20)

onde:

(Γ ) K −1
ML = X ' K .Ψ −1 . X K

As principais características deste estimador são:


- Hipóteses fundamentais:
a) A matriz X é livre de erro.
b) O ruído ε é aditivo.
- Hipótese simplificadora (estimador de Markov):
a) ε possui distribuição Normal N(0,ψ).
- Condição de utilização: o determinante X '.Ψ −1 . X ≠ 0.

- Polarização: o estimador é despolarizado com E(bML) = β.


- Eficiência: o estimador é eficiente, de mínima variância, cuja covariância da
estimada é dada por:

Cov(bML ) = (X '. Ψ −1
.X )
−1
(6.21)

6.2.3. Estimador de Mínimos Quadrados


Os estimadores de mínimos quadrados se baseiam na minimização de uma função
erro, definida por:

r = (η m − η )' . W .(η m − η ) (6.22)

onde W é uma matriz que pondera as incertezas sobre os valores medidos. Se W for
igual a matriz identidade tem-se o estimador de Mínimos Quadrados Comuns MQC. Se
W for uma matriz inversa da covariância do ruído ε presente na medição, tem-se o

102
estimador de Markov (MAK), que é equivalente ao estimador ML com as hipóteses
simplificadoras já apresentadas (Duarte, 1994).
Os valores dos parâmetros são, geralmente, avaliados via função normal, resultando:

b = [X '.W . X ]−1 . X '.W .η m (6.23)

Estes estimadores podem ser derivados do estimador ML, bastando substituir ψ-1 por
W. Substituindo W na Equação 6.22, tem-se para os estimadores não lineares MAK,
MQC e MQP:

( (
b K +1 = b K + Γ K . X ' K . X ' K .W . η m − η K )) (6.24)

Onde:
(Γ ) K −1
= X ' K .W . X K

Nos casos em que o produto matricial [X’.W.X] for mal condicionado, uma técnica
pseudo-inversa, baseada no cálculo de valores singulares da matriz X, pode ser
utilizada.
As principais características dos estimadores de Mínimos Quadrados são:
- Não é necessário nenhum conhecimento a priori das propriedades estatísticas dos
parâmetros.
- Para o estimador MQC nenhuma hipótese é assumida para os dados.
- Condição para utilização: |X’.W.X| ≠ 0.
- Condições de despolarização: o ruído ε deve ter média zero e ser aditivo às
respostas.
- ηm e β mão podem ser processos estocásticos.
- Condições de mínima variância: do teorema de Gauss-Markov é necessário que:
a) Cov(ηm | β) = σ 2 .W (ruído com variância constante σ2).
b) Para MQC, Cov(εiεj) = 0 para i ≠ j ( erros não correlacionados).
- As covariâncias dos valores estimados são:

⎛ ⎞
Cov⎜⎜ bMQC ⎟⎟ = σ 2 . ( X '.W . X )
−1
(6.25)
⎝ MQP ⎠

103
Cov(bMAK ) = (X '.Ψ −1
.X )
−1
(6.26)

6.3. A Unicidade e o Criterio de Identificabilidade.


Uma questão que está sempre presente nos problemas de estimação de parâmetros é
saber se o modelo é único. Dado um sistema real, só é possível definir um modelo
estrutural único para o mesmo, se o modelo for completo, isto é, se os modos e
freqüências naturais são conhecidos para cada um dos graus de liberdade. Isto é
praticamente impossível, uma vez que as estruturas reais são contínuas e os custos dos
experimentos seriam muito altos para a obtenção de todas as curvas de resposta do
sistema e identificação de seus modos de freqüência mais elevadas (Duarte, 1994).
Apesar disto, é possível identificar um modelo reduzido que seja consistente com os
conhecimentos existentes a priori sobre o sistema e com os dados medidos. Neste caso,
apenas um pequeno conjunto de parâmetros do modelo teórico deverão ser ajustados a
partir dos dados experimentais, e o problema é de identificabilidade, ou seja, se os
parâmetros poderão ser ajustados com os dados experimentais disponíveis.
Existem vários critérios de identificabilidade, e o utilizado neste trabalho é o da
analise dos valores singulares da matriz de sensibilidade X. Os valores singulares estão
relacionados com a independência linear entre as colunas de uma matriz, ou seja, o seu
posto. Pode ser demonstrado que se as colunas da matriz de sensibilidade, para um dado
grupo de parâmetros, são lineares dependentes, então aquele grupo não pode ser
estimado em bloco, a partir dos dados disponíveis, isto é, o posto da matriz da
sensibilidade determina o numero de parâmetros que podem ser estimados
independentemente.
Analisando as equações para as covariâncias dos estimadores estudados, Equações
6.18, 6.21 e 6.25, observa-se que estas são dependentes da matriz de sensibilidade dos
parâmetros X. Em vista disto, propõe-se um critério de experimento ótimo, que pode ser
enunciado da seguinte maneira: se existir uma serie de conjuntos de experimentos,
candidatos para o ajuste de parâmetros de um determinado modelo, o melhor conjunto
será aquele que maximizar o determinante de X’.W.X. Maximizar o determinante da
matriz X’.W.X é equivalente a maximizar o menor valor singular desta matriz.

104
6.4. Estimativa dos Erros

O critério utilizado neste trabalho para avaliar a precisão dos valores estimados é
baseado na estimada das matrizes de covariância dadas pelas Equações 6.18, 6.21 e
6.25.
Definem-se os erros percentuais teóricos (ET), de i-ésimo parâmetro de um dado
estimador (EST), pela Equação 6.27.

Cov EST (i, i )


ET (i ) = 100. (6.27)
bEST (i )

Da equação 6.27, pode-se observar que o erro definido está diretamente


relacionado com o desvio padrão do valor estimado.
As matrizes de covariância dos estimadores MAP, ML e MAK, são estimadas
diretamente pelas expressões dadas nas Equações 6.18 e 6.21 e a matriz de covariância
dos estimadores MQC e MQP, Equação 6.25, é dependente da variância do ruído σ2.
Com as hipóteses: o ruído ser aditivo, não correlacionado, de média zero e de
variância constante; a matriz de sensibilidade ser livre de erro; e os parâmetros não
serem aleatórios, apresenta-se uma estimativa para σ2, para os estimadores de MQP e
MQC, dada pela expressão:

(η m − X .b )' . W .(η m − X .b )
σ2 = (6.28)
n− p

onde n é o número de dados experimentais e p o número de parâmetros ajustados.

6.5. Correlação e Regressão


Muitas vezes, na literatura, os resultados de uma análise de regressão são discutidos
em termos de correlação da variável dependente com a variável independente. A rigor,
isso não faz sentido, porque a correlação é definida para um par de variáveis aleatórias,
e na regressão somente a variável dependente é que é considerada aleatória. No entanto,
se esquecermos desse detalhe conceitual, existem algumas relações algébricas entre

105
correlação e regressão que vale a pena discutir, nem que seja para esclarecer seu
verdadeiro significado e suas limitações (Barros, 2001).
Imaginemos que tanto X quanto y sejam variáveis aleatórias e que, portanto, seja
apropriado definir um coeficiente de correlação entre elas, dado por:

⎛ __
⎞⎛ __

⎜ X i − X ⎟⎜ y i − y ⎟
∑ ⎜⎜ s ⎟⎟⎜⎜ s ⎟⎟
x y
r (X, y ) = ⎝ ⎠⎝ ⎠ (6.29)
N −1

A Equação 6.29 pode ser reescrita como:

S xy
r (X, y ) = (6.30)
S xx S yy

Na mesma notação, a estimativa de β1 é dada por

S xy
β1 = (6.31)
S xx

Combinando as duas expressões, obtemos uma relação entre o coeficiente angular


da reta de regressão β1, e o coeficiente de correlação entre as duas variáveis, r(X,y):

S yy
β1 = r(X , y) (6.32)
S xx

ou
Sy
β1 = r(X , y) , (6.33)
Sx

onde Sy e Sx são os desvios padrão das variáveis y e X, respectivamente. Mesmo assim,


β1 e r(X,y) continuam tendo significados intrinsecamente diferentes. O coeficiente de
correlação, como sabemos, é uma medida da associação linear existente entre as
variáveis X e y, ambas supostamente aleatórias. O valor do coeficiente angular β1

106
representa a variação em y correspondente à variação de uma unidade em X, ou seja, a
derivada dy/dX.
Para um modelo linear, podemos também esclarecer uma relação entre a
percentagem de variação explicada (ou coeficiente de determinação),
2
⎛ _

SQ R
∑ ⎜ yi − y ⎟
⎝ ⎠ ,
R2 = =
SQ T _ 2
⎛ ⎞
∑ ⎜⎝ i ⎟⎠
y − y

e o coeficiente de correlação r(X,y). Para isso, reescrevemos R2 como:


S yy S xx
R2 = r 2 (X, y )
S xx S yy

ou, simplificando,
R2 = r 2 (X, y ) (6.34)

Esta igualdade mostra que, quando adotamos o modelo yi = βo + β1Xi + εi, a


percentagem de variação explicada pela regressão é também uma medida de associação
linear entre X e y. Um erro comum, talvez induzido pela própria Equação 6.34, é
interpretar o valor de R, a raiz quadrada de R2 com o sinal algébrico apropriado, como o
coeficiente de correlação entre X e y, numa regressão qualquer. Acabamos de ver que
isso só é valido para o ajuste de uma reta. Além do mais, na modelagem por mínimos
quadrados, X nem sequer é uma variável aleatória. Na verdade, o valor de R pode ser
interpretado como um coeficiente de correlação, mas não entre as variáveis X e y
(Barros, 2001). Pode-se demonstrar que em qualquer circunstancia, para qualquer
regressão linear com qualquer numero de variáveis, R é o coeficiente de correlação
entre as respostas observadas e os valores previstos pelo modelo ajustado:

R = r (y, y ) (6.35)

Esta relação é legítima, pois tanto os valores observados quanto os valores previstos
são variáveis aleatórias. O valor de R, que é chamado de coeficiente de correlação
múltipla, nunca é negativo. Ele é o maior valor da correlação que uma combinação

107
linear das variáveis independentes, na forma especificada pelo modelo, pode ter com os
valores de y observados.

6.6. Regressão Múltipla


Os objetivos da regressão múltipla são predizer valores de uma variável dependente
(Y) em função de variáveis independentes (X1, X2, ..., Xk) e conhecer o quanto
variações de Xj (j = 1,...,k) podem afetar Y.

Modelo de Regressão Múltipla:


O modelo de regressão linear múltipla é dado por:
E{Y} = f(X1, X2, ..., Xk)

E{Y} = β0 + β1X1 + β2X2 + ... + βkXk

onde Y, X1, ..., Xk podem representar as variáveis originais ou transformadas.

Admite-se que X1, ..., Xk são variáveis matemáticas e Y é uma variável aleatória.

E{Y} = β0 + β1X1 + β2X2 + ... + βkXk

O coeficiente βk representa a variação esperada de Y para cada unidade de variação


em Xk (k = 1, 2, ..., k), considerando as outras variáveis independentes fixas.
O primeiro objetivo é estimar os coeficientes: β0, β1, β2, ..., βk.

Amostra:

E{yi} = β0 + β1xi1 + β2xi2 + ... + βkxik

108
yi = β0 + β1xi1 + β2xi2 + ... + βkxik + ei
onde ei é o termo aleatório (erro)

Suposições:
• Os erros (ei) são independentes e variam aleatoriamente segundo uma
distribuição (normal) com média zero e variância constante.
• Suposição adicional: não deve haver correlações muito fortes entre as variáveis
independentes.

Exemplo com Regressão linear simples:

Y = X β +ε

Exemplo com regressão linear múltipla:

Y = X β +ε

109
6.6.1. Estimador de Mínimos Quadrados (Resumo)

De acordo com seção 6.2.6, o estimador de mínimos quadrados de β, isto é, o vetor


b que minimiza a função L(β) = ε’ε = (Y - Xβ)’(Y - Xβ) é dado por:

= (b0, b1, ..., bk)’

Equação de regressão ajustada aos dados:

Valores preditos:

Resíduos:

Estimativa da variância do erro:

110
7. Técnica das Superfícies de Resposta
Em processos industriais, é muito comum a existência de muitos fatores ou variáveis
que afetam a qualidade global do produto final. Neste contexto, alguns estatísticos vêm
estudando a Metodologia de Superfície de Resposta (SR), desde 1970. Em essência, esta
metodologia consiste em estimar coeficientes da regressão polinomial para a geração de
um modelo empírico. Então, usando a metodologia é possível aproximar um modelo
empírico a uma relação (inicialmente desconhecida ou conhecida) entre os fatores e as
respostas do processo (Saramago, 2006).
A superfície de resposta é útil quando o pesquisador não conhece a relação exata
entre os fatores. Mas, geralmente quando a expressão analítica da função é conhecida, a
metodologia pode ser útil em alguns casos: freqüentemente pode-se encontrar funções
descontínuas, e em muitos casos se trabalha com valores discretos das variáveis de
projeto ou fatores. Assim, é útil usar a superfície de resposta para obter uma
aproximação polinomial.
Atualmente, o desenvolvimento da computação e o uso rotineiro dos computadores
têm proporcionado uma facilidade no trabalho de geração de modelos empíricos ou
superfície de resposta com o uso de softwares modernos. Entretanto, isto demanda do
usuário conhecimentos básicos de computação e estatística para interpretar os
resultados.
Dentre as vantagens da Metodologia, a principal é que seus resultados são
resistentes a influência de condições não ideais, como erros aleatórios e pontos
influentes, porque a metodologia é robusta. Outra vantagem é a simplicidade analítica
da superfície de resposta obtida, pois a metodologia gera polinômios. Em geral,
polinômios de duas ou mais variáveis, são funções contínuas. Assim, a otimização de
um processo ou sistema torna absolutamente fácil com o uso de métodos tradicionais de
otimização (Saramago, 2006).

7.1. Superfície de Resposta Linear

Para mostrar como se constrói uma SR linear, o Método dos Mínimos Quadrados
(MQM) será aplicado aos dados codificados do Exemplo abaixo.

111
Exemplo 1: Na Figura 8.1, sob a ação da força F, o sistema de peso W se move até a

posição de equilíbrio que corresponde à mínima energia potencial. Seja a energia

potencial dada por:

Ep = W l (1 − cos θ ) − F l sen θ (7.1)

onde W = 400N e l =2,5m

Figura 7.1. Pendulo de peso W sob a ação de uma força constante F (Saramago, 2006).

Na construção da RS linear torna-se necessário acrescentar o ponto central do


planejamento, isto é, o nível zero nos fatores x1 e x2. Pois, como será visto adiante, isto
será útil para verificar se há ou não falta de ajuste para um modelo linear.

Tabela 7.1. Resultados de um planejamento 22 com um ponto central.

Força (N) Ângulo θ (graus) x1 x2 Ep (Nm)

1 80 5 -1 -1 -13,63
2 100 5 1 -1 -17,98
3 80 85 -1 1 713,60
4 100 85 1 1 663,79
5 90 45 0 0 133,79

Seja a Tab. 7.1 formada pelos dados codificados do Exemplo 1 juntamente com o
ponto central.

112
Para usar o MQM, o próximo passo é escrever a matriz X formada pelos níveis dos
fatores x1 e x2 juntamente com a sua primeira coluna formada pela unidade. Considere,
também, o vetor coluna y formado pelos valores de Ep:

x1 x2
⎡ − 13,63⎤
⎡1 − 1 − 1⎤ ⎢− 17,98⎥
⎢1
⎢ 1 − 1⎥⎥ ⎢ ⎥
e y = ⎢ 713,60 ⎥ (7.2)
X = ⎢1 − 1 1⎥ ⎢ ⎥
⎢ ⎥ ⎢ 663,79 ⎥
⎢1 1 1⎥
⎢⎣133,79 ⎥⎦
⎢⎣1 0 0⎥⎦

O cálculo dos coeficientes do modelo linear utiliza a Equação 7.3, resultando:

[b] = {[ X]T[X]}-1[X]T[Y] (7.3)

⎡b0 ⎤ ⎡ 295.91⎤
b = ⎢⎢ b1 ⎥⎥ = ⎢⎢ - 13.54 ⎥⎥ (7.4)
⎢⎣b2 ⎥⎦ ⎢⎣352.25⎥⎦

Portanto, a superfície de resposta é dada por:

y r = 295.91 − 13,54 x 1 + 352,25 x 2 (7.5)

A Eq. (7.5) representa a SR linear que poderá, depois de uma análise dos resíduos,
ser usada para estimar a energia potencial para diferentes valores de F e θ, dentro da
região investigada R, onde R=((x1,x2) ∈ ℜ2 : –1≤ x1 ≤1 e –1≤ x2 ≤1). A Figura 7.2
mostra a superfície de resposta obtida na região de investigação. Enquanto a Figura 7.3
mostra o gráfico de Ep na região do plano onde 0,0873 ≤ θ ≤ 1,4835 (radianos) e 80N ≤
F ≤ 100 (N) correspondente a região R. Comparando-se as duas curvas, nota-se que a
SR linear não representou bem a função desejada para a energia potencial.

113
Figura 7.2. Superfície de resposta obtida Figura 7.3. Gráfico da energia potencial,
para o Exemplo. obtida através da Eq. (7.1).

7.2. Superfície de Resposta Quadrática

Novamente os dados codificados do Exemplo 1 da seção 7.1 serão usados para


exemplificar uma construção de um modelo quadrático. Observe que, se o número de
variáveis fosse maior o processo de construção do modelo (linear ou quadrático) seria
análogo.

Figura 7.4. Planejamento 22 em estrela.

114
Tabela 7.2. Resultados do planejamento em estrela obtido pela ampliação da Tabela 7.1.

Força (N) Ângulo θ (graus) x1 x2 Ep (Nm)

1 80 5 -1 -1 -13,63
2 100 5 1 -1 -17,98
3 80 85 -1 1 713,60
4 100 85 1 1 663,79
5 90 45 0 0 133,79
6 75,86 45 -21/2 0 158,79
7 90 101,57 0 21/2 980,14
8 104,14 45 21/2 0 108,80
1/2
9 90 -11,56 0 -2 65,37

Quando o grau do polinômio é aumentado, evidentemente aumenta-se o número de


parâmetro a determinar. Por isso, é necessário ampliar o planejamento, ou seja,
aumentar o número de combinações dos valores dos níveis dos fatores. A ampliação
pode ser feita de várias maneiras. A mais comum é a construção do chamado
planejamento em estrela, que será adotado aqui.
Para fazer um planejamento em estrela simplesmente acrescenta-se ao planejamento
já existente um planejamento idêntico, porém girado de 45 graus em relação à origem
dos eixos x1 e x2. O resultado é uma distribuição octogonal, como mostrado na Figura
7.4.
Através de um argumento geométrico simples, pode-se concluir que os novos
pontos estão a uma distância de 21/2 do ponto central e, portanto são localizados de
acordo com as coordenadas mostradas nas quatro últimas linhas da Tab. 7.2.
Como o número de parâmetro a determinar foi aumentado (pois se trata da
construção de um polinômio quadrático) é necessário aumentar o número de colunas da
matriz X. Esta matriz é obtida através dos dados da Tab. 7.2 sendo sua primeira coluna
formada pela unidade.

115
x1 x2 x12 x 22 x1 x 2
⎡1 −1 −1 1 1 1 ⎤
⎢1
⎢ 1 −1 1 1 − 1 ⎥⎥
⎢1 −1 1 1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 1 1 1 ⎥
(7.6)

X= 1 0 0 0 0 0 ⎥
⎢ ⎥
⎢1 − 2 0 2 0 0 ⎥
⎢1 0 2 0 2 0 ⎥
⎢ ⎥
⎢1 2 0 2 0 0 ⎥
⎢1
⎣ 0 − 2 0 2 0 ⎥⎦

⎡ - 13,63 ⎤
⎢ - 17,98 ⎥
⎢ ⎥
⎢713,60⎥
⎢ ⎥
⎢663,79⎥ (7.7)
y = ⎢133,79 ⎥
⎢ ⎥
⎢158,79 ⎥
⎢980,14⎥
⎢ ⎥
⎢108,80 ⎥
⎢ 65,37 ⎥
⎣ ⎦

Utilizando X e y, dados em (7.6) e (7.7), a Eq. (7.3) fornece a seguinte superfície


de resposta:

y r = 133,79 − 15,61 x1 + 337 ,83 x 2 + 2,04 x12 + 196,52 x 22 − 11,36 x1 x 2 (7.8)

A Figura 7.5 representa a SR quadrática, dada pela Eq. (7.8). Pode-se observar que,
comparando com a curva da Figura 7.3, este resultado é melhor do que a SR linear.

Figura 7.5. Gráfico da SR quadrática representada pela Eq. (7.8).

116
7.3. Outros Planejamentos Fatoriais

7.3.1 Um Planejamento Fatorial 23

Exemplo 2: Acrescente agora, aos dois fatores já examinados (força e ângulo), um


terceiro fator, o peso que será denotado por W. O peso W será estudado nos níveis 400N
(+) e 300N (-). Com isso o planejamento fatorial completo com o ponto central passará
a necessitar da realização de 23 + 1 = 9 ensaios. A Tab. 7.3 mostra a matriz de
planejamento para o Exemplo 2 e a Tab. 7.4 as energias potenciais obtidas nesses
ensaios.
Tabela 7.3. Matriz de Planejamento para o Exemplo 2.
Ensaio Fatores (-1) (1) (0)
1 Força (N) 80 100 90
2 Ângulo(graus) 5 85 45
3 Peso (N) 300 400 350

Tabela 7.4. Resultados de um planejamento fatorial 23 – Exemplo 2.

Ensaios 1 2 3 Ep

1 -1 -1 -1 -14,58
2 1 -1 -1 -18,93
3 -1 1 -1 485,39
4 1 1 -1 435,58
5 -1 -1 1 -13,62
6 1 -1 1 -17,98
7 -1 1 1 713,60
8 1 1 1 663,79
9 0 0 0 97,18

7.3.2. Obtenção de Superfície de Resposta linear para planejamentos fatoriais 23

Análogo ao planejamento 22, escreve-se a matriz X e o vetor coluna y, a partir dos


dados da Tab. 7.5:

117
x1 x2 x3
⎡1 −1 −1 −1 ⎤
⎢1
⎢ 1 −1 − 1 ⎥⎥
⎢1 −1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 −1 ⎥
(7.9)
X = ⎢1 −1 −1 1⎥
⎢ ⎥
⎢1 1 −1 1⎥
⎢1 −1 1 1⎥
⎢ ⎥
⎢1 1 1 1⎥
⎢1
⎣ 0 0 0 ⎥⎦

⎡ - 14,58 ⎤
⎢ - 18,93 ⎥
⎢ ⎥
⎢485,39⎥
⎢ ⎥
⎢ 435,58⎥ (7.10)
y = ⎢ - 13,62 ⎥
⎢ ⎥
⎢ - 17,98 ⎥
⎢713,60⎥
⎢663,79⎥
⎢ ⎥
⎢⎣97,18 ⎥⎦

Aplicando o MQM, utilizando a Eq. (7.3), obtém-se:


y r = 258,94 −13,54 x1 + 295,43 x 2 + 57,29 x3 (7.11)

7.3.3. Um Planejamento Fatorial 24


Exemplo 3: Além dos três fatores já examinados no Exemplo 2 (planejamento 23 )
considere como o quarto fator o comprimento l no nível inferior e superior igual a 1m e
3m, respectivamente. Assim obtém-se um planejamento fatorial 24. Os resultados
obtidos do planejamento 24 com o ponto central podem ser observados na Tab. 7.5 e
7.7.
Tabela 7.5. Matriz de Planejamento para o Exemplo 3.
Fatores (-1) (1) (0)
1 Força (N) 80 100 90
2 Ângulo (graus) 5 85 45
3 Peso (N) 300 400 350
4 Comprimento (m) 1 3 2

118
Tabela 7.7. Resultados de um planejamento fatorial 24 com o ponto central.

Ensaio 1 2 3 4 Ep (Nm)
1 -1 -1 -1 -1 -5,83
2 1 -1 -1 -1 -7,57
3 -1 1 -1 -1 194,16
4 1 1 -1 -1 174,23
5 -1 -1 1 -1 -5,45
6 1 -1 1 -1 -7,19
7 -1 1 1 -1 285,44
8 1 1 1 -1 265,52
9 -1 -1 -1 1 -17,49
10 1 -1 -1 1 -22,72
11 -1 1 -1 1 582,47
12 1 1 -1 1 522,70
13 -1 -1 1 1 -16,35
14 1 -1 1 1 -21,58
15 -1 1 1 1 856,33
16 1 1 1 1 796,55
17 0 0 0 0 77,75

7.3.4. Obtenção de uma Superfície de Resposta Linear para um planejamento


fatorial 24.

De acordo com a Tab. 7.7, escreve-se a seguinte matriz X e o vetor y:

119
x1 x2 x3 x4
⎡1 −1 −1 −1 −1 ⎤
⎢1 1 −1 −1 − 1 ⎥⎥

⎢1 −1 1 −1 −1 ⎥
⎢ ⎥
⎢1 1 1 −1 −1 ⎥
⎢1 −1 −1 1 −1 ⎥
⎢ ⎥
⎢1 1 −1 1 −1 ⎥
⎢1 −1 1 1 −1 ⎥
⎢ ⎥
⎢1 1 1 1 −1 ⎥
X = ⎢1 1⎥
(7.12)
−1 −1 −1
⎢ ⎥
⎢1 1 −1 −1 1⎥
⎢ ⎥
⎢1 −1 1 −1 1⎥
⎢1 1 1 −1 1⎥
⎢ ⎥
⎢1 −1 −1 1 1⎥
⎢1 1 −1 1 1⎥
⎢ ⎥
⎢1 −1 1 1 1⎥
⎢1 1 1 1 1⎥
⎢ ⎥
⎢⎣ 1 0 0 0 0 ⎥⎦

⎡ - 5,83 ⎤
⎢ - 7,57 ⎥
⎢ ⎥
⎢194,16 ⎥
⎢ ⎥
⎢174,23 ⎥
⎢ - 5,45 ⎥
⎢ ⎥
⎢ - 7,19 ⎥
⎢285,44⎥
⎢ ⎥
⎢265,52⎥
y = ⎢ - 17,49 ⎥
(7.13)
⎢ ⎥
⎢- 22,72⎥
⎢ ⎥
⎢582,47⎥
⎢522,70⎥
⎢ ⎥
⎢ - 16,35 ⎥
⎢- 21,58⎥
⎢ ⎥
⎢856,33⎥
⎢796,55⎥
⎢ ⎥
⎢⎣ 77,75 ⎥⎦

De forma análoga, usando a Eq. (7.3), encontra-se:

120
y r = 214,75 − 10,85 x1 + 236,33 x 2 + 45,85 x3 + 111,65 x 4 (7.14)

7.4. Análise de Resíduos


Nas seções anteriores, obtiveram-se superfícies que ajustam aos dados, mas não se
sabe ainda a qualidade desses ajustes. Ou seja, ainda não se tem uma ferramenta capaz
de avaliar se a superfície ajustada (ou modelo) é uma representação adequada para a
função Ep. Além disso, caso esta representação seja adequada, deseja-se saber em que
faixa de variação pode-se considerar tal ajuste.
A análise dos resíduos é fundamental na avaliação da qualidade do ajuste de
qualquer modelo. Um modelo que deixe resíduos consideráveis é obviamente um
modelo ruim. O modelo ideal não deixaria resíduo algum: todas as suas previsões
coincidiriam com os resultados observados.

7.4.1 Teste de Significância do Ajuste


Procedimentos de teste de significância são úteis para aferir a qualidade da
aproximação gerada a partir de um conjunto de dados. Tais testes são baseados na
análise da variância e requerem a obtenção dos seguintes parâmetros estatísticos:

N
∑ yi
i =1
y= (7.15)
N

( )
N 2
SQ yy = ∑ y i − y (7.16)
i =1

( )
N 2
SQ E = ∑ yi − y r i (7.17)
i =1

( )
N 2
SQR = ∑ y r i − y (7.18)
i =1

SQ yy = SQ R + SQ E (7.19)

Lembrando que N é o número total de observação, yi é o valor observado (ou obtido


da função dada) e yr i a previsão do modelo para o valor yi.

121
A Eq. (7.19) mostra que a soma total dos quadrados é particionada na soma dos
quadrados devida aos erros e na soma dos quadrados devida ao modelo ou devida à
regressão. Quanto maior for a fração descrita pela regressão, melhor será o ajuste do
modelo.
De posse destes parâmetros que são as parcelas nas quais foi decomposta a
variabilidade total do modelo, constrói-se a Tab. 7.8, conhecida como Tabela ANOVA
(análise da variância). Nesta tabela, p o número de parâmetros estimados do modelo.

Tabela 7.8. Tabela de análise da variância (ANOVA)


Grau de
Fonte de Soma dos Quadrados
Liberdade Estatística F0
Variação Quadrados Médios
Estatístico
SQR MS R
Modelo SQR (p-1) MS R = F0 =
p −1 MS E

SQE
Erro SQE (N-p) MS E =
N−p
Total SQyy (N-1)

A métrica F0 é usada para testar a hipótese de que todos os coeficientes do ajuste são
nulos (ajuste absurdo). Para tanto, ela é comparada com o valor tabelado Fα, (p-1), (N-p),
correspondente à distribuição padrão de Fisher. Para isto, torna-se necessário fixar um
nível de significância α para um teste com (p-1) graus de liberdade da soma SQR e (N-p)
graus de liberdade da soma SQE. Caso a estatística obtida seja maior que a tabelada,
rejeita-se a hipótese (pelo menos um dos coeficientes do ajuste é não-nulo) e o
procedimento de aproximação está estatisticamente validado.
Quanto maior o valor de F0, melhor é o ajuste. Pois, quando MSE é suficientemente
pequeno, implica que SQE também é pequeno, o que significa que yri está próximo de yi.
Pode acontecer, porém, que uma regressão, embora estatisticamente validada do
ponto de vista do teste F, não seja útil para realizar previsões, por cobrir uma faixa de
variação pequena dos fatores estudados. Para que isso não ocorra, isto é, para que uma
regressão seja não apenas estatisticamente significativa, mas também útil para fins
preditivos, o valor da métrica F0 deve ser no mínimo de quatro a cinco vezes o valor de
Fα, (p-1), (N-p).

122
Além do teste de hipóteses básico, apresentado acima, os parâmetros de soma dos
quadrados podem ser empregados em outras verificações quanto à qualidade do ajuste.
Neste caso, SQE é decomposto como:

(
SQ E = ∑ yij − yi ) + ∑ ( yi − yˆ i )2
2

i, j i, j

SQE = SQEP + SQfaj

Onde:
SQE é a soma dos quadrados do ajuste,
SQEP é o erro médio quadrático das observações (erro puro),
SQfaj é a soma quadrática da falta de ajuste.

Sob a H0, tem-se que a variável aleatória:

SQfaj
m−p
F= Fm − p,m − n
SQ EP
m−n
Onde:
m é o número de níveis.
n é o número de replicações.

7.4.2 Coeficiente de Múltipla Determinação


O coeficiente de múltipla determinação (R2) é dado pela expressão:

SQR SQE
R2 = = 1− (7.20)
SQ yy SQ yy

Obviamente, o maior valor possível para R2 obviamente é um, e só ocorrerá se não


houver resíduo algum e, portanto toda a variação em torno da média for explicada pela
regressão. É fácil notar que quanto mais perto de um estiver o valor de R2, melhor terá
sido o ajuste do modelo aos dados observados. Por exemplo, R2=0,98 significa que 98%
da variação total em torno da média é explicada pela regressão, ficando apenas 2% com
os resíduos.

123
7.4.3 Coeficiente de Múltipla Determinação Ajustado.
Uma vez que o valor de R2 cresce à medida que novos termos são acrescentados ao
modelo, isto é, quando o grau do polinômio ajustado é aumentado, o coeficiente de
múltipla determinação ajustado (R2a), que leva em conta o número de termos no
modelo, pode ser usado como forma de verificar a influência dos termos incluídos ou
retirados na qualidade da aproximação:

⎛ N −1 ⎞ ⎛
R a2 = 1 − ⎜⎜ ⎟⎟ ⎜1 − R 2 ⎞⎟ (7.21)
⎝ N − p ⎠ ⎝ ⎠

Se alguns termos forem incluídos no modelo de forma desnecessária, o valor de R2a


declina, diferenciando-se cada vez mais de R2.

7.4.4 Coeficiente de Variação.


O coeficiente de variação (CV) é útil para medir o quanto é grande o erro em relação
ao valor médio das respostas, sendo dado por:

MS E
CV = (7.22)
y

Exemplo 4: Analisar e comparar o ajuste obtido através da SR linear dada pela Eq.
(7.5) e da SR quadrática dada pela Eq. (7.8).
Estas superfícies serão comparadas através dos parâmetros estatísticos definidos
anteriormente. Caso nenhuma delas apresente um ajuste adequado, o próximo passo
seria adotar um polinômio de maior grau, até ter-se um ajuste adequado.

Usando as Eq. (7.20) a (7.22), obtém-se os seguintes parâmetros estatísticos para a


SR linear :

p = 3; N = 5; F0 = 14,89 (7.23)

R2 = 0,94; R2a = 0,87; CV = 0,44.

124
Fixando-se um nível de 95% de confiança para um teste com p-1 = 2 graus de
liberdade da soma SQR e N-p = 2 graus de liberdade da soma SQE, obtém-se F2, 2 =
19,00 > F0. Portanto, o ajuste não está estatisticamente validado. Ou seja, existe a
hipótese de que todos os coeficientes sejam nulos.
Observe também, que os valores de R2 e R2a estão relativamente distantes um do
outro. Então se poderiam acrescentar novos pontos ao conjunto dos pontos observados,
a fim de obter um melhor ajuste. Entretanto, com foi visto anteriormente, o gráfico da
função Ep não tem um comportamento linear (Fig. 7.3). Portanto, ainda se uma
quantidade grande de dados fosse usada, o ajuste linear não permitiria uma distribuição
normal dos resíduos. Assim, não teria sentido a analise da significância do ajuste. Pois o
emprego do teste F pressupõe uma distribuição normal dos resíduos.
Para a SR quadrática, Eq. (7.8), obtêm-se os seguintes parâmetros estatísticos:

F0 = 361,14; R2 = 0.9983
R2a = 0.9956 (7.24)
CV = 0.07961; p = 6; N = 9

Fixando-se um nível de 95% de confiança para um teste com p-1 = 5 graus de


liberdade da soma SQR e N-p = 3 graus de liberdade da soma SQE, obtém-se
F5,3=9,01<< F0. Portanto, o ajuste está estatisticamente validado. Ou seja, a hipótese de
que todos os coeficientes sejam nulos está descartada. Além disso, o valor de R2 mostra
que 99,83% da variação dos pontos dados é explicada pelo ajuste quadrático.

7.4.5. Teste Sobre um Coeficiente Particular

Sendo E{Y} = β0 + β1X1 + β2X2 + ... + βkXk, a hipótese é H0: βj = 0

bj
t=
se c jj

onde cjj é o k-ésimo elemento da diagonal principal da matriz C = (X’X)-1.

Sob H0 e considerando as suposições do modelo, t tem distribuição t de student com


g.d.l. = (n-k-1).

125
8. Referências Bibliográficas

Barros B. N., Scarminio I. S., Bruns R. E., “Como Fazer Experimentos – Pesquisa e
Desenvolvimento na Ciência e na Indústria”, 2001. Campinas – SP.
Bendat J. S., Piersol A. G., “Randon Data – Analysis and Measurement Procedures”,
1986, USA.
Button S. T., “Metodologia Para Planejamento Experimental E Análise De Resultados”,
2005. Campinas - SP.
Cunha F. D., “Análise de Confiabilidade de Sistemas: Fundamentos, Normatização e
Estudo de Caso”, 2007. Monografia apresentada à Universidade Federal de
Uberlândia, curso de Segurança do Trabalho.
Duarte M. A. V., “Ajuste de Modelos Dinâmicos de Estruturas com não Linearidades
Concentradas”, 1994. Tese de Doutorado apresentada à Universidade Estadual de
Campinas. Faculdade de Engenharia Mecânica.
Shimakura, S. E., Ribeiro P. J., “Apostila de Estatística”,2003. Departamento de
Estatística da Universidade Federal do Paraná.
Silva H. D., “Estatística”, 2005.
Saramago S. F. P., Silva N.,“Uma Introdução ao Estudo de Surperfícies de Resposta”,
2006. Uberlândia – MG.

126

You might also like