Apostila de Métodos Estatísticos Apostila de Métodos Estatísticos Apostila de Métodos Estatísticos Apostila de Métodos Estatísticos

FSA
CENTRO UNIVERSITÁRIO
FUNDAÇÃO SANTO ANDRÉ







Elenilton Vieira Godoy





































SUMÁRIO

1. INFERÊNCIA ESTATÍSTICA COM BASE EM UMA AMOSTRA 04
1.1 Testes de Hipóteses 04
1.2 Conceitos Fundamentais 06
2. TESTES PARAMÉTRICOS 10
2.1 Testes de uma Média Populacional 11
2.2 testes de uma Proporção Populacional 11
2.1.1Teste de uma afirmação sobre uma Média: Grandes Amostras 11
2.1.2 Teste de uma afirmação sobre uma Média: Pequenas Amostras 12
2.2 Teste de uma afirmação sobre uma proporção 13
3. INFERÊNCIAS COM BASE EM DUAS AMOSTRAS 15
3.1 Inferências sobre duas médias 15
3.1.1 Amostras Dependentes (dados emparelhados) 15
3.1.2 Amostras Grandes e Independentes (dados não emparelhados) 17
3.2 INFERÊNCIAS SOBRE DUAS PROPORÇÕES 20
4. TESTES NÃO-PARAMÉTRICOS 22
4.1 definições 22
4.2 Teste de Aderência 23
4.3 Tabelas de Contingência – Teste de Independência 24
5. ANÁLISE DE VARIÂNCIA 26
5.1 Definição 26
5.2 A Distribuição F 26
5.3 ANOVA de Um Critério 26
6. CORRELAÇÃO 31
6.1 Definição 31
6.2 Coeficiente de Correlação Linear 31
6.2.1 Interpretação do Coeficiente de Correlação Linear 32
6.3 Teste de Hipóteses para Correlação Linear 33
7. REGRESSÃO LINEAR 35
7.1 Determinação da Equação da Regressão Linear Simples 36
7.1.2. Método dos Mínimos Quadrados 37
7.1.3 Equações Normais 38





7.2 Erro Padrão da Estimativa 39
7.3 Medidas de Variação na Regressão 40
7.4 Coeficiente de Determinação 41
7.5 Análise de resíduos 41
7.6 Inferências sobre os parâmetros da população na regressão 42
8. ANÁLISE DE VARIÂNCIA NA REGRESSÃO LINEAR 43
8.1 Teste da regressão linear 43
9. NOÇÕES BÁSICAS DE EXPERIMENTAÇÃO 45
9.1Origem agrícola 45
9.2 Repetição 46
9.3 Casualização 46
9.4 O planejamento do experimento 48
10. OS DELINEAMENTOS EXPERIMENTAIS 49
10.1 Experimentos inteiramente ao acaso 49
10.2 Experimentos em bloco ao acaso 49
11. A ANÁLISE DE VARIÂNCIA 50
11.1 Algumas Considerações 51
BIBLIOGRAFIA 53


4





1. INFERÊNCIA ESTATÍSTICA

O objetivo da Estatística Indutiva (Inferência Estatística) é tirar
conclusões probabilísticas sobre aspectos das populações, com base na
observação de amostras extraídas dessas populações, visando à tomada de
decisões. Para abordar tais problemas, foi necessário recorrer aos conceitos
básicos do Cálculo de Probabilidades e aprender como tratar os conjuntos de
dados por meio da Estatística Descritiva. Doravante, os conjuntos de dados
disponíveis serão considerados como amostras representativas retiradas das
populações de interesse. Essas amostras servirão de base para as inferências
que serão feitas acerca das respectivas populações.
Os problemas de Estatística Indutiva podem ser divididos em dois
grandes grupos: os problemas de estimações e os testes de hipóteses. O
nosso interesse é discutir os testes de hipóteses, uma vez que a parte ligada
aos problemas de estimação já foi discutida em um outro momento.

1.1 TESTE DE HIPÓTESES
O objetivo de um teste de hipóteses é tomar decisões baseadas nas
evidências fornecidas pelos dados amostrais. Suponhamos que seja levantada
uma hipótese sobre o valor de um parâmetro e que essa hipótese será
considerada válida até prova em contrário. O teste de hipótese é um
procedimento que nos levará a rejeitar ou não essa hipótese a partir das
evidências obtidas nos resultados amostrais.

SITUAÇÃO-PROBLEMA:
Suponha que, numa linha de produção, um equipamento de
empacotamento que abastece caixas de cereal com 368 gramas está ajustado,
de modo que, a quantidade de cereal em uma caixa seja normalmente
distribuída com uma média aritmética de 368 gramas. A partir de experiências
anteriores, o desvio padrão da população para este processo é conhecido
como sendo igual a 15 gramas.



5





Questão 1:
Se uma amostra de 25 caixas for escolhida aleatoriamente das milhares
que são abastecidas por dia e o peso médio for calculado para essa amostra,
que tipo de resultado seria de se esperar?Por exemplo, você acha que a média
aritmética da amostra seria de 368 gramas? De 200 gramas? De 365 gramas?

Questão 2:
O gerente de produção está preocupado em avaliar se o processo está
funcionando de modo a assegurar que, na média, a quantidade apropriada de
cereal (isto é, 368 gramas) está sendo colocada em cada caixa. Ele decide
selecionar uma amostra aleatória de 25 caixas, do processo de abastecimento,
e examinar seus pesos a fim de determinar quão próximo cada uma delas está
da especificação da empresa, fixada numa média de 368 gramas por caixa. O
gerente de produção espera descobrir que o processo está operando de
maneira apropriada. No entanto ele pode descobrir que as caixas da amostra
pesam pouco ou talvez muito.; ele pode então decidir suspender o processo de
produção, até que o motivo da falha em atender ao peso especificado de 368
gramas seja atendido.
Analisando as diferenças entre os pesos obtidos a partir da amostra e a
expectativa de 368 gramas obtida a partir das especificações da empresa,
pode ser tomada uma decisão, com base nas informações dessa amostra, e
pode-se chegar a uma das duas conclusões a seguir:

1. O conteúdo médio, no processo como um todo, é de 368 gramas. Nenhuma
ação corretiva é necessária.

2. O conteúdo médio não é igual a 368 gramas; ele é menor ou maior do que
368 gramas. Ações corretivas são necessárias.




6






1.2 CONCEITOS FUNDAMENTAIS
A Hipótese Nula e a Hipótese Alternativa

O teste de hipóteses se inicia com alguma teoria, demanda ou afirmativa
sobre determinado parâmetro de uma população. Para fins de análise
estatística, um gerente de produção escolhe, como hipótese inicial, que o
processo está sob controle; isto é, a média de conteúdo de cereais é igual a
368 gramas e nenhuma ação corretiva é necessária. A hipótese de que o
parâmetro da população seja igual à especificação da empresa é identificada
como hipótese nula (H
0
).
Sempre que especificamos uma hipótese nula, também precisamos
especificar uma hipótese alternativa, ou uma hipótese que deva ser
verdadeira caso a hipótese seja considerada falsa. A hipótese nula (H
1
) é o
oposto da hipótese nula (H
0
).
A hipótese alternativa representa a conclusão à qual se chegaria se
houvesse evidência suficiente, a partir de informações da amostra, para decidir
que a hipótese nula provavelmente não seria verdadeira, e poderíamos,
portanto rejeitá-la.
A metodologia de teste de hipóteses é projetada de modo que nossa
rejeição à hipótese nula se baseie em evidências a partir da amostra, e que
nossa hipótese alternativa seja bem mais provável de ser verdadeira. No
entanto, deixar de rejeitar a hipótese nula não é prova de que ela seja
verdadeira. Nunca poderemos provar que a hipótese nula está correta, uma
vez que estamos baseando nossa decisão somente em informações sobre a
amostra, e não sobre a população inteira. Portanto, se deixarmos de rejeitar a
hipótese nula, só poderemos concluir que não existem evidências suficientes
para garantir a sua rejeição.

O Valor Crítico da Estatística do Teste
É possível desenvolver a lógica que existe por trás da metodologia
observando o modo como podemos determinar, com base somente em
informações da amostra, a possibilidade da hipótese nula.
7





Temos em mente que uma estatística de uma amostra é uma estimativa
do correspondente parâmetro da população, a partir do qual a amostra foi
extraída e irá provavelmente divergir do valor do parâmetro atual em função do
acaso ou de erros de amostragem. Desse modo, mesmo que a hipótese nula
fosse, de fato, verdadeira, a estatística da amostra não seria necessariamente
igual ao correspondente parâmetro da população. Ainda assim, sob tais
circunstâncias, esperaríamos que elas fossem bastante parecidas entre si, no
que diz respeito a valores. Em tal situação, não haveria qualquer evidência
para rejeitar a hipótese nula.
A metodologia do teste de hipóteses oferece definições operacionais
com o objetivo de avaliar tais diferenças e nos possibilita quantificar nosso
processo de tomada de decisão, de modo que a probabilidade de se obter um
dado resultado de amostra possa ser encontrada, caso a hipótese nula seja
verdadeira. Isto é alcançado, primeiramente, pela determinação da distribuição
da amostra para a estatística da amostra (isto é, a média aritmética da
amostra) e, em seguida, pelo cálculo da estatística do teste específica, com
base em determinado resultado da amostra. Uma vez que a distribuição da
amostra para a estatística do teste freqüentemente segue uma distribuição
estatística bastante conhecida, como a distribuição normal ou a distribuição t,
podemos utilizar essas distribuições para determinar a possibilidade de uma
hipótese nula ser verdadeira.

Regiões de Rejeição e de Não-Rejeição
A distribuição de amostragem da estatística do teste divide-se em duas
regiões, uma região de rejeição e uma região de não-rejeição. Se a
estatística do teste cair na região de não-rejeição, a hipótese nula não pode ser
rejeitada.
Pode-se considerar que a região de rejeição consiste em valores da
estatística do teste que são improváveis de ocorrer se a hipótese nula for
verdadeira. Por outro lado, esses valores não são tão improváveis de ocorrer
se a hipótese nula for falsa. Portanto, se observarmos um valor da estatística
do teste que caia nessa região crítica, rejeitamos a hipótese nula, uma vez que
aquele valor seria improvável caso a hipótese nula fosse verdadeira.
8





Para tomar uma decisão com referência à hipótese nula, devemos
primeiramente determinar o valor crítico da estatística do teste. O valor crítico
separa a região de não-rejeição da região de rejeição. No entanto, a
determinação desse valor crítico depende do tamanho da região de rejeição.

Riscos na Tomada de Decisão por Meio da Metodologia do Teste de
Hipóteses
Quando se utiliza uma estatística de amostra para tomar decisões sobre
um parâmetro da população, existe um risco de se chegar a uma conclusão
incorreta. Na verdade, dois tipos diferentes de erro podem ocorrer quando
aplicamos a metodologia do teste de hipóteses:
Um erro do tipo I ocorre se a hipótese nula for rejeitada quando de fato
é verdadeira e não deve ser rejeitada.
Um erro do tipo II ocorre se a hipótese nula não for rejeitada quando de
fato é falsa, e deveria ser rejeitada.

Nível de Significância
A probabilidade de se cometer um erro do tipo I, representado α, é
identificada como o nível de significância do teste estatístico.
Tradicionalmente, o estatístico controla as taxas do erro tipo I decidindo o nível
de risco α que ele está disposto a tolerar, em termos de rejeitar a hipótese nula
quando ela é efetivamente verdadeira. Uma vez que o nível de significância é
especificado antes de o teste de hipóteses ser realizado, o risco de cometer um
erro do tipo I, está diretamente sob controle do indivíduo que está realizando o
teste.

Coeficiente de Confiança
O complemento (1-α) da probabilidade de um erro do tipo I é chamado
de coeficiente de confiança, que, ao ser multiplicado por 100%, produz o nível
de confiança (intervalo de confiança).
O coeficiente de confiança, identificado como 1-α, é a probabilidade de
que a hipótese nula não seja rejeitada quando de fato for verdadeira e não
deve ser rejeitada.
9





Em termos da metodologia do teste de hipóteses, esse coeficiente
representa a probabilidade de se concluir que o determinado valor do
parâmetro que está sendo testado para a hipótese nula seja plausível.

Risco β ββ β a probabilidade de se cometer um erro do tipo II
Identificado por β, é freqüentemente referida como o nível de risco do
consumidor. Diferentemente do erro do tipo I, que os testes estatísticos nos
permitem controlar por meio da nossa seleção de α, a probabilidade de se
cometer um erro do tipo II depende da diferença entre o valor da hipótese e os
verdadeiros valores dos parâmetros da população. Uma vez que grandes
diferenças são mais fáceis de serem encontradas, se a diferença entre a
estatística da amostra e o correspondente parâmetro da população for grande,
a probabilidade de se cometer um erro do tipo II provavelmente será pequena.
Por outro lado, se a diferença entre a estatística e o correspondente valor do
parâmetro, for pequena, a probabilidade de se cometer um erro do tipo II será
provavelmente grande.

Eficácia do Teste
O complemento (1-β) da probabilidade de um erro do tipo II é chamado
de eficácia de um teste estatístico.
A eficácia de um teste estatístico, identificado como 1-β, é a
probabilidade de se rejeitar a hipótese nula quando ela é de fato falsa e deveria
ser rejeitada.










Teste de hipóteses e tomada de decisão
Situação Efetiva
Decisão Estatística H
0
Verdadeiro H
0
Falso
Não rejeitar H
0
Confiança (1-α) Erro do tipo II (β)
Rejeitar H
0
Erro do tipo I (α) Eficácia (1-β)
10





2. TESTES PARAMÉTRICOS

Os testes paramétricos envolvem avaliações de parâmetros
populacionais e alegações relativas a amostras independentes de terem sido
extraídas de uma ou mais populações. Subdividem-se em unilaterais e
bilaterais.
Os unilaterais (ou unicaudais)
1
testam as varáveis em relação a um piso
ou a um teto e avaliam os valores máximos e mínimos esperados para os
parâmetros em estudo e a chance de as estatísticas amostrais serem inferiores
ou superiores a dado limite. A unilateralidade pode ser à esquerda ou à direita.
A unilateralidade à esquerda, definida por relação do tipo < (menor que),
mede a chance de a variável ser inferior a dado limite. Suas hipóteses nula e
alternativa são:
¹
´
¦
<

r parâmetro : H
r parâmetro : H
1
0

O teste à esquerda é especialmente útil à fiscalização e controle de
qualidade de itens com parâmetros mínimos.
A unilateralidade à direita, definida por relação do tipo > (maior que),
quantifica a chance de a variável ser superior ao limite fixado. Suas hipóteses
nula e alternativa são:
¹
´
¦
>

r parâmetro : H
r parâmetro : H
1
0


O teste à direita é particularmente útil aos fabricantes interessados em
minimizar a chance de entregar aos consumidores mais do que prometem nas
embalagens e em maximizar o valor de suas promessas.
Os testes bilaterais (ou bicaudais), definidos por relação do tipo ≠,
quantificam a chance de as variáveis estarem inseridas em intervalos
particulares. Suas hipóteses são:
¹
´
¦

=
r parâmetro : H
r parâmetro : H
1
0


1
Observação: As caudas em uma distribuição são as regiões extremas delimitadas por valores
críticos.

11






O teste bilateral é muito usado em teste de qualidade de peças que
devem encaixar-se, como porcas e parafusos, nas quais as folgas muito
estreitas ou muito largas inviabilizam sua junção ou fixação. Ele pode ser
entendido como um duplo teste unilateral, decorrendo daí que, fixados α e n, a
correspondente probabilidade unilateral é dada por .
2 2
1 α
= α Como isso torna
o teste menos preciso que o unilateral, tende-se a aplicá-lo somente a
situações específicas e as caos em que não se tem informação clara sobre o
sentido da diferença. Por não apontar se o parâmetro pe maior ou menor que r,
é um teste mais fraco que o unilateral.

Unilateral à esquerda Bilateral Unilateral à direita

2.1 TESTES DE UMA MÉDIA POPULACIONAL

Vamos agora generalizar as idéias expostas no item anterior, aplicando-
as aos casos que podem ocorrer ao se testarem hipóteses sobre a média de
uma população.
Todos os testes de médias que serão estudados aqui pressupõem a
normalidade da distribuição amostral da variável de teste. Como sabemos da
distribuição amostral das médias, essa suposição será rigorosamente válida se
a distribuição da população for normal e a amostragem aleatória, e será válida,
em geral, como boa aproximação, se a amostra for suficientemente grande.

2.1.1Teste de uma afirmação sobre uma Média: Grandes Amostras

Inicialmente identificaremos as duas hipóteses que se aplicam aos
métodos aqui apresentados.

Hipóteses para o teste de uma afirmação sobre a média de uma (única)
população
12





1. A amostra é grande (n > 30); pode-se aplicar o teorema central do limite
e utilizar a distribuição normal.
2. Ao aplicar o teorema central do limite, podemos utilizar o desvio-padrão
amostral s em substituição ao desvio-padrão populacional σ σσ σ quando
este for desconhecido e o tamanho da amostra for grande (n > 30).

O teste de uma afirmação sobre µ quando n > 30 utiliza a seguinte
estatística de teste:
n
x
z
σ
µ −
=

2.1.2 Teste de uma afirmação sobre uma Média: Pequenas Amostras

As grandes amostras permitem o uso da distribuição normal. Para esses
casos, de grandes amostras, podemos aplicar o teorema central do limite para
concluir que as médias amostrais se distribuem normalmente,
independentemente da distribuição da população original. Todavia, não
podemos utilizar o teorema central do limite quando as amostras são
pequenas.
Desse modo, as seguintes observações podem ser consideras na
tomada de decisão quanto à escolha da distribuição normal e t de Student.

1. De acordo com o teorema central do limite, se obtemos amostras
grandes (n > 30) (de qualquer população com qualquer distribuição), a
distribuição das médias amostrais pode ser aproximada por uma
distribuição normal.
2. Quando extraímos amostras (de qualquer tamanho) de uma população
com distribuição normal, a distribuição das médias amostrais será
aproximadamente normal com média µ e desvio-padrão
n
σ
. Em um
teste de hipóteses, o valor de µ µµ µ corresponde à hipótese nula, e o valor
do desvio-padrão populacional σ σσ σ deve ser conhecido. Se σ σσ σ for
desconhecido e as amostras são grandes, podemos usar o desvio-
13





padrão amostral s como substituto de σ σσ σ, porque grandes amostras
aleatórias tendem a representar a população.
3. As condições para utilizar a distribuição t de Student são as seguintes:
a. A amostra é pequena ( ) 30 n ( ≤ ;e
b. σ σσ σ é desconhecido; e
c. A população original tem distribuição essencialmente normal.
4. Se as amostras são pequenas, σ σσ σ é desconhecido e a distribuição da
população é sensivelmente não-normal, não podemos utilizar os testes
parametrizados; devemos recorrer aos testes não parametrizados.

O teste de uma afirmação sobre µ quando n ≤ 30 e σ é desconhecido utiliza
a seguinte estatística de teste:
,
n
s
x
t
µ −
= com 1 n − graus de liberdade

2.2 TESTE DE UMA AFIRMAÇÃO SOBRE UMA PROPORÇÃO

Após trabalharmos com os testes de hipóteses para a média
populacional, tanto para o caso em que a variância era conhecida quanto para
o caso em que a variância era desconhecida, iremos apresentar os testes para
a proporção populacional p.
Suponha que temos interesse em verificar hipóteses a respeito do valor
de uma proporção populacional p, ou seja, temos interesse em verificar
hipóteses do tipo:
¹
´
¦

=
0 1
0 0
p p : H
p p : H

¹
´
¦
<

0 1
0 0
p p : H
p p : H

¹
´
¦
>

0 1
0 0
p p : H
p p : H

onde
0
p é um valor de interesse.
O estimador p’ tem distribuição aproximada de uma normal com média p
e variância
( )
n
p 1 p −
quando o tamanho da amostra n é suficientemente grande.
Logo, se vale a hipótese
0 0
p p : H = , podemos calcular a estatística:
14





n
) p 1 ( p
p ' p
z
0 0
0


= e, do mesmo modo como foi feito nos casos anteriores,
calculamos a probabilidade P associada a esse valor z e concluímos.

NOTAÇÃO:
n = número de provas
p
0
= proporção populacional (usada na hipótese nula)
q = 1 – p
n
f
' p
i
=
Hipóteses usadas ao testar uma afirmação sobre uma proporção
populacional

1. São verificadas as condições para um experimento binomial. Isto é,
temos um número fixo de provas independentes com probabilidade
constante, e cada prova comporta dois resultados, que designamos
“sucesso” e “falha”.
2. As condições 5 np ≥ e 5 nq ≥ são ambas verificadas, de modo que, a
distribuição binomial das proporções amostrais pode ser aproximada por
uma distribuição normal com np = µ e npq = σ .

Se essas hipóteses não forem todas satisfeitas, eventualmente
poderemos utilizar outros métodos.











15





3. INFERÊNCIAS COM BASE EM DUAS AMOSTRAS

3.1 INFERÊNCIAS SOBRE DUAS MÉDIAS

3.1.1 Amostras Dependentes (dados emparelhados)

Duas amostras são independentes se a amostra extraída de uma das
populações não tem qualquer relação com a amostra extraída da outra
população. Se uma das amostras tem alguma relação com a outra, as
amostras dizem-se dependentes. Tais amostras costumam ser chamadas
amostras emparelhadas.
Consideremos os dados amostrais emparelhados apresentados a seguir.
A amostra dos pesos antes do treinamento e a amostra dos pesos após o
treinamento são amostras dependentes, porque cada par é formado de acordo
com a pessoa envolvida. Os dados do tipo “antes/depois” são, em geral,
emparelhados e dependentes.
Indivíduo A B C D E F
Peso antes do treinamento (kg) 99 62 74 59 70 73
Peso depois do treinamento (kg) 94 62 66 58 70 76

Para os dados a seguir, entretanto, as duas amostras são
independentes, porque a amostra de mulheres não tem qualquer relação com a
amostra de homens. Os dados não são emparelhados, como no caso anterior.

Peso de mulheres (lb) 115 107 110 128 130
Peso dos homens (lb) 128 150 160 140 163 155 175

Suposições
1. Duas amostras dependentes devem ser escolhidas aleatoriamente de duas
populações;
2. Ambas as populações devem ter distribuição normal.

16





Ao trabalharmos com duas amostras dependentes, baseamos nossos
cálculos na diferença (d) entre os pares de dados, conforme ilustrado na tabela
a seguir.




Notação para duas amostras dependentes
d
µ = média das diferenças d para a população de dados emparelhados
d = valor médio das diferenças d para os dados amostrais emparelhados
d
s =desvio-padrão das diferenças d para os dados amostrais emparelhados
n = número de pares de dados

Testes de Hipóteses
Utilizaremos a notação precedente para descrever a estatística de teste
a ser usada nos testes de hipóteses para afirmações sobre médias de duas
populações, no caso de as amostra serem dependentes. Quando selecionamos
aleatoriamente duas amostras dependentes de populações distribuídas
normalmente, em que a média populacional das diferenças emparelhadas é
d
µ ,
a estatística seguinte tem distribuição t de Student.

Estatística de teste para duas amostras dependentes
,
n
s
d
t
d
d
µ −
= com n –1 graus de liberdade

Se o número de pares de dados for grande (n > 30), o número de graus
de liberdade será no mínimo 30, de forma que os valores críticos serão escores
z em lugar de valores t.

Exemplo 1: Utilizando um cronômetro de reação, os indivíduos são submetidos
a teste de reação com suas mãos esquerdas e suas mãos direitas. (Utilizaram-
se somente indivíduos destros). Os resultados (em milésimos de segundo)
x 10 8 5 20
y 7 2 9 20
( ) y x d − = 3 6 -4 0
17





constam da tabela a seguir. No nível de 5% de significância, teste a afirmação
de que há uma diferença entre a média dos tempos de reação da mão direita e
da mão esquerda. Se um engenheiro está projetando uma cabine de jato de
combate e deve colocar o ativado r de ejeção do assento de modo a ser
acessível tanto à mão direita como à mão esquerda, faz alguma diferença qual
mão ele escolhe?

Pessoa A B C D E F G H I J K L M N
Direita 191 97 116 165 116 129 171 155 112 102 188 158 121 133
Esquerda 224 171 191 207 196 165 177 165 140 188 155 219 177 174

Exemplo 2: Realizou-se um estudo para investigar alguns efeitos do
treinamento físico. Os dados amostrais estão relacionados a seguir. No nível
de 5% de significância, teste a afirmação de que o peso médio antes do
treinamento é igual ao peso médio após o treinamento. Todos os pesos são
dados em quilogramas. Que se pode concluir quanto ao efeito do treinamento
sobre o peso?

Antes do treinamento 99 57 62 69 74 77 59 92 70 85
Depois do treinamento 94 57 62 69 66 76 58 88 70 84

3.1.2 Amostras Grandes e Independentes (dados não emparelhados)

Duas amostras são independentes se a amostra extraída de uma das
populações não tem qualquer relação com a amostra extraída da outra
população.

Suposições: Fazemos as seguintes considerações para os testes de
hipóteses
1. As duas amostras são independentes
2. Os tamanhos das duas amostras são grandes: 30 30
1
> >
2
n e n .

18





Testes de Hipóteses
Uma conclusão do teorema central do limite é que as médias amostrais
tendem a distribuir-se normalmente. As diferenças entre médias amostrais
( )
2 1
x x − também tendem a distribuir-se normalmente. Com estas propriedades
e as suposições feitas anteriormente, obtemos a seguinte estatística a ser
utilizada em testes de hipóteses formuladas sobre as médias de duas
populações.

( ) ( )
( ) amostral a estatístic da padrão - desvio
afirmado al populacion parâmetro amostral a estatístic −


Estatística de Teste para Duas Médias: Amostras Independentes e
Grandes





Se não conhecemos os valores de
2
σ e σ
1
, podemos substituí-los por
2
s e s
1
, desde que ambas as amostras sejam grandes. Se
2
σ e σ
1
são
conhecidos utilizamos seus valores para o cálculo da estatística de teste, mas
os casos reais em geral exigem o uso de
2
s e s
1
. É raro conhecermos os
valores de desvios-padrão populacionais se não conhecemos as médias
populacionais.

Estatística de Teste para Duas Médias: Amostras Independentes e
Pequenas
Os métodos de inferência estatística para situações que envolvem as
médias de duas populações independentes, mas onde pelo menos uma das
amostras é pequena ( ) 30 n ≤ levam em consideração as seguintes suposições.

Suposições: No teste de hipóteses sobre as médias de duas populações, os
métodos em questão aplicam-se aos casos em que:
Estatística de Teste: Variâncias Populacionais Conhecidas
( ) ( )
2
2
2
1
2
1
2 1 2 1
n n
x x
z
σ
+
σ
µ − µ − −
=
19





1. As duas amostras são independentes.
2. As duas amostras são extraídas aleatoriamente de populações
distribuídas normalmente.
3. Ao menos uma das duas amostras é pequena ( ) 30 n ≤ .
Quando estas condições são satisfeitas, lançamos mão de um dos três
processos diferentes correspondentes aos seguintes casos:

Caso 1: Os valores de ambas as variâncias populacionais são
conhecidos. (Na realidade, este caso raramente ocorre.)
Caso 2: As duas populações parecem ter variâncias iguais. (Isto é, com
base em um teste da hipótese ,
2
2
2
1
σ = σ não rejeitamos a igualdade das duas
variâncias populacionais.)
Caso 3: As duas populações parecem ter variâncias diferentes. (Isto é,
com base em um teste da hipótese ,
2
2
2
1
σ = σ rejeitamos a igualdade das duas
variâncias populacionais.)

Caso 1: Ambas as Variâncias Populacionais são conhecidas

Estatística de Teste: Variâncias Populacionais Conhecidas
( ) ( )
2
2
2
1
2
1
2 1 2 1
n n
x x
z
σ
+
σ
µ − µ − −
=

Caso 2: As duas populações parecem ter variâncias iguais (Porque não
rejeitamos
2
2
2
1
σ = σ )

Estatística de Teste (Amostras Pequenas Independentes e Variâncias
Iguais)
( ) ( )
2
2
1
2
2 1 2 1
n
s
n
s
x x
t
p p
+
µ − µ − −
= onde
( ) ( )
( ) ( ) 1 n 1 n
s 1 n s 1 n
s
2 1
2
2 2
2
1 1
2
p
− + −
− + −
=
e o grau de liberdade é . 2 n n
2 1
− + = φ
20






Caso 3: As duas populações parecem ter variâncias desiguais (Porque
rejeitamos
2
2
2
1
σ = σ )

Estatística de Teste (Amostras Pequenas Independentes e Variâncias
Desiguais)
( ) ( )
2
2
2
1
2
1
2 1 2 1
n
s
n
s
x x
t
+
µ − µ − −
= , onde o grau de liberdade é o menor dos dois 1 n
1
− e 1 n
2


3.2 INFERÊNCIAS SOBRE DUAS PROPORÇÕES

Ao testar uma hipótese sobre duas proporções populacionais fazemos
as seguintes suposições e adotamos a seguinte notação.

Suposições:
1. Temos dois conjuntos independentes de dados amostrais selecionados
aleatoriamente.
2. Em ambas as amostras verificam-se as condições 5 np ≥ e . 5 nq ≥

Notação:
Para a população 1, seja:
=
1
p proporção populacional
=
1
n tamanho da amostra
=
1
x número de sucessos na amostra

1
1
1 1
n
x
' p p
ˆ
= = (proporção amostral)

1 1 1
p
ˆ
1 ' q q
ˆ
− = =

Atribuem-se significados análogos a
2 2 2 2 2
q' e ' p , x , n , p correspondentes à
população 2.


21





Testes de Hipóteses

O objetivo é comparar as proporções
2 1
p e p de duas populações a partir
de dados obtidos com amostras dessas populações de tamanhos
2 1
n e n .
As hipóteses de interesse são:
¹
´
¦

=
2 1 1
2 1 0
p p : H
p p : H

¹
´
¦
<

2 1 1
2 1 0
p p : H
p p : H

¹
´
¦
>

2 1 1
2 1 0
p p : H
p p : H


Obtendo-se as duas estimativas
2 1
p' e ' p das proporções populacionais
2 1
p e p sabemos que, para amostras suficientemente grandes, a distribuição de
( )
2 1
p' - ' p é aproximadamente normal com
2 1
p p − = µ e
( ) ( )
2
2 2
1
1 1 2
n
p 1 p
n
p 1 p −
+

= σ .
Então, se vale θ = −
2 1 0
p p : H , onde θ é o valor de interesse (quase
sempre igual à zero), a estatística do teste será:
( ) ( )
2
2 2
1
1 1
2 1
n
' p 1 ' p
n
' p 1 ' p
' p ' p
z

+

θ − −
= e
as conclusões são análogas aos casos anteriores.

Observação: Como na maioria dos casos a hipótese de interesse é verificar
se
2 1
p e p são iguais, ou seja, 0 = θ e θ = −
2 1 0
p p : H , temos que
2 1
p' e ' p estimam um mesmo valor e, portanto, podemos calcular uma média
ponderada dessas duas estimativas:
2 1
2 2 1 1
n n
' p n ' p n
' p
+
+
= e a estatística z fica
( )
|
|
¹
|

\
|
+ −

=
2 1
2 1
n
1
n
1
' p 1 ' p
' p ' p
z .
Exemplo: Uma amostra de 370 azulejos tirados da produção de um dado dia
acusou 19 azulejos com defeito. Numa amostra de 165 azulejos da produção
do dia seguinte havia 15 azulejos com defeito. Há razões estatísticas válidas
para se afirmar que nesse segundo dia a produção tenha piorado? (Use
% 5 = α ).


22





4. TESTES NÃO-PARAMÉTRICOS
A maioria dos métodos de inferência estatística pode ser designada
como métodos paramétricos, porque se baseiam em amostragem de uma
população com parâmetros específicos, tais como a média µ , o desvio-
padrãoσ ou a proporçãop. Esses métodos paramétricos usualmente devem
enquadrar-se em condições um tanto quanto restritas, como a exigência de que
os dados amostrais provenham de uma população distribuída normalmente.

4.1 DEFINIÇÕES
Os testes paramétricos exigem suposições sobre a natureza ou forma
da população envolvida; os métodos não-paramétricos não dependem de tais
exigências. Por isso, os testes de hipóteses não-paramétricos costumam
chamar-se testes livres de distribuição.
Embora o termo não-paramétrico sugira que o teste não se baseia em
um parâmetro, há alguns testes não-paramétricos que dependem efetivamente
de um parâmetro, como a mediana, mas não exigem uma distribuição
específica. Embora livre de distribuição seja uma descrição mais precisa, a
expressão não-paramétrico é mais usada.

Vantagens dos Métodos Não-paramétricos
1. Os métodos não-paramétricos podem ser aplicados a uma ampla
diversidade de situações, porque não dependem das exigências mais
rígidas próprias de seus correspondentes paramétricos. Em particular,
os métodos não-paramétricos não exigem populações distribuídas
normalmente.
2. Ao contrário dos métodos paramétricos, os métodos não-paramétricos
podem freqüentemente ser aplicados a dados não-numéricos, como
sexo dos entrevistados.
3. Os métodos não-paramétricos em geral envolvem cálculos mais simples
do que seus correspondentes paramétricos, sendo assim, mais fáceis de
entender.

Desvantagens dos Métodos Não-paramétricos
23





1. Os métodos não-paramétricos tendem a perder informação, porque os
dados numéricos exatos são freqüentemente reduzidos a uma forma
qualitativa.
2. Os testes não-paramétricos não são tão eficientes quanto os testes
paramétricos; assim, com um teste não-paramétrico, em geral
necessitamos de evidência mais forte (como uma amostra maior ou
maiores diferenças) para então rejeitarmos uma hipótese nula.

Quando são satisfeitas as exigências de distribuições populacionais, os
testes não-paramétricos são em geral menos eficientes do que seus
correspondentes paramétricos, mas a redução na eficiência pode ser
compensada por um aumento do tamanho da amostra.

4.2 TESTE DE ADERÊNCIA
Uma importante classe de teste não-paramétrico é constituída pelos
chamados testes de aderência, em que a hipótese testada refere-se à forma da
distribuição da população. Nesses testes, admitimos, por hipótese, que a
distribuição da variável de interesse na população seja descrita por
determinado modelo de distribuição de probabilidade e testamos esse modelo,
ou seja, verificamos a boa ou má aderência dos dados da amostra ao modelo.
Se obtivermos uma boa aderência e a amostra for razoavelmente grande,
poderemos, em princípio, admitir que o modelo forneça uma boa idealização da
distribuição populacional. Inversamente, a rejeição da hipótese nula em um
dado nível de significância indica que o modelo testado é inadequado para
representar a distribuição da população.
Nos testes de aderência utilizamos a seguinte notação:

Notação:
O: representa a freqüência observada de um resultado
E: representa a freqüência esperada de um resultado
K: representa o número de categorias, ou resultados, diferentes.
n: representa o número total de provas

24





Em uma situação típica que exige um teste de aderência, temos
freqüências observadas (denotadas por O) e devemos utilizar a distribuição
teórica requerida para determinar as freqüências esperadas (denotadas por E).
Em muitos casos podemos achar uma freqüência esperada multiplicando a
probabilidade p de uma categoria pelo número n de provas diferentes: np E =

Suposições: Valem as seguintes suposições ao testarmos a proporção
populacional alegada para cada uma de k categorias (em um experimento
multinomial).
1. Os dados constituem uma amostra aleatória.
2. Os dados amostrais consistem em contagens de freqüências para as k
categorias diferentes.
3. Para cada uma das k categorias, a freqüência esperada é, no mínimo, 5.
(Não há qualquer exigência de que cada freqüência observada seja no
mínimo igual a 5.)

O teste de aderência em experimentos binomiais utiliza a seguinte
estatística de teste:

( )


= χ
E
E O
2
2

Os testes de hipótese de aderência são sempre unilaterais à direita.

4.3 TABELAS DE CONTINGÊNCIA – TESTE DE INDEPENDÊNCIA
Quando existem duas ou mais variáveis qualitativas de interesse, a
representação tabular das freqüências observadas pode ser feita por meio de
uma tabela de contingência. No caso de duas variáveis apenas, essa
representação torna-se muito cômoda, mediante uma simples tabela de duas
entradas.
Com a tabela de contingência, conseguimos uma maneira conveniente
de fazer a descrição dos dados da amostra quando temos duas ou mais
variáveis qualitativas a considerar.
Um teste de independência testa a hipótese nula de que a variável
linha e a variável coluna em uma tabela de contingência não estão
relacionadas, isto é, são independentes.
25





É de suma importância reconhecer que, neste contexto, a palavra
contingência se refere a dependência, mas trata-se apenas de uma
dependência estatística, e não pode ser usada para estabelecer uma ligação
direta de causa e efeito entre as duas variáveis em questão.

Suposições: Ao testarmos a hipótese nula de independência entre as
variáveis linha e coluna em uma tabela de contingência, aplicam-se as
seguintes suposições. (Note que estas suposições não exigem que a
população original tenha distribuição normal nem qualquer outro tipo de
distribuição.)

1. Os dados amostrais são selecionados aleatoriamente.
2. A hipótese nula é a afirmação de que as variáveis linha e coluna são
independentes; a hipótese alternativa afirma que as variáveis linha e
coluna são dependentes.
3. Para cada célula na tabela de contingência, a freqüência esperada E é
no mínimo 5. (Não há tal exigência para as freqüências observadas.)

O teste de independência entre as variáveis linha e coluna utiliza a
seguinte estatística de teste:

( )


= χ
E
E O
2
2

A freqüência esperada E de cada célula da tabela de freqüências pode
ser calculada com auxílio da equação abaixo:

( ) ( )
( ) geral total
colunas de total linhas de total
E =

Os testes de independência com tabelas de contingência envolvem
apenas regiões críticas unilaterais à direita.
A estatística de teste permite-nos medir o grau de discordância entre as
freqüências efetivamente observadas e as freqüências que deveríamos esperar
teoricamente no caso de as variáveis serem independentes.

26





5. ANÁLISE DE VARIÂNCIA

5.1 Definição
A análise de variância (ANOVA) é um método para testar a igualdade
de três ou mais médias populacionais, baseado na análise de variâncias
amostrais.

5.2 A Distribuição F
Os métodos de ANOVA utilizam a distribuição F. A distribuição F
apresenta as seguintes propriedades importantes:

1. A distribuição F não é simétrica; é assimétrica à direita.
2. Os valores de F podem ser 0 ou positivos, mas nunca negativos.
3. Há uma distribuição F diferente para cada par grau de liberdade (do
numerador e do denominador).

Os valores críticos de F podem ser encontrados numa tabela.

A análise de variância (ANOVA) se baseia na comparação de duas
estimativas diferentes da variância comum às diferentes populações, ou seja,
as estimativas da variância entre amostras e a variância dentro das amostras.
Utiliza-se a expressão um critério porque os dados amostrais são
separados em grupos segundo uma característica, ou fator.

5.3 ANOVA de Um Critério

À vista da complexidade dos cálculos em jogo, recomendamos a
seguinte abordagem a esta seção:

1. Desenvolver uma perfeita compreensão de como interpretar o painel de
um computador que relacione resultados da análise de variância.
2. Procurar entender a lógica do processo, focalizando cálculos que se
apliquem a um exemplo em que as amostras tenham todas o mesmo
número de valores.
27





3. Compreender a natureza SQ (soma de quadrados) e do QM (quadrado
médio), e seu papel na determinação da estatística de teste F, mas
recorrer a programas estatísticos para achar esses valores.

Suposições
Valem as seguintes suposições quando testamos a hipótese de que três
ou mais amostras provêm de populações com a mesma média:
1. As populações têm distribuições normais.
2. As populações têm a mesma variância
2
σ (ou o mesmo desvio-
padrão σ).
3. As amostras são aleatórias e mutuamente independentes.
4. As diferentes amostras provêm de populações classificadas em
apenas uma categoria.

O método que utilizamos é chamado análise da variância de um
critério (ou critério único) porque lançamos mão de uma única característica,
ou critério, para categorizar as populações. Esta característica costuma
chamar-se tratamento, ou fator.

Definição
Um tratamento (ou fator) é uma característica que nos permite distinguir
diferentes populações uma das outras.

Usa-se o termo tratamento porque as primeiras aplicações da análise de
variância se referiam a experimentos agrícolas em que diferentes lotes de terra
eram tratados com diferentes fertilizantes, tipos de semente, inseticidas etc.

Fundamentos Lógicos
O método da análise de variância se baseia neste conceito fundamental:
Com a suposição de que as populações tenham todas a mesma variância
2
σ ,
estimamos seu valor comum utilizando duas abordagens diferentes. A
estatística de teste F é a razão dessas duas estimativas, de modo que um valor
de F significativamente grande (localizado muito à direita do gráfico da
28





distribuição F) constitui evidência contra a igualdade das médias populacionais.
As duas abordagens para estimar o valor comum de
2
σ são:

1. A variância entre amostras (também chamada variação devida ao
tratamento) é uma estimativa da variância populacional comum
2
σ que se
baseia na variabilidade entre as médias amostrais.
2. A variância dentro das amostras (também chamada variação devida ao
erro) é uma estimativa da variância populacional comum
2
σ baseada nas
variâncias amostrais.

Estatística de Testes para ANOVA de Um Critério

amostras das dentro variância
amostras entre variância
F =

O numerador mede a variação entre as médias amostrais. A estimativa
da variância no denominador depende somente das variâncias amostrais e não
é afetada pelas diferenças entre as médias amostrais. Conseqüentemente, as
médias amostrais que apresentam valores próximos uns dos outros resultam
em uma estatística de teste F próxima de 1, e concluímos que não há diferença
significativa entre as médias amostrais. Mas se o valor de F é excessivamente
grande, rejeitamos a afirmação de igualdade de médias. (As expressões vagas
“próximo de 1” e “excessivamente grande” tornam-se objetivas com a adoção
de um valor crítico específico, que estabelece claramente a diferença entre
uma estatística de teste F que está na região crítica e uma que não está).
Como os valores excessivamente grandes de F refletem médias desiguais, o
teste é unilateral à direita.
Para testar a significância de diferenças entre duas médias amostrais,
supunha-se que as duas populações – das quais se extraíram as amostras –
tivessem a mesma variância. Em muitas situações, é preciso testar a
significância de diferenças entre três ou mais médias amostrais, ou,
equivalentemente, testar a hipótese de nulidade, de que as médias amostrais
são todas iguais, ou seja,
29






¹
´
¦ µ = = µ = µ = µ
demais das diferente média uma menos pelo existe : H
... : H
1
k 3 2 1 0

O teste para esse caso é conhecido com análise de variância (ANOVA).
Colhendo uma amostra de tamanho
i
n de cada população i , obtemos
as médias amostrais
i
x para k ,..., 3 , 2 , 1 i =
Temos ainda a média geral de todas as k amostras indicada por x e o
número total de observações

=
=
k
1 i
i
n n .
Mesmo que
0
H seja verdadeira, as estimativas
i
x não serão todas
iguais. Vai existir sempre uma variabilidade entre as médias amostrais. O
objetivo da Análise de Variância é verificar quão grande é a essa variabilidade
em relação à variabilidade que se observa dentro de cada amostra. Com isso,
o teste de igualdade de várias médias na verdade compara a dispersão
(variância) entre as médias amostrais e a dispersão (variância) que existe
dentro de cada amostra.

Na montagem da análise de variância vamos, então, trabalhar com idéia
de que a variação total dos dados vem de duas fontes: variação entre as
amostras e variação dentro das amostras.

Variação total (soma de quadrados total): É dada pela soma
( )
n
x
x x x SQT
2
k
1 i
n
1 j
ij
k
1 i
n
1 j
ij
2
2
k
1 i
n
1 j
ij
|
|
¹
|

\
|
− = − =
∑∑
∑∑ ∑∑
= =
= = = =


Variação entre as amostras (soma de quadrados entre amostras): É dada
pela soma
( )
n
x
n
x
x x n SQE
2
k
1 i
n
1 j
ij
k
1 i i
2
n
1 j
ij
2
k
1 i
i i
i i
|
|
¹
|

\
|

|
|
¹
|

\
|
= − =
∑∑



= =
=
=
=




30





Variação dentro das amostras (soma de quadrados residual): É dada pela
soma



∑∑
=
=
= =
|
|
¹
|

\
|
− =
k
1 i i
2
n
1 j
ij
k
1 i
n
1 j
ij
2
n
x
x SQR
i
i

Verifica-se que SQR SQE SQT + = .

Podemos, então, montar a chamada tabela de análise de variância
(ANOVA)

Fonte de
Variação
(FV)
Graus de
liberdade
GL
Soma de
quadrados
SQ
Quadrados
médios
QM
Estatística
de Teste F
Entre amostras 1 k − SQE
1 k
SQE
QME

=
Residual k n − SQR
k n
SQR
QMR

=
Total 1 n − SQT

QMR
QME
F
cal
=


QMR
QME
F
cal
= é uma distribuição F-Snedecor com (k-1) graus de liberdade
no numerador e (n-k) graus de liberdade no denominador. Se vale
k 3 2 1 0
... : H µ = = µ = µ = µ

31





6. CORRELAÇÃO

O nosso objetivo é determinar se há algum relacionamento entre duas
variáveis. Em estatística, tal relacionamento é chamado correlação.

6.1 Definição
Existe uma correlação entre duas variáveis quando uma delas está, de
alguma forma, relacionada com a outra.

A importância da determinação de uma correlação entre duas variáveis
decorre do fato de que a presença de tal correlação pode conduzir-nos a um
método para estimar uma grandeza em função da outra.
Quando trabalhamos com dados amostrais e estabelecemos métodos
para formular inferências sobre populações, fazemos as seguintes suposições:

Suposições
1. A amostra de dados emparelhados ( ) y , x é aleatória.
2. Os pares de dados ( ) y , x têm uma distribuição normal bivariada (ou
seja, para cada valor fixo de x, os valores correspondentes de y têm
distribuição normal, e que, para cada valor fixo de y, os valores de x
também têm uma distribuição em forma de sino).

Quanto à segunda suposição, em geral é difícil verificá-la; mas pode-se
fazer uma verificação parcial determinando-se se os valores tanto de x como
de y têm distribuições basicamente e, forma de sino.

6.2 Coeficiente de Correlação Linear
O Coeficiente de correlação linear r mede o grau de relacionamento
linear entre os valores emparelhados x e y em uma amostra. Calcula-se seu
valor com auxílio da fórmula:


( )( )
( ) [ ] ( ) [ ]
∑ ∑ ∑ ∑
∑ ∑ ∑
− −

=
2
i
2
i
2
i
2
i
i i i i
xy
Y Y n X X n
Y X Y X n
r
32





Como r é calculado com base em dados amostrais, é uma estatística
amostral usada para medir o grau de correlação linear entre x e y. Se
tivéssemos todos os pares de valores( ) y , x para a população, a fórmula acima
seria um parâmetro populacional, representado pela letra grega ρ (rô).

6.2.1 Interpretação do Coeficiente de Correlação Linear
O coeficiente de correlação é um número puro: não vem acompanhado
de unidade de medida. O coeficiente de correlação (r) varia de –1 a +1, isto
significa que não existe r menor que –1 e nem maior que +1. Se o valor de
r
está próximo de 0, concluímos que não há correlação linear significativa entre
x e y, mas se
r
está próximo de -1 ou +1, concluímos pela existência de
correlação linear significativa entre x e y.

Exemplos
1) As vendas de um determinado produto A, em milhares de unidades, foram
anotadas para diferentes valores de gastos com propaganda, em unidades
monetárias. Foram obtidos os seguintes resultados.



2) Uma amostra de dez pessoas forneceu para as alturas X (em cm) e os
pesos y (em kg) os seguintes valores:



a) Calcule o coeficiente de correlação linear de Pearson;
b) Qual o grau de correlação das duas variáveis?
c) Construa o diagrama de dispersão.



Pessoa 1 2 3 4 5 6 7 8 9 10
Altura (x) 177 175 178 182 185 163 169 170 160 178
Peso (y) 91 72 67 93 180 71 68 65 65 83
x (gastos) 1 2 3 4 5 6 7 8
y (vendas) 2.2 3.0 2.8 3.4 3.7 3.5 3.6 3.8
33





6.3 Teste de Hipóteses para Correlação Linear
O coeficiente de correlação linear mede o grau de relacionamento linear
entre os valores emparelhados x e y em uma amostra. A medição é feita em
cima de uma amostra de cada uma das variáveis.
Contudo, nos interessa saber, se as populações das variáveis
envolvidas possuem uma correlação linear significativa. Para tanto, usamos um
teste de hipóteses que verifica se há correlação linear significativa entre as
duas populações.
As hipóteses nula e alternativa são expressas da seguinte maneira:



Estatística de Teste t para Correlação Linear




3) Em relação ao exemplo 2, teste, ao nível de significância de 5%, se
realmente existe uma correlação linear positiva entre alturas e os pesos das
pessoas na população.

4) A tabela a seguir relaciona os pesos (em centenas de libras) e as taxas de
consumo de combustível (em mi/gal) em rodovia para uma amostra de carros
de passeio novos. Com base nos resultados, espera um maior consumo de
combustível se adquirir um carro mais pesado? (Utilize % 5 = α )

Peso (x) 29 35 28 44 25 34 30 33 28 24
Combustível (y) 31 27 29 25 31 29 28 28 28 33






¹
´
¦
≠ ρ
= ρ
iva) significat linear correlação (Há 0 : H
tiva) siginifica linear correlação há (Não 0 : H
1
o
( )
( ) liberdade. de graus 2 n onde ,
2 n
r 1
r
t
2
− = φ


=
34





5) A tabela a seguir dá os pesos (em libras) do plástico descartado por uma
amostra de residências, juntamente com o tamanho destas. Há alguma
correlação linear significativa? Este problema é importante para o
Departamento do Censo, que financia projetos, porque a presença de uma
correlação implica que podemos predizer o tamanho da população analisando
o lixo descartado. (Utilize % 1 = α )

Plástico (x) 0,27 1,41 2,19 2,83 2,19 1,81 0,85 3,05
Combustível (y) 2 3 3 6 4 2 1 5

35





7. REGRESSÃO LINEAR

O nosso objetivo neste trabalho é desenvolver o modelo de regressão
linear simples como um meio de utilizar uma variável para prever uma outra
variável e para estudar a correlação, como uma medida da força da associação
entre duas variáveis.
A análise de regressão é utilizada principalmente com o objetivo de
previsão. O propósito na análise de regressão é o desenvolvimento de um
modelo estatístico que possa ser utilizado para prever os valores de uma
variável dependente ou variável de resposta, com base nos valores de pelo
menos uma variável independente ou explicativa.

Exemplo:
Os dados amostrais a seguir representam o consumo de cerveja em um
dia (em 100 litros) e a temperatura máxima (em ºC).
Estas variáveis foram observadas em nove localidades com as mesmas
características demográficas e sócio-econômicas.

Temperatura (x) 16 31 38 39 37 36 36 22 10
Consumo (y) 290 374 393 425 406 370 365 320 269

Traçando o diagrama de dispersão obtemos,
Consumo de Cerveja
0
50
100
150
200
250
300
350
400
450
0 5 10 15 20 25 30 35 40 45
Temperatura
C
o
n
s
u
m
o

36






No diagrama de dispersão desenhado acima, pode ser observada uma
idéia superficial do tipo de relação existente entre as variáveis. A natureza da
relação pode assumir diversas formas, abrangendo desde as funções
matemáticas mais simples até as mais complicadas. A relação mais simples
consiste em uma relação linear ou retilínea.
O modelo linear pode ser representado como sendo

i i i 0 i
X Y ε + β + β =
onde = β
0
interseção de Y para a população
= β
i
inclinação para a população
= ε
i
erro aleatório em Y para a observação

Neste modelo, a inclinação da linha
i
β representa a variação esperada
em Y por cada variação unitária em X. Ela representa o tamanho da variação
em Y (positiva ou negativamente) para uma determinada variação unitária em
X. A interseção de Y
0
β representa o valor médio de Y quando X é igual a
zero. O último componente do modelo,
i
ε , representa o erro aleatório em Y,
para cada observação i que ocorra.

7.1 Determinação da Equação da Regressão Linear Simples

Se nos reportamos ao diagrama de dispersão acima notamos que o
consumo de cerveja parece crescer linearmente, em função da temperatura. A
= ∆Y variação em Y
= ∆X variação em X
O
Y
0
β
X
37





questão a ser abordada na análise de regressão envolve a determinação do
modelo que melhor se ajuste a esses dados.

7.1.2. Método dos Mínimos Quadrados

O modelo estatístico
i i i 0 i
X Y ε + β + β = representa a relação entre duas
variáveis em uma população. No exemplo do consumo de cerveja em relação a
temperatura, os dados obtidos fazem parte de uma amostra aleatória da
população. Se determinados pressupostos forem válidos, a interseção de Y da
amostra (
0
b ) e a inclinação da amostra (
1
b ) podem ser utilizadas como
estimativas dos respectivos parâmetros da população (
0
β e
i
β ). Portanto, a
equação da regressão da amostra representando o modelo de regressão linear
seria:
O valor previsto de Y é igual à interseção de Y mais a inclinação, vezes
o valor de X.
i 1 0 i
X . b b Y
ˆ
+ = , onde
i
Y
ˆ
= valor previsto de Y para a observação i
i
X = valor de X para a observação i.

Essa equação requer a determinação de dois coeficientes de
regressão -
0
b ( a interseção de Y) e
1
b (a inclinação), no sentido de prever
valores de Y. Uma vez que se obtenham
0
b e
1
b , a linha reta é conhecida e
pode ser traçada no diagrama de dispersão. Depois disso, podemos fazer uma
comparação visual no sentido de verificar até que ponto nosso determinado
modelo estatístico (uma linha reta) se ajusta aos dados originais. Isto é,
podemos verificar se os dados originais se encontram perto da linha ajustada
ou se eles desviam muito da linha ajustada.
A análise de regressão simples significa encontrar a linha reta que
melhor se ajuste aos dados. O melhor ajuste significa a tentativa de encontrar a
linha reta para a qual as diferenças entre os valores reais ) Y (
i
e os valores que
seriam previstos da linha de regressão ajustada ) Y
ˆ
(
i
sejam os menores
possíveis. Uma vez que essas diferenças serão tanto positivas quanto
38





negativas para diferentes observações, minimizamos matematicamente como
( )

=

n
1 i
2
i i
Y
ˆ
Y .
Como
i 1 0 i
X . b b Y
ˆ
+ = , estamos minimizando ( ) [ ]

=
+ −
n
1 i
2
i 1 0 i
X . b b Y que
tem duas incógnitas,
0
b e
1
b .
Uma técnica matemática que determina os valores de
0
b e
1
b que
minimiza essa diferença é conhecida como método dos mínimos quadrados.
Ao utilizar o método dos mínimos quadrados, obtemos duas equações,
chamadas de equações normais:

7.1.3 Equações Normais
Os valores de
0
b e
1
b que minimizam essa expressão serão aqueles que
anulam as derivadas parciais dessa expressão.
Ou seja, devemos ter
( )
( )
¦
¦
¹
¦
¦
´
¦
= − −


= − −




0 X b b Y
b
0 X b b Y
b
2
i 1 0 i
1
2
i 1 0 i
0

Ao resolver as derivadas parciais acima, obtemos as duas equações a
seguir, chamadas de equações normais:
∑ ∑ ∑
∑ ∑
= = =
= =
+ =
+ =
n
1 i
n
1 i
2
i 1
n
1 i
i 0 i i
n
1 i
n
1 i
i 1 0 i
X b X b Y X
X b nb Y

A solução do sistema acima fornece:


=
=


=
n
1 i
2 2
i
n
1 i
i i
1
X n X
Y X n Y X
b e X b Y b
1 0
− = , onde
n
X
X
n
1 i
i ∑
=
= e
n
Y
Y
n
1 i
i ∑
=
=

Exemplos:
1) Em relação ao conjunto de dados amostrais que representam o consumo de
cerveja em um dia (em 100 litros) e a temperatura máxima (em ºC). Determine
a equação linear utilizando o Método dos Mínimos Quadrados.
39






2) As vendas de determinado produto, em milhares de unidades, foram
anotadas para diferentes valores de gastos com propaganda, em unidades
monetárias. Foram obtidos os seguintes resultados:



Encontre a equação de regressão linear que melhor ajusta os dados da
tabela acima.

3) A tabela a seguir mostra a média anual, por década, das exportações
brasileiras de café. Determine a equação linear e estime a média da década de
2000.

Média das exportações brasileiras de café, em milhares de sacas
Década 1900 1910 1920 1930 1940 1950 1960 1970 1980 1990
Exportação 13,0 12,1 14,0 14,6 13,8 15,1 17,1 15,1 17,0 17,4
Fonte: Banco de dados da FEBEC, publicado pela Folha de S. Paulo, em, 05/3/1998.

7.2 Erro Padrão da Estimativa

O método dos mínimos quadrados resulta em uma linha reta que se
ajusta aos dados com a quantidade mínima de variação. A equação de
regressão não é um método perfeito de previsão, a menos que todos os pontos
de dados estejam na linha de regressão.
A linha de regressão serve somente como uma previsão aproximada de
uma valor de Y para um dado valor de X.
Portanto, precisamos desenvolver uma estatística que mensure a
variabilidade dos reais valores de Y, por meio dos valores previstos de Y.
A medida de variabilidade em torno da linha de regressão (seu desvio-
padrão) é chamada de erro padrão da estimativa.
O erro padrão da estimativa, dado pelo símbolo
( )
2 n
Y
ˆ
Y
S
2
n
1 i
i i
YX


=

=
.
Gastos (X) 1 2 3 4 5 6 7 8
Vendas (Y) 2,2 3,0 2,8 3,4 3,7 3,5 3,6 3,8
40





Sabendo-se que ( )
∑ ∑ ∑ ∑
= = = =
− − = −
n
1 i
n
1 i
i i 1 i 0
n
1 i
2
i
2
n
1 i
i i
Y X b Y b Y Y
ˆ
Y , obtemos
2 n
Y X b Y b Y
S
n
1 i
n
1 i
i i 1 i 0
n
1 i
2
i
YX

− −
=
∑ ∑ ∑
= = =
.

A interpretação do erro padrão da estimativa, então, é análoga àquela do
desvio-padrão. Assim como o desvio-padrão mede a variabilidade em torno da
média aritmética. O erro padrão da estimativa mede a variabilidade em torno da
linha ajustada da regressão. O erro padrão da estimativa pode ser utilizado
para se fazerem inferências sobre um valor previsto de Y e para determinar se
existe relação estatisticamente entre as duas variáveis.

7.3 Medidas de Variação na Regressão

Para examinar como a variável independente prevê bem a variável
dependente em nosso modelo estatístico, precisamos desenvolver diversas
medidas de variação. A primeira medida, a soma total dos quadrados (STQ),
é uma medida de variação dos valores de y em torno da sua média aritmética
y . Em uma análise de regressão, a soma dos quadrados pode ser subdividida
em variações explicadas ou soma dos quadrados devida à regressão
(SQReg), que é atribuída à relação entre x e y, e variações inexplicadas ou
soma dos quadrados dos resíduos (SQR), que é atribuída a outros fatores
diferentes da relação entre x e y.

SQReg: representa a diferença entre o valor médio de Y e o valor de que seria
previsto a partir da relação de regressão.

SQR: representa aquela parte das variações em Y que não são explicadas pela
regressão. Ela é baseada na diferença entre o valor observado (
r
y ) e o valor
previsto (
r
yˆ ).

41





STQ: é uma medida de variação dos valores de Y, em torno da sua média
aritmética.

Em uma análise de regressão, a soma dos quadrados pode ser
subdividida em variações explicadas e variações inexplicadas. STQ = SQReg
+ SQR.

Fórmulas:






7.4 Coeficiente de Determinação
O coeficiente de determinação (r
2
) mede a proporção da variação, que é
explicada pela variável independente no modelo de regressão.
O coeficiente de determinação (r
2
) é igual à soma dos quadrados devida
à regressão, dividida pela soma total dos quadrados.
STQ
g Re SQ
r
2
=
7.5 Análise de resíduos
É um método gráfico utilizado para avaliar a adequação do modelo de
regressão que foi ajustado aos dados.
Os valores de erros estimados (ei), ou resíduos, são definidos como a
diferença entre os valores de (
r
y ) observados e os valores previstos (
r
yˆ ) da
variável dependente para os valores dados de
r
x .
Portanto, o resíduo é igual ao valor observado de y menos o valor
previsto de y, ou seja
r r i
yˆ y e − = .
Podemos avaliar a adequação do modelo de regressão ajustado
plotando os resíduos no eixo vertical e os valores correspondentes aos valores
de x
r
da variável independente no eixo horizontal. Se o modelo for adequado
para os dados, não haverá padrão aparente nesse gráfico de resíduos em
∑ ∑ ∑
= = =
− − =
n
1 r
r r 1
n
1 r
r 0
n
1 r
2
r
Y X b Y b Y SQR
( )
∑ ∑
= =
− = − =
n
1 r
2 2
r
n
1 r
2
r
Y n Y Y Y STQ
SQR - STQ SQReg =
2
n
1 r
r r 1
n
1 r
r 0
Y n Y X b Y b SQReg − + = ∑ ∑
= =
42





relação a x
r
. Se o modelo ajustado não for apropriado, existirá uma relação
entre os valores de x
r
e os resíduos e
i
.

7.6 Inferências sobre os parâmetros da população na regressão

Podemos determinar se existe relação significativa entre as variáveis X e
Y testando se
1
β (a verdadeira inclinação) é igual a 0. Se essa hipótese for
rejeitada, poder-se-ia concluir que há evidências de uma relação linear. As
hipóteses nula e alternativa poderiam ser declaradas da seguinte maneira:

relação) uma (existe 0 : H
relação) existe (não 0 : H
1 1
1 0
≠ β
= β
e a estatística de teste para isso é
dada por

A estatística t é igual à diferença entre a inclinação da amostra e a inclinação
da população, dividida pelo erro padrão da inclinação.
1
b
1
S
1 b
t
β −
= onde

=

=
n
1 i
2
2
i
YX
b
X n X
S
S
1
e a estatística de teste t segue uma distribuição t com n-2
graus de liberdade.

Um segundo método equivalente para se testar a existência de uma
relação linear entre as variáveis pode ser realizado construindo-se uma
estimativa de intervalo de confiança de
1
β e determinando se o valor hipotético
0
1
= β está incluído no intervalo. A estimativa do intervalo de confiança de
1
β seria obtida pela aplicação da seguinte fórmula.:
1
b 2 n 1
S t b ⋅ ±


Uma vez que esses valores estão acima de zero, podemos concluir que
existe relação linear significativa.
Por outro lado, se o valor zero estiver contido no intervalo, nenhuma
relação teria sido determinada.
43





8. ANÁLISE DE VARIÂNCIA NA REGRESSÃO LINEAR

O método da Análise de Variância pode também pode ser utilizado para
a análise de problemas de regressão.

8.1 Teste da regressão linear

Uma terceira maneira de realizar os testes equivalentes 0 : H
0
= ρ e
0 : H
1 0
= β , vistos anteriormente para o caso da correlação e regressão
lineares, é por meio da aplicação da Análise de Variância. Este teste será aqui
apresentado não propriamente pelo seu interesse imediato, mas pela
importância de suas extensões.
O teste de significância do modelo pode ser feito pela técnica de análise
de variância, comparando-se a variabilidade de Y explicada pela regressão
com a sua variabilidade residual (
2
R YX
s S = :variância residual) não prevista
pela regressão. Utilizando-se a decomposição da soma de quadrados total, o
teste de hipótese
¹
´
¦
≠ β
= β
0 : H
0 : H
1 1
1 0
pode ser feito por meio da estatística
2
R
xy 1
s
S b
F = rejeitando-se
0
H
, a um nível de significância, e concluindo-se que o
modelo é significativo se:
2 n ; 1 ; c
F F

> , onde
2 n ; 1 ; c
F

é o valor crítico da
distribuição F de Snedecor, com 1 grau de liberdade no numerador e (n-2) no
denominador.
Esses resultados podem ser resumidos no seguinte quadro de análise de
variância:
Fonte de
Variação
Graus de
liberdade
Somas de
quadrados
Quadrados
médios
Estatística
F
Regressão 1
xy 1
S b SQE =
xy 1
S b
Resíduo n-2
xy 1 yy
S b S SQR − =
2 n
S b S
s
xy 1 yy
2
R


=

2
R
xy 1
s
S b
F =
Total n-1
yy
S SQT =

44






∑ ∑
= =
− = =
n
Y X
Y X S S
n
1 i
n
1 i
i i
i i XY xy



|
¹
|

\
|
− = =
=
n
X
X S S
2
n
1 i
i
2
i XX xx



|
¹
|

\
|
− = =
=
n
Y
Y S S
2
n
1 i
i
2
i YY yy


2 n
S b S
S S
XY 1 YY
R YX


= =
45





9. NOÇÕES BÁSICAS DE EXPERIMENTAÇÃO

Muito do conhecimento que a humanidade acumulou ao longo dos
séculos foi adquirido por meio da experimentação. A idéia de experimentar, no
entanto, não é apenas antiga, também pertence ao nosso dia-a-dia. Todos nós
já aprendemos algumas coisas, ao longo da vida, experimentando. A
experimentação, no entanto, só se difundiu como técnica sistemática de
pesquisa neste século, quando foi formalizada por meio da estatística.
As técnicas experimentais são universais e se aplicam a diferentes áreas
– agronomia, medicina, engenharia e psicologia – e os métodos de análise são
sempre os mesmos. De qualquer forma, convém conhecer as origens da
experimentação, porque isso ajuda a entender certos termos técnicos.

9.1Origem agrícola
Boa parte da formalização que existe hoje em experimentação se deve a
Sir Ronald Fisher (1890-1962), um estatístico que trabalhou na Estação
Experimental de Agricultura de Rothamstead, na Inglaterra. É a origem agrícola
da experimentação que explica o uso de vários termos técnicos. Assim, o termo
parcela foi criado para designar a unidade de área usada no experimento.
O termo parcela tem, hoje, significado mais geral porque, dependendo
do experimento, a parcela pode ser um animal, uma peça fabricada, uma
pessoa etc. Muitos autores, no entanto, passaram a usar o termo unidade
experimental, em lugar de parcela, porque é mais abrangente.
O termo tratamento também foi introduzido em experimentação pela
área agrícola. Servia para indicar o que estava em comparação: fertilizantes,
inseticidas, variedades. Hoje o termo tratamento tem significado mais geral.
Muitos experimentos são feitos para comparar máquinas, métodos, produtos ou
materiais.
Mas o interesse, em experimentação, nem sempre é o de comparar
tratamentos. Muitas vezes, o pesquisador quer apenas saber se determinado
tratamento tem efeito. Nesse caso, deve comparar um grupo de unidades que
recebeu o tratamento – grupo tratado – com um grupo de unidades que não
recebeu o tratamento – grupo de controle.
46





Finalmente, o que está sendo medido ou observado no experimento é a
variável em análise. Por exemplo, em um experimento conduzido para estudar
o efeito de cremes dentais com flúor na incidência de cáries, o que está em
observação é a incidência de cáries. Logo, essa é a variável em análise. Já em
um experimento conduzido com a finalidade de verificar se a temperatura tem
efeito sobre a velocidade de determinada reação química, a variável em análise
é a velocidade da reação química.

9.2 Repetição
A idéia, em experimentação, é comparar grupos, não apenas unidades.
As unidades experimentais do mesmo grupo recebem, em estatística, o nome
de repetições ou réplicas. Mas a necessidade do uso de repetições precisa ser
bem entendida.
Do ponto de vista do estatístico, é sempre desejável que os
experimentos tenham grande número de repetições. Na prática, porém, o
número de repetições é limitado pelos recursos disponíveis. Mas o pesquisador
deve levar em conta (quando estabelece o tamanho do seu experimento) o que
é usual na área.
De qualquer forma, convém deixar claro que é possível calcular o
número de repetições que devem ser usadas em determinado experimento. A
aplicação de fórmulas exige, no entanto, que o pesquisador conheça a
variabilidade do material experimental. Quanto mais homogêneo é o material –
em termos das características que possam influir nas observações ou
medições que serão feitas – menor é o número de repetições necessário para
mostrar, com clareza, o efeito de uma tratamento.

9.3 Casualização
Para formar grupos tão iguais quanto possível é fundamental que os
tratamentos sejam sorteados às unidades experimentais. É o que os
estatísticos chamam de casualização. A casualização pode ser feita da
seguinte forma: toma-se uma unidade e joga-se uma moeda: se ocorrer “cara”,
a unidade é designada para o grupo tratado e se ocorrer “coroa” a unidade é
designada para o grupo controle.
47





Mas existem outras técnicas de casualização. Por exemplo, pode-se
atribuir um número para cada unidade experimental, colocar todos os números
numa urna, misturar bem e sortear as unidades para formar determinado
grupo. As unidades restantes seriam então designadas para o outro grupo.
A casualização também pode ser feita por meio de tabelas de números
ao acaso, obtidos em livros de estatística ou em computador. O uso de tabelas
de números ao acaso pode parecer sugestão mais séria do que o jogo de
moedas, mas a lógica é a mesma. De qualquer forma, o que importa é
entender que os tratamentos devem ser designados às unidades experimentais
por puro e simples sorteio – a escolha da técnica de casualização fica a critério
do pesquisador.
A casualização foi formalmente proposta por Fischer na década de 1920.
Vinte anos mais tarde essa técnica já estava definitivamente incorporada à
experimentação agrícola. Na área industrial, a casualização passou a ser rotina
após a II Guerra Mundial. Na pesquisa médica, no entanto, a idéia de
casualização só começou a ser aceita muito mais tarde. A relativa demora da
medicina para incorporar essa técnica simples de trabalho só se explica pela
natureza do material experimental.
Na área agrícola não surgem questões de natureza ética quando se
sorteia o tratamento. Por exemplo, para verificar se um adubo tem efeito sobre
a produção de uma planta o pesquisador pode sortear as unidades que vão
receber o adubo – grupo tratado – e as que não vão receber o adubo – grupo
controle –sem enfrentar nenhum problema de natureza ética. Já em medicina a
idéia de “sortear” os pacientes que irão receber o tratamento pode levantar
questões de ética.
No entanto, o princípio da casualização é uma das maiores contribuições
dos estatísticos à ciência experimental. Só a casualização garante que
unidades com características diferentes tenham igual probabilidade de serem
designadas para os dois grupos. Hoje, até em jogos de futebol se reconhece
que a escolha do campo por sorteio elimina o favoritismo. Então é razoável
acreditar que dois grupos, formados por sorteio, têm grande probabilidade de
serem similares. E se os grupos são similares no início do experimento, é
razoável creditar ao tratamento uma diferença expressiva que se observe entre
48





os grupos, isto é, uma diferença que não possa ser facilmente atribuída ao
acaso.
Finalmente – vale insistir – não existem alternativas válidas para a
casualização. O pesquisador que “escolhe” as unidades por critério próprio –
por melhores que sejam as intenções – introduz tendenciosidade nos
resultados. Se o pesquisador tiver objeções à técnica de casualização, deve
consultar um estatístico competente, pois muitas vezes é possível fazer o
sorteio mantendo as restrições que o pesquisador considera necessárias.

9.4 O planejamento do experimento
Para planejar um experimento é essencial definir a unidade experimental
e o que será medido ou observado nessa unidade. É preciso definir os
tratamentos que serão colocados em comparação com clareza e exatidão.
Finalmente, é preciso estabelecer a maneira de fazer a casualização.
Segundo Vieira (1997), o experimento está planejado quando estão
definidos:
a) a unidade experimental;
b) a variável em análise e a forma como será medida;
c) os tratamentos em comparação;
d) a forma como os tratamentos serão designados às unidades
experimentais.

Apenas como exemplo, imagine que se deseja comparar o efeito de
duas rações na engorda de suínos. Nesse caso, o experimento poderia ser
planejado como segue:
a) a unidade experimental: um animal;
b) a variável em análise: ganho de peso, medido pela diferença entre o
peso final e o peso inicial de cada animal;
c) os tratamentos em comparação: ração A e ração B;
d) a forma como os tratamentos serão designados às unidades: por
sorteio.



49





10. OS DELINEAMENTOS EXPERIMENTAIS

Para planejar um experimento, é preciso definir a unidade experimental
e a variável em análise. Também é preciso definir os tratamentos em
comparação e a maneira de designar os tratamentos às unidades. Às vezes é
preciso impor algumas restrições à casualização.

10.1 Experimentos inteiramente ao acaso
Os experimentos inteiramente ao acaso só podem ser conduzidos
quando as unidades são similares. Mas a idéia de similaridade precisa ser bem
entendida. Em experimentação, as unidades não precisam ser “iguais”, basta
que respondam aos tratamentos da mesma forma.
É comum, nos experimentos inteiramente ao acaso, que todos os
tratamentos tenham igual número de repetições.

10.2 Experimentos em bloco ao acaso
Os experimentos em blocos ao acaso surgiram na área agrícola. O
campo era dividido em blocos e os blocos eram divididos em parcelas. Então o
termo bloco designava, originalmente, uma faixa de terra de mesma fertilidade.
O termo bloco tem, hoje, significado bem mais geral. Ainda pode ser
uma faixa de terra, mas também pode ser uma ala da estufa, um período de
tempo, uma ninhada, uma partida de produtos industriais, uma faixa de idade –
tudo depende do que está em experimentação. O essencial é que os blocos
reúnam unidades similares – que se distingam apenas pelo tratamento que
recebem – e que haja variabilidade entre blocos. Não teria sentido organizar
blocos se não houvesse variabilidade entre eles. Mas quem decide se a
variabilidade entre as unidades justifica ou não a formação de blocos é o
pesquisador, não o estatístico.
Finalmente, embora o bloco deva reunir unidades similares, isso não
significa que essa reunião deva ser física. Basta reunir os dados numéricos.




50





11. A ANÁLISE DE VARIÂNCIA
A idéia é comparar a variação devido aos tratamentos com a variação
devido ao acaso ou resíduo. Para isso, é preciso proceder a uma série de
cálculo. Mas a aplicação das fórmulas exige conhecimento da notação.
Na tabela a seguir está apresentado um experimento com k tratamentos:
cada tratamento tem r repetições. A soma dos resultados das r repetições de
um mesmo tratamento constitui o total desse tratamento. As médias dos
tratamentos foram indicadas por
k 3 2 1
y ,... y , y , y . O total geral é dado pela soma
dos totais de tratamentos.

Um experimento inteiramente ao acaso
Tratamento
1 2 3 ... k
Total
y
11
y
21
y
31
y
k1

y
12
y
22
y
32
y
k2

y
13
y
23
y
33
y
k3

. . . .
. . . .
. . . .
y
1r
y
2r
y
3r
y
kr

Total T
1
T
2
T
3
... T
k

∑ ∑
= y T
Número de repetições r r r ... r kr n =
Média
1
y
2
y
3
y

k
y


Para fazer a análise de variância de um experimento inteiramente ao
acaso é preciso calcular as seguintes quantidades:

a) graus de liberdade:
de tratamentos: ) 1 k ( −
do total: ) 1 n ( − , com kr n =
do resíduo: k n ) 1 k ( ) 1 n ( − = − − −

51





b) o valor de C, dado pelo total geral elevado ao quadrado e dividido pelo
número de observações. O valor de C é conhecido como correção:
n
y
C

=
c) a soma de quadrados total:

− = C y SQT
2

d) a soma de quadrados de tratamentos: C
r
T
SQTr
2
− =


e) a soma de quadrados de resíduo: SQTr SQT SQR = =
f) o quadrado médio de tratamentos:
1 k
SQTr
QMTr

=
g) o quadrado médio dos resíduos:
k n
SQR
QMR

=
h) o valor de F:
QMR
QMTr
F =
Note que os quadrados médios são obtidos dividindo as somas de
quadrados pelos respectivos graus de liberdade.
Todas as quantidades calculadas são apresentadas numa tabela de
análise de variância.







11.1 Algumas Considerações
É importante que o pesquisador entenda o que o teste de hipóteses
pode fazer por ele. O teste não comprova nenhuma das hipóteses. No entanto,
se o resultado do teste for maior que o da tabela ao nível de significância
estabelecido (o resultado é significante), existe evidência contra a hipóteses da
nulidade. O pesquisador deve, então, rejeitar essa hipótese. O nível de
significância dá a probabilidade de o pesquisador estar cometendo erro ao
tomar essa decisão.
É, porém, essencial que o experimento tenha sido bem delineado.
Análise de variância de um experimento inteiramente ao acaso
Causas da variação GL SQ QM F
Tratamentos k-1 SQTr QMTr
Resíduos n-k SQR QMR
F
Total n-1 SQT
52





Finalizando, a análise de variância mostrada aqui é indicada para
experimentos feitos de acordo com as normas técnicas. É essencial que as
unidades experimentais utilizadas no experimento sejam de início, similares, e
é essencial que os tratamentos tenham sido designados às unidades por
processo aleatório.
53





BIBLIOGRAFIA

ARA, Amilton Braio; MUSETTI, Ana Villares; SCHNEIDERMAN, Boris.
Introdução à Estatística. São Paulo: Instituto Mauá de Tecnologia, Editora
Edgard Blücher Ltda, 2003.

BOTTER, Denise Aparecida; PAULA, Gilberto Alvarenga; LEITE, José Galvão;
CORDANI, Lisbeth Kaiserlian. Noções de Estatística – com apoio
computacional – São Paulo: Instituto de Matemática e Estatística – USP,
1996.

COSTA, Sérgio Francisco. Introdução Ilustrada à Estatística. 3ª edição. São
Paulo: Editora Harbra, 1998.

COSTA NETO, Pedro Luiz de Oliveira. Estatística. 2ª edição. São Paulo:
Editora Edgard Blücher Ltda, 2002.

COSTA NETO, Pedro Luiz de Oliveira; CYMBALISTA, Melvin. Probabilidade –
resumos teóricos – exercícios resolvidos – exercícios propostos. São
Paulo: Edgard Blücher Ltda, 1974.

FARIAS, Alfredo Alves; SOARES, José Francisco; CÉSAR, Cibele Comini.
Introdução à Estatística. 2ª edição. Rio de Janeiro: Editora LTC, 2003.

GOMES, Pimentel Frederico. Curso de Estatística Experimental. 14ª ed.
Piracicaba: F. Pimentel-Gomes, 2000.

LEVINE, David M.; BERENSON, Mark L.; STEPHAN, David. Estatística:
Teoria e Aplicações – usando MICROSOFT EXCEL em Português.
Tradução de Teresa Cristina Padilha de Souza. Rio de Janeiro: Editora LTC,
2000.

MILONE, Giuseppe. Estatística Geral e Aplicada. São Paulo: Pioneira
Thomson Learning, 2004.
54






MONTGOMERY, Douglas C. Introdução ao Controle Estatístico da
Qualidade. 4ª edição. Rio de Janeiro: LTC, 2004.
TRIOLA, Mario F. Introdução à Estatística. 7ª edição. Tradução de Alfredo
Alves de Farias. Rio de Janeiro: Editora LTC, 1999.

VANNI, Sérgio Marcos. Estatística Aplicada – Básico. São Paulo: Legnar
Informática & Editora, 1999.

VIEIRA, Sonia. Estatística Experimental. 2ª ed. São Paulo: Editora Atlas,
1999.







Sign up to vote on this title
UsefulNot useful