You are on page 1of 46

1 - INTRODUÇÃO

1.1. Histórico

O conceito de controle estatístico de qualidade foi introduzido na


década de 1920 por Shewhart, que na época era o responsável pela inspeção de
componentes para centrais telefônicas produzidas pela empresa americana Bell
Telephone. Desde aquela época e até o início da 2a Guerra Mundial, menos de 20
empresas americanas haviam adotado a idéia de Shewhart (1). Foi o Japão o primeiro
país a adotar, em larga escala, os conceitos próprios do controle estatístico. Em
pesquisa realizada em 1977, Saniga e Shirland verificaram que cerca de 70% das
empresas americanas empregavam métodos de controle estatístico e ainda assim,
utilizando apenas as técnicas mais simples, como a "amostragem simples" e o
"gráfico da média" (2). Segundo pesquisa não oficial, realizada em 1990, cerca de
80% das empresas brasileiras não utilizavam a informática e 54% das empresas
entrevistadas desconheciam totalmente o assunto.

1.2. Definições fundamentais

Universo - São todos os indivíduos de uma população1 , entendendo-se por


indivíduo um item de produção ou uma grandeza desse item; e por população
todas as peças de um dado lote ou da produção anual, por exemplo.

Amostra - É uma pequena porção do universo, tomada a partir de


critérios pré-estabelecidos, na esperança de ser representativa daquele.

Média - É a média aritmética dos diversos valores de uma amostra.

Amplitude - É a diferença entre o maior e o menor valor atribuído a uma


amostra. A amplitude é uma medida da dispersão dos diversos valores.

Desvio padrão - É outra medida (mais precisa) da dispersão.

1
As expressões “indivíduo” e “população” são provenientes do uso mais extensivo da Estatística na área das ciências sociais.
Freqüência - É o número de medidas de igual valor numérico, numa
amostra. Pode ser usada a freqüência absoluta ou relativa.

Outros termos que serão empregados ao longo deste texto terão sua
definição quando da primeira citação.

1.3. Objetivos

O controle estatístico é exercido com várias finalidades.


Inicialmente há necessidade de ser mais bem entendido o significado da palavra
"controle". O controle pode ser definido como uma atividade caracterizada pelo
ajuntamento de certa quantidade de informações com o objetivo de compreender
um determinado fenômeno. Aí, tem-se o controle analítico. A interpretação dessas
informações à luz da Estatística denomina-se controle estatístico, e pode levar à
decisão de se exercer influência sobre o fenômeno, visando alterações em seu
comportamento. Ao conjunto de ações que alteram um fenômeno, dá-se o nome de
controle operacional. Nesta monografia, toda a atenção será dirigida para o
segundo tipo de controle, o Controle Estatístico, o qual pode ser:

a) Controle Estatístico de Qualidade


b) Controle Estatístico de Processo

O Controle Estatístico de Processo ou Controle Estatístico de


Fabricação tem como objetivo acompanhar passo a passo o processo de
fabricação de um determinado produto. Evidentemente, essa atitude, por avaliar
antes de se chegar ao produto final, tem uma componente preventiva e por isso
mesmo tem um reflexo positivo sobre os custos de fabricação.

Controle Estatístico de Qualidade, numa indústria que realiza o


Controle de Processo, tem um caráter mais de confirmação. Sua maior
importância, portanto, decorre da utilização por parte do comprador do produto,
com a finalidade dupla de garantir a preocupação do fornecedor em fabricar algo
com boa qualidade e evitar eventuais problemas em seu próprio processamento
em função de características indesejáveis no produto em questão.
Finalmente, o Controle Estatístico de Qualidade é utilizado com o
objetivo de avaliar a precisão e a exatidão com que estão sendo realizadas as
diversas técnicas analíticas, de modo a garantir a confiabilidade dos dados
experimentais, sob pena de ocorrerem falsas interpretações que
conseqüentemente conduzem a decisões errôneas. Isso pode ocorrer em um
Laboratório Industrial, mas também em qualquer outro laboratório, como por
exemplo, um Laboratório de Análises Clínicas. Nesse caso particular, dá-se o
nome de Controle de Qualidade Analítica.

1.4. Erros em Química Analítica

1.4.1. Precisão e exatidão

Quando alguém se propõe a repetir várias vezes uma determinada


medição, os resultados individuais não serão numericamente iguais, mas estarão
dispersos dentro de um determinado intervalo. Entende-se por precisão o grau
de dispersão de um conjunto de resultados de medição de uma mesma grandeza.
Por outro lado, o valor verdadeiro da grandeza poderá (ou não) estar incluído
nesse conjunto de resultados, ou seja, mesmo havendo uma grande precisão na
medição, o resultado poderá ser bastante diferente do valor verdadeiro (real).
Nesse caso, diz-se que a medição foi inexata. Portanto, exatidão pode ser
entendida como o grau de aproximação entre a medição experimental e o valor
real. A avaliação da precisão e da exatidão é o objetivo geral do controle de
qualidade analítica. A Figura 1.1 exemplifica: o conjunto de dados (a) é preciso
e inexato; o conjunto de dados (b) é impreciso e inexato e o conjunto de dados
(c) é preciso e exato.

Figura 1.1 – Diferença entre precisão e exatidão.


1.4.1. Origem dos erros experimentais

Os erros de medição (precisão e exatidão) podem agora ser mais


bem discutidos. Os erros são classificados genericamente como erros
indeterminados ou erros estatísticos, quando a sua ocorrência obedece a uma
distribuição aleatória (ou estatística), como será visto mais adiante (Capítulo 2) e
estão relacionados com a precisão do procedimento de medição. Os erros
estatísticos não são dotados de sinal, isto é, tanto podem ser positivos, como
negativos. Eles não podem ser evitados ou corrigidos, tão somente minimizados.
Ao lado dos erros estatísticos, ocorrem outros, denominados erros determinados,
que ao contrário dos primeiros, são dotados de sinal, ou seja, ou são positivos, ou
são negativos. Os erros determinados podem ser quantificados e, portanto,
corrigidos. Exemplo de um erro determinado, também denominado erro
sistemático, é a leitura feita com um instrumento que não esteja devidamente
calibrado. O resultado será sempre inferior (ou superior) ao valor real. O erro
sistemático está relacionado com a exatidão da medição. Os erros sistemáticos
podem ser de dois tipos: aditivos e proporcionais. Se no decorrer de um
procedimento analítico um material é submetido à lavagem com um volume fixo
de água, a perda por solubilização, qualquer que seja a quantidade de
precipitado, será constante. Essa perda é um erro aditivo. Por outro lado, numa
titulação com uma solução cuja concentração indicada é diferente da real, a
magnitude do erro dependerá do volume gasto na titulação, resultando em um
erro proporcional.

1.4.2. Medições usadas em Química Analítica

1.4.2.1. Classificação

Os métodos analíticos são de dois tipos:


a) métodos químicos (via úmida);
b) métodos físico-químicos (instrumentais)

Inerentes a cada método, os erros podem ser de dois tipos:

a) do operador
b) do instrumento

O erro do operador aqui referido é o erro decorrente de


características físicas do operador. Por exemplo, numa titulação a detecção do ponto
de viragem é feita com auxílio do olho humano. Portanto, dependendo da acuidade
visual do operador, esse ponto poderá ser observado com maior ou menor
antecedência. Quanto aos erros dos instrumentos, serão discutidos aqui,
especificamente, os erros de leitura, que estão relacionados com a precisão do
instrumento.

Em qualquer medição que se faça fatalmente será cometido um


erro, seja grande ou pequeno, devido a limitações do instrumento, do método
empregado, ou do próprio analista. Tomando-se como exemplo a medição de
uma grandeza linear, a ser realizada com auxílio de uma régua (Figura 1.2.a)
graduada em centímetros (menor divisão igual a 1 cm). Com ela se pode ler 87
cm. Com uma imagem ampliada dessa régua (e do objeto) poder-se-ia observar
que o comprimento é ligeiramente maior que 87 cm. De fato, com uma outra
régua (Figura 1.2.b), graduada em décimos de milímetro (0,1 mm), obter-se-ia,
por exemplo, 87,2 mm, mas fazendo uma ampliação dessa nova situação poderia
ser observado que o comprimento real é algo maior (ou menor) que 87,2 cm.

(a) (b)
Figura 1.2. Medição de uma grandeza linear.

Na realidade, a leitura será sempre uma aproximação (ou


arredondamento) do valor verdadeiro, ou seja, uma estimativa do mesmo.
Conseqüentemente, o último algarismo será sempre duvidoso.

1.4.2.2. Erro absoluto

O erro de um instrumento, como compreendido no parágrafo


anterior, é igual à menor divisão de sua escala. Vale dizer que se trata aqui do erro
máximo, total (isto é, indeterminados e determinados) e absoluto. Por outro lado, o
erro relativo (agora não é propriamente do instrumento, mas da medição realizada
com ele) é igual ao erro absoluto dividido pela grandeza da medida. No exemplo
acima, o erro relativo da régua (a) é:

Para a medição realizada com a segunda régua (b) fica:

Pergunta: Por que o erro absoluto é multiplicado por 2 ?

1.4.2.3. Pesagem

Numa pesagem, normalmente é preciso pesar inicialmente o


recipiente e depois o conjunto (material + recipiente). Por diferença obtém-se o
peso do material. Da teoria geral dos erros, sabemos que o erro absoluto total de
um procedimento experimental é igual à soma dos erros individuais (de cada
operação). Neste caso, o erro máximo relativo associado à pesagem de 10g de
um material, com uma balança de 1g será:

2.1.4.4. Medição de volume

Na medição de um volume o erro máximo é calculado do mesmo


modo. Se o instrumento é uma pipeta graduada ou uma bureta, o erro absoluto
será também multiplicado por dois. Excetuam-se, obviamente, as pipetas de uma
marca, os balões volumétricos, etc. A Tabela 1.1 mostra o erro absoluto (εabs) de
vários recipientes usados em medição de volume. O erro relativo é calculado
dividindo-se o erro absoluto pelo volume medido.
Tabela 1.1 - Erro absoluto de vários recipientes.

RECIPIENTE CAP. (mL) εabs (mL)

Bureta 25 0,050
50 0,100
1 0,010
2 0,020
Pipeta volumétrica 5 0,014
(1 marca) 10 0,019
25 0,031
50 0,037
5 0,015
Pipeta graduada
10 0,025
25 0,050
50 0,075
100 0,120
Balão volumétrico
250 0,180
500 0,350
1000 0,500
2. OPERAÇÕES COM NÚMEROS EXPERIMENTAIS

2.1. Generalidades

Como visto no capítulo anterior, a precisão de uma medição


depende do instrumento empregado. Para que um resultado não seja expresso
com um número que sugira uma precisão maior que a precisão real, alguns
conhecimentos básicos devem ser considerados.

2.2. Regras de arredondamento

Quando é preciso fazer arredondamento em um resultado


numérico (ver seção seguinte), procede-se como a seguir:

I. Se o último algarismo for menor que 5, mantém-se o


penúltimo algarismo;
II. Se o último algarismo for maior que 5, acrescenta-se uma
unidade ao penúltimo algarismo;
III. Se o último algarismo for igual a 5:
a) mantém-se o penúltimo se este for par, ou
b) acrescenta-se uma unidade se este for ímpar.
OBS: Se o 5 a ser arredondado é proveniente de arredondamentos sucessivos, o procedimento da
regra III.a só é válido se os algarismos seguintes ao 5 eram zeros. Se, entretanto, o algarismo 5
precedia algarismos diferentes de zero, deve ser obedecida a regra III.b.

Exemplos:

2,324 Ö 2,32 3,725 Ö 3,72


2,478 Ö 2,48 3,715 Ö 3,72

2.3. Algarismos significativos

Quando um número representa um resultado experimental, fala-se


em algarismos significativos. Algarismo significativo é todo e qualquer
algarismo de um número, exceto os zeros anteriores ao primeiro algarismo
natural (diferente de zero), os quais são usados apenas para indicar a posição da
vírgula.
Exemplos:

Algarismos No de algarismos
Número
significativos significativos
2,14 todos 3
0,013 1e3 2
20,710 todos 5

Para se operar com números experimentais, é preciso ter em


mente que:

a) O último algarismo é duvidoso;


b) Após o último algarismo não se põem zeros;
c) O número que possui o menor número de algarismos significativos é o
menos preciso.

2.4. Operações com números experimentais

Soma ou subtração:

arredondar eliminar
2,719 2,324
14,32 1,13
17,04 3,45

Observação: Os valores mais precisos devem ser arredondados até se igualarem


ao de menor precisão.

Multiplicação ou divisão:

3,137 X 7,2 = 3,14 X 7,2 = 22,608 Ö 23

15, 3 7 8 ÷ 2,4 = 15,4 ÷ 2,4 = 6,417 Ö 6,4


Obs.: Arredondam-se todos os números para ficarem com um algarismo
significativo a mais que o de menor precisão. Ao final, arredonda-se o resultado
para o mesmo número de algarismos significativos que o número de menor
precisão.

O exemplo a seguir ilustra o que foi discutido:

Para determinar o fator de uma solução de HCl 0,1M foi


realizada uma titulação com 2,500 g (balança com sensibilidade de 0,001 g) de
carbonato de sódio, empregando-se uma bureta de 50 mL (consultar a Tabela
1.1; página 7). Foram gastos 48,2 mL da solução. Existe mais de um modo de
cálculo, mas todos resultam na seguinte divisão:

f = 48,2/47,17 2 = 1,0218 Ö 1,02

Esse exemplo mostra que o costume de representar f com quatro


dígitos após a vírgula é totalmente errôneo. Caso a bureta empregada tivesse
dois algarismos após a vírgula, seria então possível escrever um fator com
quatro algarismos significativos, mas não necessariamente quatro algarismos
significativos após a vírgula.

2
O número 47,12 é obtido a partir da estequiometria da reação.
3. FUNDAMENTOS DA ESTATÍSTICA

3.1. Probabilidade

Entende-se por probabilidade, no conceito clássico, a relação P =


x/n, onde x é um número conhecido, igual ou inferior a n, que é finito, sendo x o
número de eventos favoráveis, dentre n eventos quaisquer.

Os eventos podem ser classificados em vários tipos:

a) Eventos equiprováveis são aqueles que possuem igual probabilidade de


ocorrerem.
Exemplo 1: Ao ser lançada para o alto, uma moeda tem 50% de chance de cair com a cara
para cima e 50% de chance de cair com a coroa para cima.
Exemplo 2: Ao se lançar um dado para o alto, cada face tem a mesma chance de cair virada
para cima (1/6 ≅ 16,7%).
Exemplo 3: Ao se retirar uma carta de um baralho, a probabilidade de ser um ás é 4/52 = 7,7%.
b) Eventos com probabilidade condicional são aqueles em que a chance
do segundo evento ocorrer depende da ocorrência do segundo evento.
Considere-se P+ a probabilidade de um evento positivo (cara, no
exemplo anterior). É fácil observar que à medida que n cresce, P+ decresce.

Exemplo 4: No Exemplo 1 foi observado que ao se lançar uma moeda para o alto, há 50%
de probabilidade de dar. Se, por hipótese, na primeira tentativa der cara, a
probabilidade de dar de novo cara na segunda tentativa é menor, na terceira
tentativa menor ainda, etc. Matematicamente expressamos como:

P = 1/2 X 1/2 = 1/4 = 0,25 = 25%

Em outras palavras:
+-
Se n = 2, fica: P + = 1 4 ou 25% : ++ --

-+

1 2 1
Exemplo 5: A probabilidade de ser retirado um ás numa primeira tentativa é 4/52 (número
de ases dividido pelo número total de cartas de um baralho) e a probabilidade
de outro ás ser retirado na segunda tentativa é 4/52 x 3/51 = 0,45%. Neste caso,
os ases são retirados sem reposição.
Exemplo 6: Se o primeiro ás voltasse para o baralho (experimento com reposição), o
segundo evento seria do tipo independente e a probabilidade de ocorrer seria
4/52 x 4/52 = 0,59%.
c) Eventos independentes são aqueles que ocorrem de um modo
totalmente independente.
Exemplo 7: No lançamento de dois dados, a probabilidade de se obter o 1 em um dado e o 5
no outro dado é o produto das duas probabilidades: 1/6 X 1/6 = 1/36 = 2,8%.
d) Eventos mutuamente exclusivos são assim denominados quando a
realização de um exclui a realização do outro.
Exemplo 8: No lançamento de uma moeda, a probabilidade de se obter cara é 1/2 = 50%
(ver Exemplo 1).
Exemplo 9: Em um lote de 100 peças existem 5 defeituosas. Ao se retirar uma peça, a
probabilidade de se obter uma peça defeituosa é P1 = 5/100 = 5%. Logo, a
probabilidade de se obter uma peça sem defeito é P2 = 95/100 = 95%. Observe-
se que P1 + P2 = 100%.

3.2. Distribuição de Probabilidade

Examinando a produção de um dia numa fábrica de veículos, os


inspetores de qualidade encontraram os seguintes resultados:

No de defeitos por veículo (d) No de veículos (v)


1 42
2 9
3 5
4 3
5 1
15 60

O título da segunda coluna do quadro pode ser substituído pela


expressão freqüência, com o significado atribuído na Seção 1.2 (página 2). Na
última linha estão os totais. A partir desses dados pode ser construída a tabela
de distribuição de probabilidades (os valores na segunda coluna correspondem
à probabilidade de ocorrência de veículos com determinado número de
defeitos; P = v/Σv):

No de defeitos por veículo (d) Probabilidade (P)


1 0,70
2 0,15
3 0,08
4 0,05
5 0,02
15 1,00

A construção dessa tabela implica em uma relação matemática


entre o número de defeitos (valores da variável experimental) e os valores da
outra variável (probabilidade). Essa relação pode ser traduzida através de uma
função onde os valores di formam o domínio da função e os valores Pi o seu
conjunto imagem.

Quando a grandeza medida é uma variável contínua (ex.: uma


massa ou a pureza de um produto), os valores do domínio da função apresentam
uma distribuição contínua de probabilidade. Por outro lado, quando a grandeza
pode assumir apenas alguns valores (como no exemplo acima: número de
defeitos), diz-se que se trata de uma variável discreta. Nesse caso, os valores do
domínio da função apresentam uma distribuição discreta de probabilidade. Tais
distribuições discretas podem ser representadas por modelos matemáticos, do
quais, como úteis para o Controle Estatístico, destacam-se a distribuição
binomial, a distribuição de Poisson e a distribuição hipergeométrica.

3.3. Distribuição Binomial

A distribuição binomial descreve um fenômeno do tipo eventos


mutuamente exclusivos (Seção 3.1.d; página 12). Nesse caso, as restrições são:
a) O resultado do teste é dicotômico (sim ou não, cara ou coroa, sucesso ou
insucesso, etc.);
b) Os testes repetidos são independentes (um resultado não afeta os demais);
c) A probabilidade de sucesso (P) e a de insucesso (Q) são constantes.
A equação que descreve a distribuição binomial é:

n!
Px = ⋅ P x ⋅ Qn − x (eq. 3.1)
x!(n − x)!
onde:

x = número de eventos favoráveis ≤ n = número total de eventos.


n! = 1 x 2 x 3 x ... x (n-1) x n
P = probabilidade de algo ocorrer
Q = probabilidade de algo não ocorrer = 1 – P

Exemplo 10: Recalcular o exemplo 4 (probabilidade de dar cara 2 vezes em 2 lançamentos de


uma moeda) utilizando a equação 3.1.

Resposta: Nesse caso, x = 2, n = 2, P = 0,5 (pois P = Q e P + Q = 1).

Resolvendo, fica:
2 2−2
2! ⎛1⎞ ⎛1⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,25 = 25%
2!(2 − 2)! ⎝ 2 ⎠ ⎝ 2⎠

Exemplo 11: Calcular a probabilidade de dar cara 5 vezes em 12 lançamentos de uma moeda.

Resposta: Nesse caso, x = 5, n = 12, P = 0,5. Resolvendo, fica:

5 12−5
12! ⎛1⎞ ⎛1⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,18%
5!(12 − 5)! ⎝ 2 ⎠ ⎝ 2 ⎠

Exemplo 12: Recalcular o Exemplo 3 com auxílio da equação 3.1. A probabilidade de ser
selecionado um ás (x = 1) numa única tentativa (n = 1) é:

1 1−1
1! ⎛ 4 ⎞ ⎛ 48 ⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,077 = 7,7%
1!(1 − 1)! ⎝ 52 ⎠ ⎝ 52 ⎠
Exemplo 13: Calcular a probabilidade de ser selecionado, numa única tentativa (n = 1), o ás
de espada (x = 1) será:

1 1−1
1! ⎛ 1 ⎞ ⎛ 51 ⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,019 = 1,9%
1!(1 − 1)! ⎝ 52 ⎠ ⎝ 52 ⎠

Exemplo 14: Calcular se alguém desejar selecionar dois ases quaisquer (x = 2) em duas
tentativas consecutivas (n = 2), a probabilidade de isso ocorrer será:

a) Primeira tentativa:
1 1−1
1! ⎛ 4 ⎞ ⎛ 48 ⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,077 = 7,7%
1!(1 − 1)! ⎝ 52 ⎠ ⎝ 52 ⎠

b) Segunda tentativa:
1 1−1
1! ⎛ 3 ⎞ ⎛ 48 ⎞
Px = ⋅⎜ ⎟ ⋅⎜ ⎟ = 0,059 = 5,9%
1!(1 − 1)! ⎝ 51 ⎠ ⎝ 51 ⎠

Resultado: P = 0,077 X 0,059 = 0,0045 = 0,45%

Como pode ser facilmente observado com base neste último


exemplo, nos casos em que vários itens são retirados de um conjunto com n itens,
sem reposição, a probabilidade de sucesso (o que quer que isso signifique) na
retirada do n-ésimo item é dada por um somatório:
x=n
n!
Px = ∑ ⋅ P x ⋅ Q n− x (eq. 3.2)
x =0 x!(n − x)!

Futuramente (Capítulo 6) será discutida uma importante aplicação


da distribuição binomial em Controle de Qualidade.

3.4. Distribuição de Poisson

No lugar da distribuição binomial pode ser empregada a distribuição


de Poisson, cuja expressão matemática é mostrada na equação 3.3. De fato, a
distribuição de Poisson é aplicável a eventos raros, ou seja, é necessário um n muito
grande para que se possa observar um sucesso. Portanto, a rigor, a distribuição de
Poisson é uma aproximação da distribuição binomial (que por sua vez pode ser
considerada uma aproximação da distribuição normal ou gaussiana; Seção 3.8).
x =a
md
Px = ∑ (eq. 3.3)
d =0 (e .d !)
m

A constante e da equação 3.3 vale 2,718.

3.5. Distribuição Hipergeométrica

A distribuição hipergeométrica é aplicada quando n/N > 0,1.


Nesse caso, emprega-se a equação 3.4:

(eq. 3.4)

onde:

(eq. 3.5)

3.6. Probabilidade Estatística

O conceito de probabilidade estatística é diferente do conceito


clássico de probabilidade, o qual sugere, por exemplo, que em cada conjunto de
treze tentativas de se selecionar um ás, uma (e somente uma) será favorável, com
certeza. Entretanto, na primeira série de tentativas, poderão ser selecionados dois
ases; na segunda, talvez nenhum; etc. O valor médio, X , que é o número total de
eventos favoráveis (obtenção de um ás), x, dividido pela quantidade de séries de
treze tentativas, n, não é necessariamente igual a 1/13; mas, no limite ( n → ∞ ), X é
igual a 1/13, ou seja:

Lim = 1 / 13
n →∞
3.7. Erros Estatísticos

Os erros estatísticos (ou indeterminados), já definidos na seção


1.4.1, são medidos como desvios do valor verdadeiro (μ):

di = μ − xi (eq. 3.6)

onde xi representa genericamente os diversos valores individuais obtidos na


medição de μ, os quais, na ausência de erros determinados (ver seção 1.4.1),
distribuem-se simetricamente em torno de μ.

Não considerando a magnitude do desvio, observam-se alguns


elementos do conjunto xi aos quais estão associados desvios positivos (di > 0),
enquanto outros apresentam desvio negativo (di < 0).

3.8. Distribuição Gaussiana

Os modelos de distribuição vistos acima, são uma aproximação


para a distribuição Gaussiana dos erros estatísticos 3 . A distribuição Gaussiana é,
portanto, o caso limite, quando n → ∞ . A Fig. 3.1 mostra a curva que representa
a distribuição Gaussiana dos erros estatísticos. Sempre admitindo a inexistência
de erros determinados, o valor de xi que tem maior freqüência (maior
probabilidade de ocorrência) é igual a μ (valor verdadeiro) e os diversos valores
de xi são distribuídos simetricamente em torno de μ. A distância do ponto de
inflexão (a) ao máximo da curva, expressa em unidades de x, é o desvio padrão
(σ), que é usado como medida da dispersão de xi e, portanto, da precisão. A eq.
3.7 é a expressão analítica da curva de distribuição, onde F(x) é a função de
distribuição normal.
xo −( x−μ )2
1
P ( x ≤ xo ) = F ( xo ) =
σ 2π ∫e
−∞
2σ 2
dx
(eq. 3.7)

3
Na realidade, a distribuição normal é aplicável a variáveis contínuas, enquanto que as demais são aplicáveis a variáveis discretas.
A função de probabilidades dessa curva (mede a freqüência –
os valores da ordenada) é:
−( x −μ )2
1
f ( x) = e 2σ 2

σ 2π (eq. 3.8)

(x − μ)
Fazendo z = , que corresponde a
σ
uma simples mudança de escala, tem-se a
distribuição normal reduzida (eq. 3.8a):
Figura 3.1 – Curva de distribuição Gaussiana.
1 −z2 (eq. 3.8a)
f ( z) = e 2
σ 2π
A curva da Fig. 3.1 tem as seguintes propriedades:

9 μ é o valor de xi de maior freqüência e portanto:


Σ xi
lim =μ (eq. 3.9)
n→∞ n

9 Quanto maior for o desvio di , menor será a freqüência de xi ;


9 A curva é simétrica, isto é:
a) O total de desvios positivos é igual ao total dos desvios negativos;
b) O total de desvios positivos de uma determinada magnitude é
igual ao total de desvios negativos de mesma magnitude.

Figura 3.2a – Diferentes exatidões Figura 3.2b – Diferentes precisões


As Fig. 3.2.a e 3.2.b ilustram as duas principais aplicações da
distribuição Gaussiana. Na Fig. 3.2.a, sendo μ1 ≠μ2, conclui-se que as duas curvas
referem-se a diferentes populações. Em termos práticos: a) se são dois métodos
diferentes aplicados a uma mesma amostra, um dos métodos está dotado de erro
sistemático, ou, mais genericamente, ambos estão dotados de erros sistemáticos de
diferentes magnitudes; portanto, a exatidão de um é estatisticamente diferente da
exatidão do outro; b) se é o mesmo método, aplicado a amostras diferentes, estas
diferem em teor. Na Fig. 3.2.b, chega-se à conclusão inversa da anterior, em relação à
exatidão. Por outro lado, os valores de σ sendo diferentes, a precisão não é a mesma,
em cada caso, ou seja: um conjunto de valores (σ maior) é menos preciso que o outro.

3.9. Estimativa do Valor Médio

Foi dito anteriormente que o valor médio é igual a μ quando n


tende para infinito (eq. 3.9), na ausência de erros sistemáticos. Entretanto, na
prática, n é muito pequeno: normalmente efetuam-se duas a três medições em
paralelo. Nessas condições, nem ao menos é possível traçar a curva, quanto mais
aceitar que o valor médio seja igual a μ. Neste texto o valor médio será
representado por X . Assim:

Σ xi
X= ≠μ
n

onde X é a média aritmética dos n valores de xi. Entretanto, X pode ser


considerado uma estimativa de μ. Quando n é realmente muito pequeno, em vez
de X é empregada a mediana, M. É que no cálculo da média, todos os valores
de xi são utilizados e nos casos onde n é muito pequeno, a influência dos valores
extremos x1 e xn, que poderão estar dotados de erros muito grandes, é grande o
bastante para tornar X muito diferente de μ. Por outro lado, a mediana não sofre
influência desses erros, posto que:

a) Se n é ímpar, M é o valor central;


b) Quando n é par, M é a média aritmética dos dois valores centrais.
Uma diferença muito grande entre X e M indica a existência de erros
grosseiros. Entretanto, usando a mediana, algumas informações a respeito do
fenômeno são perdidas. É por isso que, na medida em que n cresce, a eficiência de M
em relação a X decresce:
N 2 3 4 5 6 7 8 9 10 ∞
Eficiência de M 1,00 0,74 0,84 0,70 0,78 0,68 0,74 0,67 0,72 0,64
O exemplo analisado a seguir mostra a importância da mediana.
Uma solução padrão contendo 10,025% de zinco foi analisada
por um método titulométrico. Foram realizadas quatro medições, obtendo-se os
resultados a seguir, à esquerda.
Foram calculadas a média (X ), a mediana (M) e a amplitude (R),
que é a diferença xn-x1.

Xi Xi
10,018 10,018
10,025 10,025
10,030 10,030
10,460 10,045
X = 10,133 X’= 10,030
M = 10,028 M’= 10,028
R = 0,442 R’= 0,027
A diferença grande observada entre M e X pode ser atribuída a
um erro grosseiro (consumo da solução titulante após a viragem; valor realçado
em amarelo). Foi realizada uma nova leitura, encontrando-se 10,045. Este valor
entrou em substituição ao dado suspeito (10,460). Novos valores foram
calculados para X , M e R (dados da direita). Desta vez, a diferença entre X e M
foi bem menor (o R também diminuiu bastante).
4. CONTROLE DE QUALIDADE ANALÍTICA

4.1. Introdução

A confiabilidade de uma análise é algo de extrema importância,


independente de seu objetivo. No caso particular de seu uso como ferramenta
(fonte de informação) para o Controle de um Processo Industrial, uma falha
analítica pode levar à decisão de interferir no processo desnecessariamente,
acarretando problemas de grandes proporções (grande prejuízo financeiro). Essa
tomada de decisão (interferir no processo) precisa de informações bastante
confiáveis. Procedimentos de laboratório confiáveis são o resultado de um
trabalho que se costuma denominar de Controle de Qualidade Analítica.

4.2. Parâmetros e Testes Estatísticos

Para se realizar uma avaliação estatística de certo número de


dados experimentais, torna-se necessário, preliminarmente realizar duas
operações (na ordem indicada):

1o) Colocar os dados em ordem crescente numérica;


2o) Verificar se algum dos dados é dotado de erro grosseiro.

4.2.1. Eliminação de Erros Grosseiros. O Teste Q.

Na Seção 3.9 foi observado que uma diferença entre a média e a


mediana pode indicar a existência de um erro grosseiro. Aplicação do teste Q
para aqueles dados resultaria em rejeição do valor 10,460. O emprego do teste Q
é realizado do seguinte modo: o valor de Q calculado é comparado com o tabelado,
para um dado número de medições (n). Logicamente, os valores suspeitos são x1 e
xn. Assim, calculam-se Q1 e Qn:
(eq. 4.1.a)

(eq. 4.1.b)
Nas equações acima, R é a amplitude. Se Q1 ou Qn for maior que
o valor tabelado (Tab. 4.1), o dado correspondente (x1 ou xn) deve ser excluído.
No exemplo em discussão, o valor de Qcalc = Qn = 0,973 e o Qtab (para n = 4)
vale 0,941 (para P = 95%; ver obs. 3b na página 26). Nesta seção será abordado
o emprego dos parâmetros estatísticos na avaliação de dados experimentais. O
parâmetro mais conhecido é o desvio padrão (σ), que é calculado a partir da
equação 4.2:

2
∑ di
σ= (eq. 4.2)
n

onde di = |xi - μ| e n é o número de determinações paralelas. Como normalmente


σ é desconhecido, o desvio padrão é substituído por sua estimativa, s:

(eq. 4.3)

Portanto, a estimativa do desvio padrão é calculada a partir da


estimativa do valor verdadeiro. O desvio padrão (ou a sua estimativa), empregado
para avaliar precisão, é utilizado através do teste F (Seção 4.2.4).

Tab. 4.1 - Valores máximos de Q, para uso da eq. 4.1.

P(%)
n-1
90 95 99
3 0,886 0,941 0,988
4 0,679 0,765 0,889
5 0,557 0,642 0,760
6 0,482 0,560 0,698
7 0,434 0,507 0,637
8 0,330 0,390 0,550
9 0,275 0,320 0,490
10 0,230 0,270 0,435
4.2.2. Intervalo de Confiança
Denomina-se intervalo de confiança a faixa compreendida entre μ
+ zσ e μ - zσ, estes denominados limites de confiança. Por exemplo, para z = 3,
99,73% dos valores de x estão no intervalo μ + 3σ (vide Tabela 4.2). Quando se
utiliza s em vez de σ e X em vez de μ, o coeficiente z é substituído por t. Para t
= 3 (vide Tabela 4.3), exprimindo de outra forma o mesmo que foi dito para z,
há aproximadamente 99% de probabilidade de μ estar na faixa X + 3s, se foram
realizadas 14 determinações. Se o número de determinações for reduzido para 4, a
probabilidade cai para 95% e se n for igual a 3, P = 90 %, aproximadamente.

Tabela 4.2 - Valores da integral f (xi) = P (probabilidade de freqüência), para alguns


valores de z, onde: i −μ x
z=
σ
Z .0 .2 .4 .6 .8
0 0,0000 0,1585 0,3108 0,4515 0,5763
1 0,6827 0,7699 0,8385 0,8904 0,9281
2 0,9545 0,9722 0,9836 0,9907 0,9959
3 0,9973 - - - -
OBS: Os algarismos das colunas correspondem ao segundo algarismo significativo de z.
Exemplo: P = 0,9836 corresponde a z = 2,4. O Anexo 5 apresenta uma ampliação desta tabela.

4.2.3. Teste t

A principal e mais direta aplicação da distribuição Gaussiana foi


desenvolvida em 1908, pelo químico inglês William Sealey Gosset (1876-1937),
sob o pseudônimo de Student (estudante em inglês). O teste t é empregado para
avaliação da exatidão de um procedimento analítico. O coeficiente t, definido na
seção anterior, pode ser calculado, a partir dos dados experimentais, com auxílio
das equações 4.4 ou 4.5. Como pode ser notado, a eq. 4.4 permite avaliar a
exatidão com que X estima o valor de μ, posto que, com auxílio da Tabela 4.3,
pode ser verificado se a diferença X - μ é (ou não) maior que a permitida, para
um dado valor de n.

Em outras palavras, se t calculado (tcalc) é maior que t tabelado (ttab),


deve-se concluir que houve um desvio maior que o estatisticamente permitido. O
valor de t tabelado é procurado na Tab. 4.3 para (n - 1). É sugerido ao leitor
comparar esse tipo de interpretação com aquele empregado para o teste Q.

X−μ n (eq. 4.3)


t=
s

A eq. 4.5, por outro lado, permite avaliar duas médias. Utilizando
a Tab. 4.3 do mesmo modo que no caso anterior, é possível decidir se:

a) trata-se de amostras diferentes (em teor), ou não, quando é o


mesmo método aplicado a duas amostras.
b) trata-se de métodos de diferente exatidão (ou não), quando são
dois métodos aplicados à mesma amostra.

x1 − x 2
t= (eq. 4.5a)
1 1 (n1 - 1)s12 + (n2 - 1)s 22
+
n 1 n2 n1 + n 2 - 2

x1 − x 2
t= (eq. 4.5b)
s12 + s 22
n -1

Obs. 1 - Quando é utilizada a eq. 4.5a, procura-se na Tabela 4.3 o valor correspondente a 2n-2, onde n
é o número de medições em paralelo realizadas com cada método.
Obs. 2 - Quando n é o mesmo, utiliza-se a eq. 4.5b; quando n é diferente, utiliza-se a eq. 4.5a.
Obs. 3 - Nos dois casos (eq 4.4 e eq. 4.5), a interpretação é feita do seguinte modo:

a) localiza-se t calculado na Tab. 4.3.


b) observa-se 4 que:
- se P ≥ 99% → a diferença é altamente significativa.
- se 95% ≤ P < 99% → a diferença é significativa (ainda).
- se P < 95% → a diferença é estatisticamente insignificante.
William Sealey Gosset
William Sealey Gosset nasceu no dia 13 de junho de 1876 in Canterbury
(Inglaterra) e foi educado em Winchester. Estudou Química e Matemática e foi
como químico que obteve um emprego em 1899 na Cervejaria Guinness em Dublin
(Escócia). Como parte de seu trabalho, ele tinha que resolver problemas de custo de
fabricação e para tal, aproveitando seus conhecimentos de matemática, inventou o
teste t para amostras pequenas. Este e outros trabalhos estatísticos foram publicados
com o pseudônimo de Student, daí algumas pessoas referirem-se ao "teste do
estudante". Um detalhe interessante: um acidente de trânsito (ele bateu com o carro
num poste) levou-o a um repouso forçado que durou três meses, o que permitiu o
desenvolvimento de seu trabalho sobre o teste t. Em 1935 Gosset foi transferido
para uma recém construída destilaria Guinness em Londres. Student morreu em 16
de outubro de 1937, em Beaconsfield (Inglaterra).

4.2.4. Teste F

O teste F, em contraposição ao teste t, é empregado para avaliação


da precisão relativa de dois métodos analíticos. O parâmetro s é uma medida da
precisão. Entretanto, o simples conhecimento do valor numérico de s é de pouco
auxílio para o analista, enquanto que o cálculo de F, a partir da equação:

s2A
F= (eq. 4.6)
s2B

onde sA > sB, permite avaliar a precisão relativa de A e B. O raciocínio é


semelhante ao aplicado no teste t. Se o valor de F calculado for maior que o de F
tabelado, (Tab. 4.4), para um dado número de determinações, é possível afirmar
com 95% de segurança que o método A (maior valor de s) é menos preciso que B.
Tabela 4.3 - Valores máximos de t para vários níveis de significância

4
Na prática é costume considerar apenas a coluna central (P = 95%). Neste caso, se tcalc > ttab, conclui-se que a diferença
é significativa. Caso contrário (tcalc ≤ ttab), a diferença não é significativa.
P(%)
n-1
90 95 99
1 6,314 12,706 63,657
2 2,920 4,303 9,925
3 2,353 3,182 5,841
4 2,132 2,776 4,608
5 2,015 2,571 4,032
6 1,943 2,447 3,707
7 1,895 2,365 3,499
8 1,860 2,306 3,355
9 1,833 2,262 3,250
10 1,812 2,228 3,169
11 1,796 2,201 3,106
12 1,782 2,179 3,055
13 1,771 2,160 3,012
14 1,761 2,145 2,977
15 1,753 2,131 2,947
16 1,746 2,120 2,921
17 1,740 2,110 2,891
18 1,734 2,101 2,878
19 1,729 2,093 2,861
20 1,725 2,086 2,845
25 1,708 2,060 2,787
30 1,697 2,042 2,750
∞ 1,645 1,960 2,576

Tabela 4.4 - Valores máximos de F, com 95 % de Probabilidade.

(n - 1) PARA O MÉTODO A (numerador)


1 2 3 4 5 6 7 8 9 10
1 161 200 216 225 230 234 237 239 241 242

(n -1) de B (denominador)
2 18,5 19 19,2 19,2 19,3 19,3 19,4 19,4 19,4 19,4
3 10,1 8,6 9,9 9,1 9,0 8,9 8,8 8,8 8,8 8,8
4 7,7 6,9 6,6 6,4 6,3 6,2 6,1 6,1 6,0 6,0
5 6,6 5,8 5,4 5,2 5,1 5,0 4,9 4,8 4,8 4,8
6 6,0 5,1 4,8 4,5 4,4 4,3 4,2 4,2 4,1 4,1
7 5,6 4,7 4,4 4,1 4,0 3,9 3,6 3,7 3,6 3,6
8 5,3 4,5 4,1 3,8 3,7 3,6 3,5 3,4 3,3 3,3
9 5,1 4,3 3,9 3,6 3,5 3,4 3,3 3,2 3,1 3,1
10 5,0 4,1 3,7 3,5 3,3 3,2 3,1 3,1 3,0 3,0

4.3. Estatística Simplificada


Foi visto anteriormente (Seção 3.9, p. 19) que quando n é muito
pequeno utiliza-se a mediana (M), em lugar da média, X , para se estimar o valor
verdadeiro, μ. Nesses casos, é útil empregar-se a amplitude (R = xn-x1) para
avaliação da precisão, em lugar do desvio padrão. Mais exatamente, a precisão é
avaliada através da equação 4.7:
sR = Kn.R (eq. 4.7)

onde sR é uma segunda estimativa do desvio padrão, Kn é uma constante que varia
com n (ver Tab. 4.5) e R é a amplitude (do inglês “Range”). A última coluna da
Tabela 4.5 mostra a eficiência de sR na estimativa de σ. Na prática, a estatística
simplificada é aplicada quando n ≤ 10.

Tabela 4.5 - Valores de Kn para uso da eq. 4.7.

n Kn eficiência*
2 0,8862 1,00
3 0,5908 0,99
4 0,4857 0,98
5 0,4299 0,96
6 0,3946 0,93
7 0,3698 0,91
8 0,3512 0,89
9 0,3367 0,87
10 0,3249 0,85
(*) eficiência de sR na estimativa de σ.

4.4. Métodos Gráficos e Numéricos

4.4.1. Gráficos de Calibração

Na Química Analítica, muitas vezes é determinada a


concentração de um material em função de uma grandeza física ou físico-
química, como pH, absorvância, condutividade elétrica ou térmica, etc. Nesses
casos, emprega-se a relação C = f(x), onde C é a concentração e x é a grandeza
medida. Na maioria das vezes, essa relação pode ser representada graficamente.
Se a relação não é linear, é preferível retificar a curva experimental. Tais
gráficos são denominados “Curvas de Calibração”.

Talvez o exemplo mais comum em laboratório seja a curva de


calibração do termômetro de um aparelho para determinação do ponto de fusão
(Figura 4.1). Este gráfico é construído registrando-se na abcissa o valor
experimental, obtido com aquele termômetro, para o ponto de fusão de uma
série de padrões (substâncias puras e que apresentam um ponto de fusão bem
definido). Na ordenada é registrado o ponto de fusão “real”, obtido da literatura
(de um “Handbook”, por exemplo). O ponto de fusão de um desconhecido é
então “corrigido”, procurando-se na ordenada o valor correspondente àquele
encontrado experimentalmente e selecionado na abcissa.

Na construção de um gráfico, deve-se ter em conta que:

a) O número de pontos não deve ser muito pequeno, principalmente se


não se tem certeza a respeito da linearidade da correlação dos
pontos, especialmente nas proximidades de um máximo (ou
mínimo) ou de um ponto de inflexão (Seção 4.3.3). No caso de
uma reta, serão suficientes 5 a 6 pontos.
b) Além do erro da leitura de x no instrumento, existem os erros na
preparação dos padrões (ver Seções 5.3 e 5.5).
c) O gráfico mais legível é aquele cuja reta forma um ângulo de 45o com
os eixos. Esse ângulo pode ser conseguido com uma adequada seleção
das escalas.
d) A precisão na leitura do gráfico é limitada pelo papel: com um papel
milimetrado, o erro absoluto é de 0,25 mm. É preciso, portanto,
selecionar uma escala cuja precisão, em unidades de y (e de C), não
seja maior (nem menor) que a real.

Figura 4.1 – Gráfico de calibração.


4.4.2. Interpolação e Extrapolação Gráficas e Numéricas

Num gráfico C = f (x), denomina-se interpolação a determinação


de um valor dentro do intervalo conhecido (C1 < Cx < Cn), mas diferente de
qualquer um dos valores de Ci utilizados na construção do gráfico. Nos casos
onde a relação é linear, o erro na interpolação é mínimo, sendo função apenas
dos erros citados na seção anterior. O leitor observa na Figura 4.1 como se
realiza a interpolação gráfica.

Figura 4.2 – Comportamento da lei de Beer.

Ao contrário da interpolação, a extrapolação é a determinação de


um valor de Ci maior que Cn ou menor que C1. A extrapolação deve ser feita
com maior precaução, posto que a suposta linearidade pode estar sendo
obedecida apenas no trecho C1 - Cn. Um exemplo disso é a curva de absorção
colorimétrica com soluções concentradas (Fig. 4.2). Observa-se que acima de
uma determinada concentração, a lei de Beer não é obedecida. Na interpolação
(ou extrapolação) numérica, faz-se uso de uma tábua de logaritmos, ou mais
simplesmente, da eq. 4.8 (ver Figura 4.3). A interpolação numérica é,
evidentemente, mais precisa que a interpolação gráfica.
Figura 4.3 – Interpolação gráfica.

y’ = (y2 – y1)(x’ – x1)/(x2 – x1) + y1 (eq. 4.8)

4.4.3. Determinação do Ponto de Inflexão

Curvas com ponto de inflexão (Fig. 4.4) são comuns a vários


fenômenos físicos e físico-químicos. A determinação do ponto de inflexão é
importante em muitos casos, como na titulação potenciométrica. Numericamente, o
ponto de inflexão é encontrado determinando-se a derivada segunda da equação
correspondente e igualando-a a zero.

Figura 4.4 – Curva com ponto de inflexão.

Graficamente, o ponto de inflexão é determinado traçando-se uma


tangente à curva ou, mais simplesmente, uma reta como se vê na Fig. 4.4, onde as
áreas A e A’ são iguais. Alguns instrumentos, como o espectrômetro de
ressonância magnética nuclear, fazem essa operação automaticamente. Com
esses instrumentos, numa primeira corrida é traçada a curva “a” (Fig. 4.5), sendo a
curva “b” traçada numa segunda corrida. Como a curva “b” é a integral de “a”, a
altura do patamar (h) é uma medida da área relativa do “pico” (curva “a”). Uma
perpendicular passando pelo máximo da curva “a” corta a curva “b” pelo seu
ponto de inflexão.

Figura 4.5 – Ponto de inflexão.


4.5. Regressão Linear

Como foi visto, o emprego de gráficos é muitas vezes bastante útil.


Também foi visto que cinco pontos são suficientes para se construir uma reta.
Entretanto, devido aos erros estatísticos, dificilmente os cinco pontos estarão, todos,
exatamente sobre esta reta. É necessário, portanto, procurar a melhor reta, que é a
reta que, simultaneamente, corresponde a um desvio mínimo de cada ponto. Mais
exatamente, o trabalho consiste em procurar uma reta que corresponda a um
valor mínimo para a soma dos quadrados dos desvios. É o método dos mínimos
quadrados. Quando não é exigida uma alta precisão, esta tarefa pode ser
realizada graficamente, como mostra a Figura 4.6. Procura-se a metade da
distância entre o ponto 1 e o ponto 2 (marca-se a); procura-se a metade da
distância entre a e o ponto 3 (marca-se b); etc. A última marca é representada
por um X e é um dos pontos da reta. Repete-se a operação no sentido contrário,
até o outro ponto X. A melhor reta passa por esses dois pontos X.

Figura 4.6 – Método gráfico dos mínimos quadrados.

O método numérico é mais preciso e consiste em resolver um


sistema de equações, onde a e b são coeficientes da equação de regressão (a
melhor reta chama-se reta de regressão e este procedimento é denominado
Regressão Linear). A equação da reta é:

y = a + b. x

onde:

b = (Σx Σy - nΣx.y)/[(Σx)2 - nΣx2] (eq. 4.9a)


{ a = (Σy - bΣx) / n (eq. 4.9b)
Para facilitar os cálculos, é construído o Quadro 4.1.

Quadro 4.1 - Ordenação dos dados para aplicação do método dos mínimos quadrados.

Ponto no x y x*y x2
1 x1 y1 x1.y1 x12
2 x2 y2 x2.y2 x22
••• ••• ••• ••• •••
••• ••• ••• ••• •••
••• ••• ••• ••• •••
N xn yn xn.yn xn2
Totais Σxi Σyi Σ(xi.yi) Σxi2

Se a equação y = a + bx representa a relação entre um resultado


experimental (x) e o valor verdadeiro (y), a regressão linear permite verificar a
existência de erros sistemáticos, identificando-os e quantificando-os.

Em conclusão, a regressão linear elimina automaticamente os


erros estatísticos (através do método dos mínimos quadrados) e mede os erros
sistemáticos aditivos (coeficiente linear, a) e os erros proporcionais (coeficiente
angular, b). Para fins práticos, é usual estabelecer que:

a) se a < 0 + 0,04 não existe erro aditivo e


b) se b < 1 + 0,04 não existe erro proporcional.
Coeficiente de regressão

A correlação entre dois grupos de dados pode ser direta (quando


ambos crescem numa proporção direta), ou inversa, quando, aumentando um
deles, ocorre diminuição do outro (são inversamente proporcionais). É possível
também avaliar quantitativamente o grau (ou intensidade) da correlação. Para
tanto, calcula-se o coeficiente de regressão (também conhecido como índice de
correlação ou coeficiente de correlação). O coeficiente de regressão (r) é
calculado com auxílio da equação (4.10):
nΣxi.yi - ΣxiΣyi
r= (eq. 4.10)
{[nΣxi - (Σxi) 2 ][nΣyi 2 - (Σyi) 2 ]}1/ 2
2

Evidentemente, é possível aproveitar o quadro proposto para o


cálculo dos coeficientes da reta de regressão, bastando acrescentar uma coluna
contendo os valores de yi2.

Se o valor de r for negativo, tem-se uma correlação inversa e se r


for positivo, tem-se uma correlação direta. Entende-se por uma boa correlação
aquela cujo valor de r se aproxima da unidade (+1 ou –1). A intensidade de uma
correlação pode ser avaliada pelo valor absoluto de r, conforme mostrado no
Quadro 4.2.

Quadro 4.2 – Comparação entre r e grau de correlação.

Valor de r Interpretação
até 0,19 insignificante
0,20 a 0,39 fraca
0,40 a 0,69 moderada
0,70 a 0,89 forte
0,90 a 1,00 muito forte

Esses valores são bastante arbitrários, servindo apenas como uma


orientação inicial. De fato, o valor de r também depende de n. O quadro 4.3
apresenta valores críticos para r. Dentro desse critério, se encontrado, por
exemplo, r = 0,60 para um experimento realizado de modo a construir uma reta
com dez pontos, isso deve ser interpretado como correspondendo a uma
correlação fraca. Mas na realidade tudo vai depender do fenômeno em estudo e
do objetivo do estudo. Por exemplo, em cromatografia é muito comum um
coeficiente de regressão superior a 0,99. Assim, um resultado inferior (por
exemplo, r = 0,97), certamente indicará algum problema no instrumento ou
talvez algum erro na preparação das amostras ou ainda que não se esteja
operando na faixa linear do equipamento (ver Figura 4.2, na página 29 e o
próximo parágrafo).
O coeficiente de regressão somente deve ser considerado quando
se tratar, de fato, de um comportamento linear. Mais ainda: alguns fenômenos
somente apresentam um comportamento linear em uma faixa finita de valores.
Em espectrofotometria e em cromatografia, por exemplo, acima de uma
determinada concentração, a relação desta com a leitura do instrumento foge da
linearidade. Nesse caso, é útil o cálculo do coeficiente de regressão para
verificar quando termina a linearidade. Caso contrário, amostras com
concentrações mais altas seriam quantificadas erroneamente (seria encontrada
uma concentração menor que a real), resultando em um erro grosseiro.

Quadro 4.3 – Valores Críticos do Coeficiente de Correlação r

Número de pares de dados (x,y) Valor Crítico de r


5 0,88
6 0,82
7 0,76
8 0,71
9 0,67
10 0,64
11 0,61
12 0,58

O Anexo 7 discute alguns softwares que podem desenhar esses e


outros tipos de gráficos, os quais calculam automaticamente os coeficientes da
equação e o coeficiente de correlação.
4.5. Número Ideal de Medições

Um número muito pequeno de medições pode conduzir a erros


excessivamente grandes. Por outro lado, um número muito grande de medições
exigirá um tempo de análise maior que o necessário, sem, contudo, trazer
vantagens concretas em termos de exatidão e/ou precisão. A cada método
analítico corresponde um número ideal de medições em paralelo. Quando um
método novo vai ser empregado, o analista deve inicialmente verificar qual é
esse número, o que pode ser feito com auxílio das equações 4.11a e 4.11b.

t.s R 100Δ
Δ= (eq. 4.11a) e L= (eq. 4.11b)
n μ

O exemplo mostrado a seguir ilustra o raciocínio a ser


empregado. Duas amostras foram analisadas com 8 repetições, calculando-se 5 a
segunda estimativa do desvio padrão (sR; eq. 4.7). Os dados são organizados no
Quadro 4.2, para facilitar a interpretação. Na última coluna é indicada a
diferença entre o valor de L atual e o da linha anterior. No momento em que a
diferença (vale dizer, a diminuição na dispersão dos valores, ou ainda o aumento
na precisão) fica (a critério do analista) desprezível, este adota o número anterior
como sendo o número ideal de medições. No caso da amostra A, este número é
3, enquanto que no caso B vale 2; conclui-se daí que o número ideal de
medições depende, dentre vários fatores, da concentração da amostra.

AMOSTRA A 1,04 1,03 0,98 1,02 0,96 1,02 1,03 1,05


AMOSTRA B 15,10 14,90 14,95 15,05 14,94 15,02 14,97 14,99

sAR = 0, 029 e sBR = 0, 065

5
O valor de t é obtido da Tabela 4.3, para cada valor de n.
Quadro 4.2 - Determinação do número ideal de medições.

amostra A: μ = 1% amostra B: μ = 15%


n √n t
Δ L Diferença Δ L Diferença
2 1,414 12,706 0,260 26,0 - 0,584 3,9 -
3 1,732 4,303 0,072 7,2 18,8 0,161 1,1 2,8
4 2,000 3,182 0,046 4,6 2,6 0,103 0,7 0,4
5 2,236 2,776 0,036 3,6 1,0 0,081 0,5 0,2
6 2,449 2,571 0,030 3,0 0,6 0,068 0,4 0,1

A Figura 4.7 mostra a diminuição do erro com o número de


repetições.

Número ideal de repetições

0,7

erro relativo percentual


0,6
0,5
0,4 conc 1%
0,3 conc 15%
0,2
0,1
0
0 2 4 6 8
número de repetições

Figura 4.7 – Variação do erro em função do número de repetições.

4.6. Diferença Máxima Permitida entre duas Medições

A diferença máxima permitida entre duas medições em paralelo, para


um dado método, é determinada realizando-se um número m de grupos de medições.
Os grupos podem ser de dois (pares), três ou mais. A partir da amplitude das
medições de cada grupo, Ri, é calculada a amplitude média, R , pela equação 4.12.
1
R= ΣRi (eq. 4.12)
m
A diferença entre duas medições pode ser aceitável, ou não, a
depender do desvio padrão previamente avaliado a partir de um grande número
de medições realizadas com uma solução padrão. A relação
Rmáx = a.σ (eq. 4.13.a)
onde a é encontrado na Tabela 4.6, na prática não é utilizada porque não se
conhece o valor de σ. Entretanto, σ pode ser estimado a partir de sua segunda
estimativa (sR; eq. 4.7). Fazendo b = a.Kn , fica:
Rmáx = b.R (eq. 4.13.b)
Para a determinação de Rmáx, o analista tem que utilizar uma
solução padrão (ou mesmo uma amostra), tomando muitas alíquotas, agrupá-las
e analisar cada grupo. De posse dos dados, é só calcular a amplitude em cada
grupo, Ri e em seguida, a partir da equação 4.12, calcular a média das
amplitudes. Depois, basta aplicar a eq. 4.13.b. Ao analisar uma amostra qualquer,
não será necessário realizar uma terceira medição, caso a diferença entre as duas
primeiras seja igual ou menor que Rmáx.

Tabela 4.6 - Valores de a e de b para vários valores de n, com P = 95%.


n a b
2 2,77 2,46
3 3,31 1,96
4 3,63 1,76
5 3,86 1,66

4.7. Avaliação Estatística de um Método Analítico

Inicialmente torna-se necessário definir o que se entende por


“Método Analítico”: um conjunto de operações efetuadas com o objetivo de
determinar uma característica (normalmente física ou química) de um dado
material. Por essa definição, o “erro global do método”, que é o somatório dos
erros de todas as operações, pode variar grandemente, de um laboratório para
outro, ao contrário do que se costuma apregoar. O exemplo mostrado a seguir,
não pretendendo (nem conseguiria!) mostrar todos os fatores que contribuem para o
erro global, visa, mais exatamente, discutir a forma de abordar a questão.
A determinação do teor de álcool etílico produzido na
fermentação alcoólica é importante, numa destilaria de álcool, pois permite
quantificar o rendimento e a eficiência do processo fermentativo.

A prática usual é a seguinte:

a) SOLUÇÃO PADRÃO: 0,5 % (v/v) de álcool etílico em


água destilada (essa concentração foi escolhida
considerando que o teor, em geral, varia entre 4 % e 7 % e
por permitir o uso de pipeta volumétrica, mais precisa que
graduada; ver seção 2.1). A concentração é 0,5% em vez de
5 % porque a amostra vai ser diluída na proporção de 1:10,
pelas razões expostas a seguir;

b) AMOSTRA: diluem-se em água (em balão de 100 mL) 10


mL do vinho (mosto fermentado), previamente centrifugado
e filtrado (ou então destilado). Essa diluição é necessária
pelas seguintes razões:

1) o erro na medição do volume de uma solução mais


concentrada é proporcionalmente maior;

2) o gás carbônico dissolvido no vinho forma bolhas que


provocam erro na medição do volume;

c) ANÁLISE CROMATOGRÁFICA: a solução padrão e a


amostra são injetadas em um cromatógrafo a gás, dotado de
um detector de ionização de chama.

DISCUSSÃO: Observa-se que aparentemente existem 4 operações: preparação


da solução padrão, preparação da amostra e análise de cada uma das soluções.
Na realidade se têm aqui quatro etapas. Analisando detalhadamente cada etapa,
é possível reconhecer que cada uma envolve mais de uma operação.
A etapa intitulada “preparação da solução padrão” exige a
medição de um volume (5 mL) de álcool etílico em uma pipeta volumétrica.
Aqui surgem dois erros:

e1 = erro de medição do volume na pipeta (5 mL) 6 ;

e2 = erro na medição prévia da pureza do álcool etílico. Observe-se


ainda que essa medição é feita com auxílio de um densímetro
(e3) e de um termômetro (e4), num determinado laboratório,
enquanto que outro utiliza álcool etílico anidro (e ignora o erro
e5 devido ao fato de um álcool anidro ainda conter 0,1 - 0,2 %
de água) e um terceiro laboratório, por exemplo, poderia medir
a pureza com auxílio de um cromatógrafo ou um densímetro
digital (e6 ou e6’). Assim, e2 = e3 + e4 ou e2 = e5 ou e2 = e6 ou
ainda e2 = e6’, lembrando que e6 pode (deve) ser um somatório
tão grande quanto o do caso em discussão.

Ainda nessa primeira etapa ocorrem mais três erros:

e7 = aferição do balão de 100 mL. Aliás, mesmo num único


laboratório, a capacidade de um balão pode não ser
exatamente igual à de um outro, aparentemente idêntico.
Acrescente-se aqui o erro de aferição da pipeta.

e8 = medição de uma alíquota de 10 mL (além da aferição da pipeta).

e9 = diluição da primeira solução, em outro balão de 100 mL, para se


chegar à concentração desejada (0,5 %). Observe que e9 = e7.

PRIMEIRA PERGUNTA: Que aconteceria se fosse medido um volume de 0,5


mL, de modo a diminuir o número de operações?

Na segunda etapa têm-se 4 operações:

6
O erro absoluto de instrumentos de medição podem ser encontrados na Tabela 1.1 ou deduzidos do próprio texto (Capítulo 1)
1a) Centrifugação, onde pode haver alguma perda de álcool por evaporação. Como
avaliar esse erro (e10) ?

2a) Filtração, onde também pode haver evaporação (e11).

3a) Medição de uma alíquota de 10 mL, quando o operador comete um erro igual a e8.

4a) Diluição da amostra (1:10): nessa operação, o analista comete um erro igual a e9.

A terceira etapa (injeção da solução padrão), além de envolver


mais de uma operação, é onde mais facilmente o resultado pode diferir entre
dois laboratórios:

• Com auxílio de uma microseringa, o analista mede 5 microlitros,


injetando-os no cromatógrafo (e12).
• A temperatura de análise, as vazões dos três gases utilizados no
equipamento e o estado de uso do detector são apenas alguns dos fatores
que influem no resultado (e13).
• O sinal gerado no detector é registrado, sob a forma de um pico (fig. 4.5, p. 30).

Existem várias técnicas para a medição da área desse pico, a qual


conduz ao resultado final. Evidentemente, cada técnica conduz também a um erro (e14),
de tamanho diferente em cada caso. Na quarta e última etapa (injeção da amostra),
equivalente à terceira, surgem os erros e15 = e12, e16 = e13 e e17 = e14.

Examinando mais atentamente, é possível encontrar-se outras fontes


de erro. É possível também quantificar a todos e, somando-os, encontrar o erro
global. O leitor é convidado a quantificar o maior número desses erros, bem como a
responder à . . .

SEGUNDA PERGUNTA: Como minimizar o erro analítico ?

Para responder completamente, bem como não omitir nenhuma


fonte de erro, ao relacioná-las durante a avaliação de uma metodologia analítica,
evidentemente é necessário (é primordial!) conhecer profundamente toda a
fundamentação teórica (além de todos os detalhes experimentais) do método em
estudo. Uma vez relacionadas todas as fontes de erro, o passo seguinte é realizar
um determinado número de experimentos (ver Seções 5.1 e 5.2), em um dado
conjunto de condições, para depois alterar uma variável de cada vez, repetindo após
cada alteração, o mesmo número de medições.

EXEMPLO: Os conjuntos de dados A e B apresentados abaixo se referem a duas


situações diferentes: em A, o volume injetado (ver erro e12 da terceira
etapa do exemplo anterior) foi de 5 μL e em B, foi de 3 μL. O valor de
F é calculado a partir da eq. 4.6.

A B
17,3 17,0
17,4 17,2
17,4 17,6
17,5 17,8
X= 17,4 17,4
R= 0,2 0,8
sR = 0,097 0,389
F(s) = 19,85
F(sR) = 16,06
Ftab = 9,9

Como n é muito pequeno (4), pode-se pensar em utilizar sR no


lugar de s. Os valores de F, em qualquer caso, são maiores que o valor tabelado
(Tab. 4.4). Assim, qualquer que seja o critério a empregar, pode ser afirmado,
com bastante segurança, que a injeção de 3 μL provoca um erro que é,
estatisticamente, maior que no outro caso (injeção de 5 μL). Agindo assim em
relação a todas as demais variáveis do procedimento analítico, é possível
quantificar o erro associado e ao mesmo tempo estabelecer a norma que
permitirá a minimização do erro global.
4.8. Avaliação Estatística de uma Amostra

Objetivos:

• Definição da técnica de amostragem;


• Definição do tamanho da amostra;
• Definição dos procedimentos para um eventual tratamento da amostra.

Ao tomar várias amostras de um dado lote, procede-se à análise


das mesmas, com o número de repetições previamente definido (Seção 4.5).
Aplicação do teste t confirmará imediatamente se as amostras são todas elas
estatisticamente iguais ou não. Em caso afirmativo, concluir-se-á que sua
homogeneidade simplifica a tarefa de amostragem. Em caso contrário, a amostra
será objeto de avaliação quanto à melhor maneira de garantir a sua
homogeneização. A Associação Brasileira de Normas Técnicas (ABNT) tem
normas em relação ao assunto. A avaliação da eficiência da técnica de
homogeneização é feita exatamente como a verificação da homogeneidade
natural da amostra. O tamanho da amostra (n) é bastante variável, em função de
(ATENÇÃO! TAMANHO É DIFERENTE DE QUANTIDADE):

- grau de homogeneidade da amostra;


- tipo de amostra (peça, líquido, etc);
- rigor exigido na avaliação.

Existem vários critérios para definição do tamanho da amostra, os


quais serão estudados com mais detalhes em capítulos subseqüentes. Idealmente,
a amostra não sofre tratamento, pois qualquer que seja este tratamento, sempre
haverá probabilidade de ser alterada alguma característica (conferir o exemplo
da seção anterior). Além disso, ao se diluir (ou concentrar) uma amostra,
acrescenta-se uma operação e conseqüentemente um erro.

EXEMPLO: Seja a amostra uma solução contendo 10 % do material em análise.


Foram tomadas 5 alíquotas de 10 mL e diluídas em balão de 100 mL. Cada
solução resultante foi analisada com 5 repetições. Os resultados, apresentados
no quadro abaixo, mostram que ao erro de medição (e1 = 0,2 %) foi incorporado
o erro de diluição 7 (e2 = 0,3 %):

medição
alíquota
1 2 3 4 5 e1 (%)
a 10,01 10,02 10,00 9,98 9,99 0,2
b 10,12 10,11 10,09 10,10 10,08 0,2
c 9,85 9,86 9,87 9,88 9,89 0,2
d 10,31 10,30 10,32 10,34 10,33 0,2
e 9,76 9,73 9,75 9,74 9,77 0,2

O erro médio das medições é 0,2 %. As médias das alíquotas são


10,00; 10,10; 9,87; 10,32 e 9,75. Sua média geral é 10,01. O erro médio global,
portanto, é de 0,5 %.

.5. Avaliação Estatística na Preparação de Soluções

Essa avaliação será ilustrada com a preparação de uma solução


contendo 1 μg/L, dispondo-se de uma balança analítica (s = 0,0001g).
Evidentemente, existem inúmeras maneiras de se preparar essa solução. Serão
aqui consideradas apenas três delas:

a) Pesagem de 1 mg (e1) seguida de uma diluição em 100 mL (e2), tomada de


uma alíquota de 1 mL (e3) e outra diluição em 100 mL (e4 = e2);
b) Pesagem de 1 g (e1), seguida de uma diluição em 1000 mL (e2) e dois pares
de tomadas de alíquotas de 1 mL (e3 e e5)/diluição em 1000 mL (e4 e e6);
c) Pesagem de 100 mg (e1), diluição em 1000 mL (e2), tomada de alíquota de
1 mL (e3), diluição em 1000 mL (e4), tomada de alíquota de 10 mL (e5) e
diluição em 1000 mL (e6).

Os erros máximos permitidos estão tabelados:

7
Soma do erro de pipetagem com o erro do balão volumétrico (ver Tabela 1.1, página 7).
técnica e1 e2 e3 e4 e5 e6 etotal
a 20 0,12 1 0,12 - - 21,24
b 0,02 0,05 1 0,05 1 0,05 2,17
c 0,2 0,05 1 0,05 0,19 0,05 1,54

Observe-se que no caso (a) o erro de pesagem predomina (94,16%


do erro total), ao contrário do caso (b), onde predomina o erro de diluição
(99,08% do total). No caso (c) há uma minimização de ambos, conseguindo-se
com isso, um erro total mais baixo. Se o analista preparasse três soluções por
meio de cada técnica e procedesse a sua análise em duplicata, encontraria, por
exemplo, os resultados abaixo, que confirmariam a afirmação acima.

Técnica solução 1 solução 2 solução 3


X1 X2 X X1 X2 X X1 X2 X
a 0,809 0,811 0,810 0,968 0,970 0,969 1,161 1,161 1,162
b 1,023 1,021 1,022 1,005 1,007 1,006 0,971 0,969 0,970
c 1,012 1,009 1,010 0,986 0,983 0,984 0,988 0,991 0,990

X a = 0,980; Ra = 0,352; sa = 0,1763; saR = 0,208


X b = 0,999; Rb = 0,052; sb = 0,0266; sbR = 0,031
X c = 0,995; Rc = 0,026; sc = 0,0136; scR = 0,015

Aplicando o teste F, fica:

com s: com sR:

a ⇒ F1 = 43,76 a ⇒ F1 = 45,06
b b
a ⇒ F2 = 163,53 a ⇒ F2 = 192,27
c c
b ⇒ F3 = 3,74 b ⇒ F3 = 4,27
c c

Ftab = 19
Os cálculos mostram que apenas entre (b) e (c) existe uma boa
concordância, em termos de precisão (exatamente as técnicas de melhor
precisão). Aplicação do teste t (usando s ou sR e eq. 4.5b), leva à conclusão que
as três técnicas são exatas (ttab = 4,3):

ta = 0,20; tb = 0,06; tc = 0,64

4.10. Confiabilidade Analítica

O conceito de limite de confiança (p. 23) implica na aceitação de uma


ocorrência inevitável dos erros estatísticos. Todo o trabalho do analista consiste em
utilizar uma metodologia que minimize esse erro. A confiabilidade da análise é
demonstrada através da forma com que é representado o resultado. Para segurança do
laboratório, é aconselhável a auto-avaliação permanente do trabalho na sua rotina
(Controle de Qualidade Analítica). Essa avaliação normalmente é efetuada com
auxílio de uma ferramenta simples, mas poderosa e eficiente: o gráfico de controle
(Capítulo 5).

4.11. A Expressão do Resultado Analítico

Para explicitar o grau de confiabilidade em uma análise, é


necessário indicar os limites de confiança. Na prática, no lugar da expressão X
+ 3σ, é comum definir os limites a partir da amplitude. Assim, um resultado Re
é representado como:
Re = X ± R/2

De acordo com esse procedimento, o conjunto de dados A do


exemplo apresentado na página 40 deve ser expresso como 17,4 + 0,1. Do
mesmo modo, o conjunto de dados B deve ser expresso como 17,4 + 0,4.
Entretanto, caso o método tenha sido submetido a uma avaliação estatística
completa, recomenda-se o uso da expressão geral ( t.Kn.R / n em vez de R).
R R
Re = X ± t. Kn. ou Re = M ± t . K n.
n n
4.12. Laboratórios de Referência

Grandes empresas, proprietárias de inúmeros laboratórios, como a


Petrobrás, e consórcios de empresas, como as do Sistema Eletrobrás, costumam
avaliar as diversas unidades de controle a partir de um Laboratório Central
(CENPES, no caso da Petrobrás), denominado Laboratório de Referência, ou
através de uma Comissão Técnica (como no caso do Sistema Eletrobrás). O órgão
avaliador distribui periodicamente amostras padronizadas, que são analisadas pelas
unidades sob controle. Através de uma avaliação estatística, as unidades recebem
pontuação quanto ao seu desempenho: exatidão, precisão, capacidade (ver Seção
5.6), etc.

You might also like