P. 1
Metrologia

Metrologia

|Views: 30|Likes:
Published by seedot

More info:

Published by: seedot on Jul 03, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

04/19/2014

pdf

text

original

Metrologia

Industrial
Fundamentos da Confirmação Metrológica


5
a
Edição (Revista)
















Marco Antônio Ribeiro












Metrologia
Industrial
Fundamentos da Confirmação Metrológica


5
a
Edição (Revista)



Marco Antônio Ribeiro







Quem pensa claramente e domina a fundo aquilo de que fala, exprime-se claramente e
de modo compreensível. Quem se exprime de modo obscuro e pretensioso mostra logo que
não entende muito bem o assunto em questão ou então, que tem razão para evitar falar
claramente (Rosa Luxemburg)














© 1993, 1994 e 1995, 1996 e 1999, Revisão em 2003, Tek Treinamento & Consultoria Ltda
Salvador, Verão 2003


Prefácio
Não use adjetivos, use números!

A maioria das pessoas ainda pensa que Metrologia se refere apenas à Dimensão e
Comprimento e trata de paquímetros, micrômetros, cálibres e similares. Este preconceito
deve ser eliminado, pois Metrologia é a Ciência da Medição e se refere à medição de
qualquer grandeza física. A importância da Metrologia é evidente, pois ela é uma ferramenta
absolutamente essencial para a garantia da qualidade de qualquer produto ou serviço de
engenharia.
O presente trabalho foi escrito como suporte de um curso ministrado a engenheiros e
técnicos ligados, de algum modo, à medição de alguma grandeza física. Ele enfoca os
aspectos técnicos, físicos e matemáticos da medição da grandeza física.
Inicialmente, é apresentado o Sistema Internacional de Unidades (SI), com sua
história, características e as regras para a escrita correta de nomes, símbolos, prefixos e
múltiplos das unidades das grandezas físicas. Os Algarismos Significativos são
conceituados e tratados, para que sejam usados e entendidos corretamente. São vistos os
conceitos básicos da Estatística da Medição para tratar corretamente os erros aleatórios,
conceituando médias, desvios, distribuições e intervalos de confiança da medição.
As Quantidades Medidas são definidas e classificadas sob diferentes enfoques e são
apresentados os conceitos, unidades, formas e padrões das sete quantidades de base, das
duas suplementares e das principais derivadas, nas áreas da física, química, eletrônica e
instrumentação.
A seguir são vistas os Instrumentos de Medição, onde são apresentados os diferentes
métodos de medição, as aplicações da medição na indústria e os diferentes tipos de
instrumentos usados nas medições. O desempenho do instrumento é analisado e são
apresentadas as especificações típicas e os parâmetros da precisão e da exatidão. Os erros
aleatórios, sistemáticos e grosseiros da medição são conceituados e apresentados os meios
para eliminar, diminuir ou administrar tais erros, considerando sua fonte de origem.
Finalmente, é analisada a Confirmação Metrológica da medição, onde são definidos os
conceitos de calibração e ajuste, os diferentes tipos de padrões, as abrangências das normas
e a situação dos laboratórios nacionais (INMETRO) e internacionais.
São apresentados como Apêndices: o Vocabulário de Metrologia (A), comentários
sobre as Normas ISO 9000 (C) e a relação dos Laboratórios da Rede Brasileira de
Calibração (D) publicada em MAI 97, pela CQ Qualidade, Editora Banas.
O autor ficará mais feliz, se ao fim da leitura do presente trabalho, as pessoas passarem a
usar mais números que adjetivos.
O trabalho está continuamente sendo revisto, quando são melhorados os desenhos,
editadas figuras melhores, atribuídos os créditos a todas as fotografias usadas.
Sugestões e críticas destrutivas são benvidas, no endereço do autor: Rua Carmen Miranda
52, A 903, CEP 41820-230, Fone (0xx71) 452-3195 e Fax (0xx71) 452-4286, Móvel(071)
9989-9531 e no e-mail: marcotek@uol.com.br

Marco Antônio Ribeiro
Salvador, BA, Verão 2003





Autor

Marco Antônio Ribeiro nasceu em Araxá, MG, no dia 27 de maio de 1943, às 7:00
horas A.M.. Formou-se pelo Instituto Tecnológico de Aeronáutica (ITA), em
Engenharia Eletrônica, em 1969.
Foi professor de Matemática, no Instituto de Matemática da Universidade Federal
da Bahia (UFBA) (1974-1975), professor de Eletrônica na Escola Politécnica da UFBA
(1976-1977), professor de Instrumentação e Controle de Processo no Centro de
Educação Tecnológica da Bahia (CENTEC) (1978-1985) e professor convidado de
Instrumentação e Controle de Processo nos cursos da Petrobrás (desde 1978).
Foi gerente regional Norte Nordeste da Foxboro (1973-1986). Já fez vários cursos de
especialização em instrumentação e controle na Foxboro Co., em Foxboro, MA, Houston (TX)
e na Foxboro Argentina, Buenos Aires.
Possui dezenas de artigos publicados em revistas nacionais e anais de congressos
e seminários; ganhador do 2
o
prêmio Bristol-Babcock, no Congresso do IBP,
Salvador, BA, 1979.
Desde agosto de 1987 é diretor da Tek Treinamento & Consultoria Ltda, firma
dedicada à instrumentação, controle de processo, medição de vazão, aplicação de
instrumentos elétricos em áreas classificadas, Implantação de normas ISO 9000 e
integração de sistemas digitais.
Suas características metrológicas são:
altura: (1,70 ± 01) m;
peso correspondente ã massa de (70 ± 2) kg;
cor dos olhos: castanhos (cor subjetiva, não do arco íris)., cor dos cabelos
(sobreviventes): originalmente negros, se tornando brancos;
tamanho do pé: 40 (aplicável no Brasil, adimensional).
Gosta de xadrez, corrida, fotografia, música de Beethoven, leitura, trabalho, curtir
os filhos e a vida. Corre, todos os dias, cerca de (10 ± 2) km e joga xadrez
relâmpago todos os fins de semana. É provavelmente o melhor jogador de xadrez
entre os corredores e o melhor corredor entre os jogadores de xadrez (o que não é
nenhuma vantagem e nem interessa à Metrologia).



Bíblia e Metrologia
Levítico, 19
• 35: Não façais nada contra a equidade, nem no juízo, nem na regra, nem no
peso, nem na medida.
• 36: Seja justa a balança e justos os pesos; seja justo o alqueire e justa a medida

Deuteronômio, 25, Pesos e medidas justas
• 13. Não terás na tua bolsa pesos diferentes, um grande e outro pequeno.
• 14. Não terás na tua casa duas efas, uma grande e outra pequena.
• 15. Terás peso inteiro e justo, terás efa inteira e justa; para que se prolonguem os
teus dias na terra que o Senhor teu Deus te dá.
• 16. Porque é abominável ao Senhor teu Deus todo aquele que faz tais coisas, todo
aquele que prática a injustiça.

Ezequiel, 45
• 10. Tereis balanças justas, efa justa e bato justo.
• 11. A efa e o bato serão duma mesma medida, de maneira que o bato contenha a
décima parte do hômer e a efa a décima parte do hômer; o hômer será a medida
padrão.

Amós, 8,
• 5. Quando passará a lua nova, para vendermos o grão? E o sábado, para expormos o
trigo, diminuindo a medida, e aumentando o preço, e procedendo dolosamente com
balanças enganadoras...

Miqueias, 6,
• 11. Justificarei ao que tem balanças falsas e uma bolsa cheia de pesos enganosos?



i
Conteúdo



CONTEÚDO I
1.SISTEMA INTERNACIONAL (SI) 1
Objetivos de Ensino 1
1. Sistema de Unidades 1
1.1. Unidades 1
1.2. História 1
1.3. Sistema Internacional (SI) 3
1.4. Política IEEE e SI 4
2. Multiplos e submúltiplos 6
3. Estilo e Escrita do SI 6
3.1. Introdução 6
3.2. Maiúsculas ou Minúsculas 7
3.3. Pontuação 8
3.4. Plural 9
3.5. Agrupamento dos Dígitos 9
3.6. Espaçamentos 10
3.7. Índices 11
3.8. Unidades Compostas 11
3.9. Uso de Prefixo 12
3.10. Ângulo e Temperatura 13
3.11. Modificadores de Símbolos 13
4. Algarismos Significativos 14
4.1. Introdução 14
4.2. Conceito 14
4.3. Algarismo Significativo e o Zero 14
4.4. Notação científica 15
4.5. Algarismo Significativo e a Medição
16
4.6. Algarismo Significativo e o Display 18
4.7. Algarismo Significativo e Calibração
19
4.8. Algarismo Significativo e a Tolerância
19
4.9. Algarismo Significativo e Conversão
20
4.10. Computação matemática 21
4.11. Algarismos e resultados 25
2. ESTATÍSTICA DA MEDIÇÃO 27
Objetivos de Ensino 27
1. Estatística Inferencial 27
1.1. Introdução 27
1.2. Conceito 27
1.3. Variabilidade da Quantidade 29
2. População e Amostra 30
3. Tratamento Gráfico 31
3.1. Distribuição de Freqüência 31
3.2. Histograma 33
3.3. Significado metrológico 33
4. Médias 34
4.1. Média Aritmética 34
4.2. Raiz da Soma dos Quadrados 35
5. Desvios 36
5.1. Dispersão ou Variabilidade 36
5.2. Faixa (Range) 36
5.3. Desvio do Valor Médio 36
5.4. Desvio Médio Absoluto 37
5.5. Desvio Padrão da População 37
5.6. Desvio Padrão da Amostra 37
5.7. Fórmulas Simplificadas 38
5.8. Desvios da população e amostra 38
5.9. Desvio padrão de operações 38
5.10.Coeficiente de variação 39
5.11. Desvio Padrão Das Médias 39
5.12. Variância 40
6. Distribuições dos dados 41
6.1. Introdução 41
6.2. Parâmetros da Distribuição 41
6.3. Tipos de distribuições 42
6.4. Distribuição normal ou de Gauss 42
7. Intervalos Estatísticos 47
7.1. Intervalo com n grande (n > 20) 47
7.2. Intervalo com n pequeno (n < 20) 47
7.3. Intervalo com n pequeno (n < 10) 47
7.4. Intervalo para várias amostras 48
Metrologia Industrial

ii
8. Conformidade das Medições 49
8.1. Introdução 49
8.2. Teste Q 50
8.3. Teste do χ
2
(qui quadrado) 50
8.4. Teste de Chauvenet 52
8.5. Outros Testes 52
8.6. Conformidade (goodness of fit) 53
8.7. Não-Conformidades 53
3. QUANTIDADES MEDIDAS 54
Objetivos de Ensino 54
1. Quantidade Física 54
1.1. Conceito 54
1.2. Valor da quantidade 54
1.3. Classificação das Quantidades 55
1.4. Faixa das Variáveis 58
1.5. Função Matemática 59
2. Quantidades de Base do SI 60
2.1. Comprimento 61
2.2. Massa 64
2.3. Tempo 67
2.4. Temperatura 69
2.5. Corrente Elétrica 80
2.6. Quantidade de Matéria 81
2.7. Intensidade Luminosa 82
2.8. Quantidades Suplementares 82
4. INSTRUMENTOS DE MEDIÇÃO
83
Objetivos de Ensino 83
1. Medição 84
1.1. Metrologia 84
1.2. Resultado da Medição 84
1.3. Aplicações da Medição 85
1.4. Tipos de Medição 86
2. Instrumentos da Medição 89
2.1. Manual e Automático 89
2.2. Contato e Não-Contato 89
2.3. Alimentação dos Instrumentos 90
2.4. Analógico e Digital 91
2.5. Instrumento Microprocessado 94
3. Sistema de Medição 97
3.1. Conceito 97
3.2. Sensor 98
3.3. Condicionador do Sinal 101
3.4. Apresentação do Sinal 105
4. Desempenho do Instrumento 109
4.1. Introdução 109
4.2. Características do Instrumento 109
4.3. Exatidão 110
4.4. Precisão 111
4.5. Parâmetros da Precisão 113
4.6. Especificação da Precisão 117
4.7. Rangeabilidade 119
4.8. Precisão Necessária 120
4.9. Relação padrão e instrumento 121
4.10. Projeto, Produção e Inspeção 126
5. Erros da Medição 127
5.1. Introdução 127
5.2. Tipos de Erros 127
5.3. Erro Absoluto e Relativo 128
5.4. Erro Dinâmico e Estático 128
5.5. Erro Grosseiro 129
5.6. Erro Sistemático 130
5.7. Erro Aleatório 136
5.8. Erro Resultante Final 137
6. Incerteza na Medição 139
6.1. Conceito 139
6.2. Princípios Gerais 139
6.3. Fontes de Incerteza 141
6.4. Estimativa das Incertezas 141
6.4. Incerteza Padrão 142
6.5. Incerteza Padrão Combinada 142
6.6. Incerteza Expandida 142
5. CONFIRMAÇÃO METROLÓGICA
143
Objetivos de Ensino 143
1. Confirmação Metrológica 143
1.1. Conceito 143
1.2. Necessidade da confirmação 143
1.3. Terminologia 144
1.4. Calibração e Ajuste 144
1.5. Tipos de calibração 146
1.6. Erros de calibração 149
1.7. Calibração da Malha 149
1.8. Parâmetros da Calibração 150
3. Padrões 157
3.1. Padrões físicos e de receita 158
3.1. Rastreabilidade 158
4. Normas e Especificações 162
4.1. Norma 162
4.2. Especificações 162
4.3. Hierarquia 163
4.4. Tipos de Normas 163
4.5. Abrangência das Normas 163
4.6. Relação Comprador-Vendedor 163
4.7. Organizações de Normas 164
4.8. INMETRO 164
Metrologia Industrial

iii
A. Vocabulário de Metrologia 166
1. Grandezas e Unidades 167
1.1. Grandeza (mensurável) 167
1.2. Grandeza medida (Mensurando) 167
1.3. Grandeza de base 167
1.4. Grandeza suplementar 167
1.5. Grandeza derivada 167
1.6. Grandeza, dimensão de uma 168
1.7. Unidade (de medição) 168
1.8. Unidade, símbolo de 168
1.9. Unidade, sistema de 168
1.10. Valor (de uma grandeza) 168
1.11. Valor verdadeiro (de uma grandeza)
169
1.12. Valor verdadeiro convencional (de
uma grandeza) 169
1.13. Valor verdadeiro, erro e incerteza
169
1.14. Valor numérico (de uma grandeza)
170
2. Medição 171
2.1. Metrologia 171
2.2. Medição 171
2.3. Princípio de medição 171
2.4. Método de medição 171
2.5. Procedimento de medição 171
2.6. Mensurando (mensurand) 171
2.7. Grandeza de influência 171
2.8. Grandeza de modificação 171
2.9. Sinal de medição (measurement
signal) 172
2.10. Ruído (noise) 172
3. Resultado da Medição 172
3.1. Resultado de uma medição 172
3.2. Resultado não corrigido 172
3.3. Resultado corrigido 172
3.4. Erro (da medição) 172
3.5. Erro relativo 172
3.6. Erro aleatório 173
3.7. Erro sistemático 173
3.8. Correção (do erro) 173
3.9. Fator de correção 173
3.10. Incerteza 173
3.11. Incerteza (da medição) 173
3.12. Incerteza padrão 174
3.13. Incerteza padrão combinada 174
3.14. Incerteza expandida 174
3.15. Avaliação Tipo A (de incerteza) 175
3.16. Avaliação Tipo B (de incerteza) 175
3.17. Fator de cobertura 175
4. Instrumento de Medição 175
4.1. Instrumento de medição (measuring
instrument) 175
4.2. Medida materializada (material
measure) 175
4.3. Transdutor de Medição (measuring
transducer) 175
4.4. Transmissor (transmitter) 175
4.5. Cadeia de medição (measuring
chain) 176
4.6. Sistema de medição (measuring
system) 176
4.7. Indicador (indicator) 176
4.8. Registrador (recorder) 176
4.9. Totalizador (totalizer) 176
4.10. Instrumento analógico (analog
instrument) e digital (digital instrument) 177
4.11. Mostrador (display, dial) 177
4.12. Índice (index) 177
4.13. Escala (scale) 177
4.14. Escala com zero suprimido
(supressed zero scale) 177
4.15. Escala com zero elevado (elevated
zero scale) 177
4.16. Escala expandida (expanded scale)
177
4.17. Sensor (sensor) 178
4.18. Faixa de indicação (range of
indication) 178
4.19. Amplitude de faixa (span of
indication) 178
4.20. Escala linear (linear scale) 178
5. Características do Instrumento de
Medição 179
5.1. Faixa nominal (nominal range) 179
5.2. Valor nominal (nominal value) 179
5.3. Condições de Utilização (rated
operating conditions) 179
5.4. Condições Limites (limiting
conditions) 179
5.5. Condições de Referência (reference
conditions) 179
5.6. Constante de um instrumento
(instrument constant) 179
5.7. Característica de resposta (response
characteristic) 179
5.8. Sensibilidade (sensitibility) 180
5.9. Limiar de mobilidade (discrimination,
threshold) 180
5.10. Resolução (resolution) 180
5.11. Zona morta (dead zone) 180
5.12. Estabilidade (stability) 180
5.13. Discriminação (transparency) 180
5.14. Deriva (drift) 180
5.15. Tempo de resposta 180
5.16. Exatidão da medição 180
5.17. Classe de exatidão 181
5. 18. Repetitividade (de resultados de
medições) 181
Metrologia Industrial

iv
5.19. Reprodutibilidade 181
5.20. Erro 181
5.22. Limite de Erro Admissível 182
5.23. Erro de um instrumento de medição
182
5.24. Erro no ponto de controle 182
5.25. Erro no zero (zero error) 182
5.26. Erro no span (span error) 182
5.27. Erro intrínseco (intrinsic error) 182
5.28. Tendência (bias) 182
5.29. Isenção de Tendência (freedom
from bias) 182
5.30. Erro fiducial (fiducial error) 182
6. CONCEITOS ESTATÍSTICOS 183
6.1. Estatística 183
6.2. Probabilidade 183
6.3. Variável aleatória 183
6.5. Função distribuição 183
6.6. Parâmetro 184
6.7. Característica 184
6.8. População 184
6.9. Freqüência 184
6.10. Expectativa (de uma variável
aleatória ou de uma distribuição de
probabilidade; valor esperado; média 185
6.11. Desvio padrão 185
6.12. Estimativa 185
6.13. Variância 186
6.14. Covariância 187
6.15. Correlação 187
6.16. Independência 188
6.17. Representação gráfica 188
B. NORMAS ISO 9000 191
1. Introdução 191
2. Aspectos Legais 192
3. Histórico 192
4. Normas ISO 193
4.1. ISO 9000 193
4.2. ISO 9001 193
4.3. ISO 9002 193
4.4. ISO 9003 194
4.5. ISO 9004 194
4.6. Outras normas ISO 194
5. Filosofia da Norma 195
5.1. Controle e manutenção do
equipamento 195
5.2. Controle do equipamento de medição
e ensaio 195
5.3. Calibração do equipamento 195
6. Equipamento de Inspeção, Medição e
Teste 196
7. Certificação pela ISO 9000 199
7.1. Projeto 199
7.2. Implementação 202
7.3. Comprovação Metrológica 206
Revisão 2000 da ISO 9000 207
CONCLUSÃO FINAL 208
C. REDE BRASILEIRA DE
CALIBRAÇÃO 209
D. FUNDAMENTOS DA
QUALIDADE 211
Objetivos de Ensino 211
1. História da Qualidade 211
2. Conceito de Qualidade 213
3. Características da Qualidade 214
4. Aspectos da Qualidade 216
5. Gerenciamento da Qualidade Total 217
6. Inspeção e Prevenção 223
7. Medição 223
8. Algumas Filosofias de Qualidade 224
REFERÊNCIAS BIBLIOGRÁFICAS
230
NORMAS 232




1
1
Sistema Internacional (SI)
Objetivos de Ensino
1. Relatar como apareceram as unidades e se desenvolveu o sistema métrico, que se tornou
o Sistema Internacional de Unidades.
2. Apresentar as unidades, símbolos, prefixos e modificadores das quantidades físicas.
3. Recomendar as regras de formatação e escrita correta das quantidades, unidades e
símbolos do Sistema Internacional.
4. Mostrar a conversão de unidades, através da análise dimensional.
5. Conceituar valor exato e aproximado através de algarismos significativos.
6. Mostrar as regras de arredondamento, soma, subtração, multiplicação e divisão de
algarismos significativos.
7. Apresenta o formato da notação científica dos números.
8. Discutir os métodos apropriados para fazer os cálculos e apresentar o resultado de modo
conveniente e entendido para todos os ramos da engenharia.



1. Sistema de Unidades
1.1. Unidades
Unidade é uma quantidade
precisamente estabelecida, em termos da
qual outras quantidades da mesma
natureza podem ser estabelecidas. Para
cada dimensão há uma ou mais
quantidades de referência para descrever
quantitativamente as propriedades físicas
de algum objeto ou material. Por exemplo,
a dimensão de comprimento pode ser
medida em unidades de kilômetro, metro,
centímetro, pé ou a distância entre o nariz
e a ponta do dedo de uma pessoa. A
dimensão do tempo pode ser medida em
unidades segundos, minutos, horas, dias,
meses, anos.
1.2. História
Bíblia
A preocupação de se ter um único
sistema de unidades está na Bíblia, onde
se tem várias passagens, como: ter dois
pesos e duas medidas é abominável para
o Senhor (Provérbios, 20, 10). A Bíblia
também tinha preocupações metrológicas:
Não façais nada contra a equidade, nem
no juízo, nem na regra, nem no peso, nem
na medida. Seja justa a balança e justos os
pesos; seja justo o alqueire e justa a
medida (Levítico, 19, 35-36)
Sistema Internacional

2
Antigüidade
As antigas civilizações já tinham
percebido a necessidade de criação de
unidades para a troca de mercadorias. Os
padrões de peso datam de 7000 A.C. e os
padrões de comprimento datam de 3000
A.C. Os babilônicos e os romanos já
haviam estabelecido padrões e nomes
para unidades. Originalmente, os padrões
e unidades eram escolhidos por
conveniência prática e se baseavam em
medidas do corpo humano. Depois,
verificou-se que era preferível desenvolver
padrões baseados em fenômenos naturais
reprodutíveis em vez de padrões baseados
no corpo humano.
Como existe um grande número de
dimensões, é necessário um sistema de
unidades para se ter medições confiáveis e
reprodutíveis e para uma boa comunicação
entre todos os envolvidos com as
medições. O desenvolvimento tecnológico
em transportes e comunicações e o
aumento do comércio globalizado tem
mostrado a necessidade de uma
linguagem comum de medição, um sistema
capaz de medir qualquer quantidade física
com unidades que tenham definição clara
e precisa e uma relação lógica com as
outras unidades.
Sistema inglês
O sistema inglês, também chamado de
imperial, é usado na Inglaterra, Estados
Unidos e Canadá, mas mesmo nestes
países há muitas diferenças em seus
detalhes. O insuspeito cientista inglês
William Thompson, Barão Kelvin (1824-
1907), dizia que o Sistema Imperial Inglês
de unidades era absurdo, ridículo,
demorado e destruidor de cérebro. De fato,
a maioria das unidades se baseava em
medidas do corpo humano, geralmente do
corpo do rei de plantão. Por exemplo, a
jarda (yard) era a distância do nariz ao
polegar com o braço estendido do rei
inglês Henry I (circa 1100).
O sistema inglês não é coerente e há
vários múltiplos entre a maioria das
unidades. Por exemplo, para o
comprimento tem-se
12 polegadas para um pé
3 pés para uma jarda
1760 jardas para uma milha.
Algumas pessoas tem a idéia errada
que o sistema métrico atual, o SI, seja uma
criação recente e intencional para
confrontar a tecnologia americana. Ele
apareceu antes de os Estados Unidos se
tornarem uma potência tecnológica. A
tecnologia americana pode realmente ser
melhorada pela coerência do SI. Em 1975,
nos Estados Unidos, foi decretado o Ato de
Conversão Métrica, dando à indústria
americana a oportunidade de se mudar
voluntariamente para o sistema SI. Nos
Estados Unidos ainda há uma resistência
para mudar as unidades, principalmente
pelos segmentos da indústria que são
estritamente domésticos e pelo público em
geral. Isto é natural, pois a mudança altera
um modo de vida consagrado e requer
uma reeducação e aprendizado de novos
termos.
Sistema Decimal
A idéia de um sistema decimal de
unidades foi concebida pelo inglês Simon
Stevin (1548-1620). Em 1671, o padre
francês Gabriel Mouton, definiu uma
proposta para um sistema decimal,
baseando-se em medidas da Terra, em
vez de medidas relacionadas com
dimensões humanas.
As unidades decimais foram também
consideradas no primeiros dias da
Academia Francesa de Ciências, fundada
em 1666. O que tornou o sistema métrico
uma realidade foi a aceitação social e
política da Revolução Francesa. Em seu
entusiasmo para romper as tradições
européias existentes, os líderes da
Revolução acreditaram que até o sistema
de medição deveria ser mudado porque o
existente fora criado pela monarquia. Uma
comissão de cientistas franceses foi
formada para estabelecer um novo sistema
de medição baseado em normas absolutas
e constantes encontradas no universo
físico. Tayllerand propôs um sistema
decimal internacional de pesos e medidas
a tous de temps, a tous les peuples.
Embora este trabalho tenha iniciado nesta
época, a finalização da comissão foi muito
demorada e difícil.
Sistema Internacional

3
Sistema CGS
O primeiro sistema métrico oficial,
chamado de centímetro-grama-segundo
(CGS), foi proposto em 1795 e adotado na
França em 1799. Em 1840 o governo
francês, em resposta a uma falta do
entusiasmo público para o uso voluntário
do sistema, tornou obrigatório o sistema
CGC. Outros países do mundo também
adotaram oficialmente o sistema CGS. Em
1866, no início de seu desenvolvimento
tecnológico, os Estados Unidos
promulgaram um ato tornando legal o
sistema métrico.
Em 1873 a Associação Britânica do
Avanço da Ciência recomendou o uso do
sistema CGS e desde então ele foi
aplicado em todas as áreas da ciência. Por
causa do uso crescente do sistema métrico
através da Europa, o governo francês
convidou várias nações para uma
conferência internacional para discutir um
novo protótipo do metro e um número de
padrões idênticos para as nações
participantes.
Em 1875, o Tratado do Metro definiu os
padrões métricos para o comprimento e
peso e estabeleceu procedimentos
permanentes para melhorar e adotar o
sistema métrico. Este tratado foi assinado
por 20 países, inclusive o Brasil.
Foi constituída a organização
internacional Conference Generale des
Poids et Mesures (CGPM), para fornecer
uma base razoável de unidades de
medição precisa e universal. Esta
organização consiste do Comitê
International des Poids et Mesures (CIPM)
que fornece a base técnica e que possui o
laboratório de trabalho Bureau International
des Poids et Mesures (BIPM). A CGPM é
constituída pelos delegados de todos os
estados membros da Convenção do Metro
e se reúne de seis em seis anos para:
1. garantir a propagação e
aperfeiçoamento do SI,
2. sancionar os resultados de novas
determinações metrológicas
fundamentais
3. adotar decisões que se relacionem
com a organização e
desenvolvimento do BIPM.
Sistema MKSA
Depois do Tratado do Metro, tornou-se
necessário definir claramente os
significados e as unidades de massa, peso
e força. Em 1901, a 3
a
CGPM declara que
o kilograma é uma unidade de massa e o
termo peso denota uma quantidade de
força. A decisão de definir o kilograma (e
grama) de um modo diferente do que foi
definido no sistema CGS requer um novo
sistema, MKS, baseado no metro-
kilograma-segundo.
Em 1935, a Comissão Internacional de
Eletrotécnica (IEC) incorpora uma quarta
unidade base de corrente, o ampère. Com
esta adição, o sistema ficou conhecido
como MKSA (ou Giorgi).
1.3. Sistema Internacional (SI)
Em 1960, a 11
a
CGPM deu
formalmente o nome de Systeme
International d'Unites, simbolizado como SI
(Sistema Internacional) e o estabeleceu
como padrão universal de unidades de
medição. SI é um símbolo e não a
abreviatura de Sistema Internacional e por
isso é errado escrever S.I., com pontos.
O SI é um sistema de unidades com as
seguintes características desejáveis:
Coerente
Ser coerente significa que o produto ou
o quociente de quaisquer duas unidades é
a unidade da quantidade resultante. Por
exemplo, o produto da força de 1 N pelo
comprimento de 1 m é 1 J de trabalho.
Decimal,
No sistema decimal, todos os fatores
envolvidos na conversão e criação de
unidades são somente potências de 10. No
SI, as únicas exceções se referem às
unidades de tempo baseadas no
calendário, onde se tem
1 dia 24 horas
1 hora 60 minutos
1 minuto 60 segundos
Sistema Internacional

4
Único,
No sistema, há somente uma unidade
para cada tipo de quantidade física,
independente se ela é mecânica, elétrica,
química, ou termal. Joule é unidade de
energia elétrica, mecânica, calorífica ou
química.
Poucas Unidades de base
As sete unidades de base são
separadas e independentes entre si, por
definição e realização.
Unidades com tamanhos razoáveis,
Os tamanhos das unidades evitam a
complicação do uso de prefixos de
múltiplos e submúltiplos.
Completo
O SI é completo e pode se expandir
indefinidamente, incluindo nomes e
símbolos de unidades de base e derivadas
e prefixos necessários.
Simples e preciso,
O SI é simples, de modo que cientistas,
engenheiros e leigos podem usá-lo e ter
noção das ordens de grandeza envolvidas.
Não possui ambigüidade entre nomes de
grandezas e de unidades.
Não degradável
O SI não se degrade, de modo que as
mesmas unidades são usadas ontem, hoje
e amanhã.
Universal
Os símbolos e nomes de unidades
formam um único conjunto básico de
padrões conhecidos, aceitos e usados no
mundo inteiro.
Conclusão
O SI oferece várias vantagens nas
áreas de comércio, relações internacionais,
ensino e trabalhos acadêmicos e
pesquisas científicas. Atualmente, mais de
90% da população do mundo vive em
países que usam correntemente ou estão
em vias de mudar para o SI. Os Estados
Unidos, Inglaterra, Austrália, Nova
Zelândia, África do Sul adotaram
legalmente o SI. Também o Japão e a
China estão atualizando seus sistemas de
medidas para se conformar com o SI.
A utilização do SI é recomendada pelo
BIPM, ISO, OIML, CEI e por muitas outras
organizações ligadas à normalização,
metrologia e instrumentação.

É uma obrigação de todo técnico
entender, respeitar e usar o SI
corretamente.

1.4. Política IEEE e SI
A política (Policy 9.20) adotada pelo
IEEE (Institute of Electrical and Electronics
Engineers). A política de transição para as
unidades SI começou em 01 JAN 96,
estágio 1, que requer que todas as normas
novas e revisões submetidas para
aprovação devem ter unidades SI.
No estágio 2, a partir de 01 JAN 98, dá-
se preferencia às SI. A política não aprova
a alternativa de se colocar a unidade SI
seguida pela unidade não SI em
parêntesis, pois isto torna mais difícil a
leitura do texto. É recomendável usar notas
de rodapé ou tabelas de conversão.
No estágio 3, para ocorrer após 01 JAN
2000, propõe-se que todas as normas
novas e revistas devem usar
obrigatoriamente unidades SI. AS unidades
não SI só podem aparecer em notas de
rodapé ou em anexos informativos.
Foram notadas três exceções:
1. Tamanhos comerciais, como séries de
bitola de fios AWG
2. Conexões baseadas em polegadas
3. Soquetes e plugs
Quando houver conflitos com normas ou
práticas de indústria existentes, deve haver
uma avaliação individual e aprovado
temporariamente pelo IEEE.
A implementação do plano não requer
que os produtos já existentes, com
parâmetros em unidades não SI, sejam
substituídos por produtos com parâmetros
em unidades SI.


Sistema Internacional

5


Tab. 1.1. Decisões da Conferência Geral de Pesos e Medidas

1
a
CGPM (1889)
Estabeleceu padrões físicos para kilograma e metro (*).
3
a
CGPM (1901)
Diferencia kilograma massa do kilograma forca. Define litro como o volume ocupado por 1 kg de
água com densidade máxima. Estabelece a aceleração normal da gravidade como g = 9,806 65
m/s
2
.
7
a
CGPM (1927)
Define com maiores detalhes o metro físico (*). Define unidades fotométricas de vela nova e
lumen novo (*).
9
a
CGPM (1948)
Define unidade de forca no MKS, joule e watt. Define ampère, volt, ohm, coulomb, farad, henry e
weber. Diferencia o ponto tríplice do ponto de gelo da água (0,01
o
C). Estabelece a unidade de
calor como joule. Escolhe grau Celsius entre grau centígrado, centesimal e Celsius. Padroniza a
grafia dos símbolos de unidades e números.
10
a
CGPM (1954)
Define o ponto tríplice da água como igual a 273,15 K. Define atmosfera normal como 101,325
N/m
2
.
Define seis unidades de base (metro, kilograma, segundo, grau Kelvin*, ampère e candela.
11
a
CGPM (1960)
Estabelece o Sistema Internacional de Unidades, SI. Redefine o metro baseando-se no
comprimento de onda da radiação do Kr-86. Define segundo como 1/31 556 925,974 7 do ano
trópico para 0 janeiro 1900*. Estabelece 1 L = 1,000 028 dm
3
. Introduz as unidades suplementares:
radiano e esterradiano.
12
a
CGPM (1964)
Propõe mudança no segundo. Recomenda uso de unidades SI para volume e abole o litro para
aplicações de alta precisão. Abole curie (Ci) como unidade de atividade dos radionuclídeos.
Acrescenta os prefixos femto (10
-15
) e atto (10
-18
).
13
a
CGPM (1968)
Define segundo como duração de 9 192 631 770 períodos da radiação de
133
Ce*. Muda a
unidade de temperatura termodinâmica de grau kelvin (
o
K) para kelvin (K). Define candela (*).
Aumenta o número de unidades derivadas. Revoga e suprime o micron e vela nova.
14
a
CGPM (1971)
Adota pascal (Pa) como unidade SI de pressão, siemens (S) de condutância elétrica. Define mol
como unidade de quantidade de matéria.
15
a
CGPM (1975)
Recomenda o tempo universal coordenado. Recomenda o valor da velocidade da luz no vácuo
como c = 299 792 458 m/s. Adota becquerel (Bq) para atividade ionizante e gray (Gy) para dose
absorvida. Introduz os prefixos peta (10
15
) e exa (10
18
)
16
a
CGPM (1979)
Redefine candela como intensidade luminosa e revoga vela nova. Adota sievert (Sv) como
unidade SI de equivalente de dose. Aceita os símbolos l e L para litro.
17
a
CGPM (1983)
Redefine o metro em relação à velocidade da luz no vácuo

* - Decisão a ser revista, revogada, modificada ou completada posteriormente.



6
2. Múltiplos e Submúltiplos
Como há unidades muito pequenas e
muito grandes, elas devem ser modificadas
por prefixos fatores de 10. Por exemplo, a
distância entre São Paulo e Rio de Janeiro
expressa em metros é de 4 x 10
9
metros. A
espessura da folha deste livro é cerca de 1
x 10
-7
metros. Para evitar estes números
muito grandes e muito pequenos,
compreensíveis apenas para os cientistas,
usam-se prefixos decimais às unidades SI.
Assim, a distância entre São Paulo e Rio
se torna 400 kilômetros (400 km) e a
espessura da folha de papel, 0,1
milímetros (0,1 mm).
Os prefixos para as unidades SI são
usados para formar múltiplos e
submúltiplos decimais das unidades SI.
Deve-se usar apenas um prefixo de cada
vez. O símbolo do prefixo deve ser
combinado diretamente com o símbolo da
unidade.

Tab. 1.2 - Múltiplos e Submúltiplos
Prefixo Símbolo Fator de 10
yotta Y +24
zetta Z +21
exa E +18
peta P +15
tera T +12
giga G + 9
mega** M +6
kilo** k + 3
hecto* H +2
deca* da +1
deci* d -1
centi* c -2
mili** m -3
micro** µ -6
nano n -9
pico p -12
femto f -15
atto a -18
zepto z -21
yocto y -24

Observações
* Exceto para o uso não técnico de centímetro e em
medidas especiais de área e volume, devem-se evitar estes
prefixos.
** Estes prefixos devem ser os preferidos, por terem
potências múltiplas de 3
3. Estilo e Escrita do SI
3.1. Introdução
O SI é uma linguagem internacional da
medição. O SI é uma versão moderna do
sistema métrico estabelecido por acordo
internacional. Ele fornece um sistema de
referência lógica e interligado para todas
as medições na ciência, indústria e
comércio. Para ser usado sem
ambigüidade por todos os envolvidos, ele
deve ter regras simples e claras de escrita.
Parece que o SI é exageradamente
rigoroso e possui muitas regras
relacionadas com a sintaxe e a escrita dos
símbolos, quantidades e números. Esta
impressão é falsa, após uma análise. Para
realizar o potencial e benefícios do SI, é
essencial evitar a falta de atenção na
escrita e no uso dos símbolos
recomendados.
Os principais pontos que devem ser
lembrados são:
1. O SI usa somente um símbolo para
qualquer unidade e somente uma
unidade é tolerada para qualquer
quantidade, usando-se poucos
nomes.
2. O SI é um sistema universal e os
símbolos são usados exatamente da
mesma forma em todas as línguas,
de modo análogo aos símbolos para
os elementos e compostos químicos.
3. Para o sucesso do SI deve-se evitar
a tentação de introduzir novas
mudanças ou inventar símbolos. Os
símbolos escolhidos foram aceitos
internacionalmente, depois de muita
discussão e pesquisa.
Serão apresentadas aqui as regras
básicas para se escrever as unidades SI,
definindo-se o tipo de letras, pontuação,
separação silábica, agrupamento e seleção
dos prefixos, uso de espaços, vírgulas,
pontos ou hífen em símbolos compostos.
Somente respeitando-se estes princípios
se garante o sucesso do SI e se obtém um
conjunto eficiente e simples de unidades.
No Brasil, estas recomendações estão
contidas na Resolução 12 (1988) do
Conselho Nacional de Metrologia,
Normalização e Qualidade Industrial.
Sistema Internacional

7
3.2. Maiúsculas ou Minúsculas
Nomes de Unidades
Os nomes das unidades SI, incluindo os
prefixos, devem ser em letras minúsculas
quando escritos por extenso, exceto
quando no início da frase. Os nomes das
unidades com nomes de gente devem ser
tratados como nomes comuns e também
escritos em letra minúscula. Quando o
nome da unidade fizer parte de um título,
escrever o nome das unidades SI do
mesmo formato que o resto do título.
Exemplos:
A corrente é de um ampère.
A freqüência é de 60 hertz.
A pressão é de 15,2 kilopascals.
Temperatura
No termo grau Celsius, grau é
considerado o nome da unidade e Celsius
é o modificador da unidade. O grau é
sempre escrito em letra minúscula, mas
Celsius em maiúscula. O nome de unidade
de temperatura no SI é o kelvin, escrito em
letra minúscula. Mas quando se refere à
escala, escreve-se escala Kelvin. Antes de
1967, se falava grau Kelvin, hoje, o correto
é kelvin. Exemplos:
A temperatura da sala é de 25 graus
Celsius.
A temperatura do objeto é de 303 kelvin.
A escala Kelvin é defasada da Celsius
de 273,15 graus
Símbolos
Símbolo é a forma curta dos nomes das
unidades SI e dos prefixos. É incorreto
chamá-lo de abreviação ou acróstico. O
símbolo é invariável, não tendo plural,
modificador, índice ou ponto.
Deve-se manter a diferença clara entre
os símbolos das grandezas, das unidades
e dos prefixos. Os símbolos das grandezas
fundamentais são em letra maiúscula. Os
símbolos das unidades e dos prefixos
podem ser de letras maiúsculas e
minúsculas. A importância do uso preciso
de letras minúsculas e maiúsculas é
mostrada nos seguintes exemplos:
G para giga; g para grama
K para kelvin, k para kilo
N para newton; n para nano
T para tera; t para tonelada e T para a
grandeza tempo.
S para siemens, s para segundo
M para mega e M para a grandeza
massa
P para peta e Pa para pascal e p para
pico
L para a grandeza comprimento e L
para a unidade litro.
m para mili e m para metro
H para henry e Hz para hertz
W para watt e Wb para weber
Os símbolos são preferidos quando as
unidades são usadas com números, como
nos valores de medições. Não se deve
misturar ou combinar partes escritas por
extenso com partes expressas por
símbolo.
Letra romana para símbolos
Quase todos os símbolos SI são
escritos em letras romanas. As duas
únicas exceções são as letras gregas µ (mi
) para micro (10
-6
) e Ω (ômega) para ohm,
unidade de resistência.
Nomes dos símbolos em letra
minúscula
Símbolos de unidades com nomes de
pessoas tem a primeira letra maiúscula. Os
outros símbolos são escritos com letras
minúsculas, exceto o símbolo do litro que
pode ser escrito também com letra
maiúscula (L), para não ser confundido
com o número 1. Exemplos:
A corrente é de 5 A.
O comprimento da corda é de 6,0 m.
O volume é de 2 L.
Símbolos com duas letras
Há símbolos com duas letras, onde
somente a primeira letra deve ser escrita
como maiúscula e a segunda deve ser
minúscula. Exemplos:
Hz é símbolo de hertz, H é símbolo de
henry.
Wb é símbolo de weber, W é símbolo de
watt.
Pa é símbolo de pascal, P é prefixo peta
(10
15
)
Uso do símbolo e do nome
Deve-se usar os símbolos somente
quando escrevendo o valor da medição ou
quando o nome da unidade é muito
complexo. Nos outros casos, usar o nome
da unidade. Não misturar símbolos e
nomes de unidades por extenso.
Sistema Internacional

8
Exemplo correto: O comprimento foi
medido em metros; a medida foi de 6,1 m.
Exemplo incorreto: O comprimento foi
medido em m; a medida foi de 6,1 metros.
Símbolos em títulos
Os símbolos de unidades não devem
ser usados em letra maiúscula, como em
título. Quando for necessário, deve-se usar
o nome da unidade por extenso, em vez de
seu símbolo.
Correto: ENCONTRADO PEIXE DE 200
KILOGRAMAS
Incorreto: ENCONTRADO PEIXE DE
200 KG
Símbolo e início de frase
Não se deve começar uma frase com
um símbolo, pois é impossível conciliar a
regra de se começar uma frase com
maiúscula e de escrever o símbolo em
minúscula.
Exemplo correto: Grama é a unidade
comum de pequenas massas.
Exemplo incorreto: g é a unidade de
pequenas massas.
Prefixos
Todos os nomes de prefixos de
unidades SI são em letras minúsculas
quando escritos por extenso em uma
sentença. A primeira letra do prefixo é
escrita em maiúscula apenas quando no
início de uma frase ou parte de um título.
No caso das unidades de massa,
excepcionalmente o prefixo é aplicado à
grama e não ao kilograma, que já possui o
prefixo kilo. Assim, se tem miligrama (mg)
e não microkilograma (µkg); a tonelada
corresponde a megagrama (Mg) e não a
kilokilograma (kkg).
Aplica-se somente um prefixo ao nome
da unidade. O prefixo e a unidade são
escritos juntos, sem espaço ou hífen entre
eles.
Os prefixos são invariáveis.
Exemplo correto: O comprimento é de
110 km
Exemplos incorretos:
O comprimento da estrada é de 110km.
O comprimento da estrada é de 110 kms.
O comprimento da estrada é de 110-km.
O comprimento da estrada é de 110 k m.
O comprimento da estrada é de 110 Km.
3.3. Pontuação
Ponto
Não se usa o ponto depois do símbolo
das unidades, exceto no fim da sentença.
Pode-se usar um ponto ou hífen para
indicar o produto de dois símbolos, porém,
não se usa o ponto para indicar o produto
de dois nomes.
Exemplos corretos (incorretos):
O cabo de 10 m tinha massa de 20 kg.
(O cabo de 10 m. tinha massa de 20 kg..)
A unidade de momentum é newton metro
(A unidade de momentum é newton.metro)
A unidade de momentum é o produto N.m
A unidade de momentum é o produto N-m
Marcador decimal
No Brasil, usa-se a vírgula como um
marcador decimal e o ponto como
separador de grupos de 3 algarismos, em
condições onde não se quer deixar a
possibilidade de preenchimento indevido.
Quando o número é menor que um,
escreve-se um zero antes da vírgula. Nos
Estados Unidos, usa-se o ponto como
marcador decimal e a virgula como
separador de algarismos.
Exemplo (Brasil)
A expressão meio metro se escreve
0,5 m.
O valor do cheque é de R$2.345.367,00

Exemplo (Estados Unidos)
A expressão meio metro se escreve:
0.5 m.
O valor do cheque é de
US$2,345,367.00

Sistema Internacional

9
3.4. Plural
Nomes das unidades com plural
Quando escrito por extenso, o nome da
unidade métrica admite plural,
adicionando-se um s, for
1. palavra simples. Por exemplo:
ampères, candelas, joules, kelvins,
kilogramas, volts.
2. palavra composta em que o elemento
complementar do nome não é ligado
por hífen. Por exemplo: metros
quadrados, metros cúbicos, unidades
astronômicas, milhas marítimas.
3. termo composto por multiplicação,
em que os componentes são
independentes entre si. Por exemplo:
ampères-horas, newtons-metros,
watts-horas, pascals-segundos.
Valores entre +1 e -1 são sempre
singulares. O nome de uma unidade só
passa ao plural a partir de dois (inclusive).
A medição do valor zero fornece um
ponto de descontinuidade no que as
pessoas escrevem e dizem. Deve-se usar
a forma singular da unidade para o valor
zero. Por exemplo, 0
o
C e 0 V são
reconhecidamente singulares, porém, são
lidos como plurais, ou seja, zero graus
Celsius e zero volts. O correto é zero grau
Celsius e zero volt.
Exemplos:
1 metro 23 metros
0,1 kilograma 1,5 kilograma
34 kilogramas 1 hertz
60 hertz 1,99 joule
8 x 10
-4
metro 4,8 metros por
segundo
Nomes das unidades sem plural
Certos nomes de unidades SI não
possuem plural por terminarem com s, x ou
z. Exemplos: lux, hertz e siemens.
Certas partes dos nomes de unidades
compostas não se modificam no plural por:
1. corresponderem ao denominador de
unidades obtidas por divisão. Por
exemplo, kilômetros por hora, lumens
por watt, watts por esterradiano.
2. serem elementos complementares de
nomes de unidades e ligados a eles
por hífen ou preposição. Por
exemplo, anos-luz, elétron-volts,
kilogramas-força.
Símbolos
Os símbolos das unidades SI não tem
plural. Exemplos:
2,6 m 1 m
0,8 m -30
o
C
0
o
C 100
o
C
3.5. Agrupamento dos Dígitos
Numerais
Todos os números são constituídos de
dígitos individuais, entre 0 e 9. Os números
são separados em grupos de três dígitos,
em cada lado do marcador decimal
(vírgula).
Não se deve usar vírgula ou ponto para
separar os grupos de três dígitos.
Deve-se deixar um espaço entre os
grupos em vez do ponto ou vírgula, para
evitar a confusão com os diferentes países
onde o ponto ou vírgula é usado como
marcador decimal.
Não deixar espaço entre os dígitos e o
marcador decimal. Um número deve ser
tratado do mesmo modo em ambos os
lados do marcador decimal.

Exemplos:
Correto Incorreto
23 567 23.567
567 890 098 567.890.098
34,567 891 34,567.891
345 678,236 89 345.678,236.89
345 678,236 89 345 678,23 689

Números de quatro dígitos
Os números de quatro dígitos são
considerados de modo especial e diferente
dos outros. No texto, todos os números
com quatro ou menos dígitos antes ou
depois da vírgula podem ser escritos sem
espaço.
Exemplos:
1239 1993
1,2349 2345,09
1234,5678 1 234,567 8
Sistema Internacional

10
Tabelas
As tabelas devem ser preenchidas com
números puros ou adimensionais. As suas
respectivas unidades devem ser colocadas
no cabeçalho das tabelas. Ver Tab.1.3.


Tab.1.3. Variação da temperatura e volume
específico com a pressão para a água pura
Pressão,
P
kPa
Temperatura, T
K
Volume, V
m
3
/kg
50,0 354,35 3,240 1
60,0 358,95 2,731 7
70,0 362,96 2,364 7
80,0 366,51 2,086 9


Normalmente, em tabelas ou listagens,
todos os números usam agrupamentos de
três dígitos e espaços. Adotando este
formato, se diminui a probabilidade de
erros.
Assim, a primeira linha da tabela
significa
Pressão P = 50,0 kPa
Temperatura T = 354,35 K
Volume específico V = 3,240 m
3
/kg
Gráficos
Os números colocados nos eixos do
gráficos (abcissa e ordenada) são puros ou
adimensionais. As unidades e símbolos
das quantidades correspondentes são
colocadas nos eixos, uma única vez.
O gráfico da tabela anterior fica assim














Fig. 1.1. Variação da temperatura e volume com
a pressão
Números especiais
Há certos números que possuem regras
de agrupamento especificas. Números
envolvendo números de peça, documento,
telefone e dinheiro, que não devem ser
alterados, devem ser escritos na forma
original. Vírgulas, espaços, barras,
parêntesis e outros símbolos aplicáveis
podem ser usados para preencher os
espaços e evitar fraudes.
Exemplos:
R$ 21.621,90 dinheiro (real)
16HHC-656/9978 número de peça
610.569.958-15 CPF
(071) 359-3195 telefone
3.6. Espaçamentos
Múltiplos e submúltiplos
Não se usa espaço ou hífen entre o
prefixo e o nome da unidade ou entre o
prefixo e o símbolo da unidade. Por
exemplo,
kiloampère, kA
milivolt, mV
megawatt, MW
Valor da medição da unidade
A medição é expressa por um valor
numérico, uma unidade, sua incerteza e os
limites de probabilidade. O valor é
expresso por um número e a unidade pode
ser escrita pelo nome ou pelo símbolo.
Deve-se deixar um espaço entre o número
e o símbolo ou nome da unidade. Os
símbolos de grau, minuto e segundo são
escritos sem espaço entre os números e
os símbolos. Exemplos:
670 kHz 670 kilohertz
20 mm 10 N
36’

36
o
C
Modificador da unidade
Quando uma quantidade é usada como
adjetivo, pode-se usar um hífen entre o
valor numérico e o símbolo ou nome. Não
se deve usar hífen com o símbolo de
ângulo (
o
) ou grau Celsius (
o
C). Exemplos:
Pacote de 5-kg.
Filme de 35-mm.
Temperatura de 36
o
C
Sistema Internacional

11
Produtos, quocientes e por
Deve-se evitar confusão, principalmente
em números e unidades compostos
envolvendo produto (.) e divisão (/) e por .
O bom senso e a clareza devem
prevalecer no uso de hífens nos
modificadores.
Símbolos algébricos
Deve-se deixar um espaço de cada lado
dos sinais de multiplicação, divisão, soma
e subtração e igualdade. Isto não se aplica
aos símbolos compostos que usam os
sinais travessão (/) e ponto (.).
Não se deve usar nomes de unidades
por extenso em equações algébricas e
aritméticas; usam-se os símbolos.
Exemplos:
4 km + 2 km = 6 km
6N x 8 m = 48 N.m
26 N : 3 m
2
= 8,67 Pa
100 W : (10 m x 2 K) = 5 W/(m.K)
10 kg/m
3
x 0,7 m
3
= 7 kg
15 kW.h
3.7. Índices
Símbolos
São usados índices numéricos (
2
e
3
)
para indicar quadrados e cúbicos. Não se
deve usar abreviações como qu., cu, c.
Quando se escrevem símbolos para
unidades métricas com expoentes, como
metro quadrado, centímetro cúbico, um por
segundo, escrever o índice imediatamente
após o símbolo.
Exemplos:
10 metros quadrados = 10 m
2

14 centímetros cúbicos = 14 cm
3

1 por segundo = s
-1

Nomes de unidades
Quando se escrevem unidades
compostas, aparecem certos fatores com
quadrado e cúbico. Quando aplicável,
deve-se usar parêntesis ou símbolos
exclusivos para evitar ambigüidade e
confusão.
Por exemplo, para kilograma metro
quadrado por segundo quadrado, o
símbolo correto é kg.m
2
/s
2
. Seria incorreto
interpretar como (kg.m)
2
/s
2
ou (kg.m
2
/s)
2

3.8. Unidades Compostas
As unidades compostas são derivadas
como quocientes ou produtos de outras
unidades SI.
As regras a serem seguidas são as
seguintes:
1. Não se deve misturar nomes
extensos e símbolos de unidades.
Não usar o travessão (/) como
substituto de por, quando escrevendo
os nomes por extenso. Por exemplo,
o correto é kilômetro por hora ou
km/h. Não usar kilômetro/hora ou km
por hora.
2. Deve-se usar somente um por em
qualquer combinação de nomes de
unidades métricas. A palavra por
denota a divisão matemática. Não se
usa por para significar por unidade
ou por cada (além do cacófato). Por
exemplo, a medição de corrente de
vazamento, dada em microampères
por 1 kilovolt da voltagem entre
fases, deveria ser escrita em
microampères por cada kilovolt da
voltagem entre fases. No SI, 1 mA/kV
é igual a 1 nanosiemens (nS). Outro
exemplo, usa-se metro por segundo
quadrado e não metro por segundo
por segundo.
3. os prefixos podem coexistir num
símbolo composto por multiplicação
ou divisão. Por exemplo, kN.cm,
kΩ.mA, kV/mm, MΩ, kV/ms,
mW/cm
2
.
4. os símbolos de mesma unidade
podem coexistir em um símbolo
composto por divisão. Por exemplo,
kWh/h, Ω.mm
2
/m.
5. Não se misturam unidades SI e não-
SI. Por exemplo, usar kg/m
3
e não
kg/ft
3
.
6. Para eliminar o problema de qual
unidade e múltiplo deve-se expressar
uma quantidade de relação como
percentagem, fração decimal ou
relação de escala. Como exemplos, a
inclinação de 10 m por 100 m pode
ser expressa como 10%, 0.10 ou
1:10 e a tensão mecânica de 100
µm/m pode ser convertida para 0,01
%.
7. Deve-se usar somente símbolos
aceitos das unidades SI. Por
Sistema Internacional

12
exemplo, o símbolo correto para
kilômetro por hora é km/h. Não usar
k.p.h., kph ou KPH.
8. Não se usa mais de uma barra (/) em
qualquer combinação de símbolos, a
não ser que haja parêntesis
separando as barras. Como
exemplos, escrever m/s
2
e não
m/s/s; escrever W/(m.K) ou (W/m)/K
e não (W/m/K.
9. Para a maioria dos nomes derivados
como um produto, na escrita do
nome por extenso, usa-se um espaço
ou um hífen para indicar a relação,
mas nunca se usa um ponto (.).
Algumas unidades compostas podem
ser escritas como uma única palavra,
sem espaço ou hífen. Por exemplo, a
unidade de momento pode ser
escrita como newton metro ou
newton-metro e nunca newton.metro.
Também, é correto escrever watt
hora, watt-hora ou watthora, mas é
incorreto watt.hora.
10. Para símbolos derivados de
produtos, usa-se um ponto (.) entre
cada símbolo individual. Não usar o
ponto (.) como símbolo de
multiplicação em equações e
cálculos. Exemplos:
N.m (newton metro)
Pa.s (pascal segundo)
kW.h ou kWh (kilowatthora)
Use 7,6 x 6,1 cosa e não
7,6.6,1.cosa
11.
Deve-se ter cuidado para escrever
unidades compostas envolvendo
potências. Os modificadores
quadrado e cúbico devem ser
colocados após o nome da unidade a
qual eles se aplicam. Para potências
maiores que três, usar somente
símbolos. Deve-se usar símbolos
sempre que a expressão envolvida
for complexa.

Por exemplo, kg/m
2 ,
N/m
2

12. Para representações complicadas
com símbolos, usar parêntesis para
simplificar e esclarecer. Por exemplo,
m.kg/(s
3
.A)
3.9. Uso de Prefixo
1. Deve-se usar os prefixos com 10
elevado a potência múltipla de 3
(10
-3
, 10
-6
, 10
3
, 10
6
). Deve-se usar a
notação científica para simplificar os
casos de tabelas ou equações com
valores numéricos com vários dígitos
antes do marcador decimal e para
eliminar a ambigüidade da
quantidade de dígitos significativos.
Por exemplo, usam-se:
mm (milímetro) para desenhos.
kPa (kilopascal) para pressão
kg/m
3
(kilograma por metro cúbico)
para densidade absoluta.
2. Quando conveniente escolhem-se
prefixos resultando em valores
numéricos entre 0,1 e 1000, porém,
sem violar as recomendações
anteriores.
3. Em cálculos técnicos deve-se tomar
muito cuidado com os valores
numéricos dos dados usados. Para
evitar erros nos cálculos, os prefixos
devem ser convertidos em potências
de 10 (exceto o kilograma, que é
uma unidade básica da massa).
Exemplos:
5 MJ = 5 x 10
6
J
4 Mg = 4 x 10
3
kg
3 Mm = 3 x 10
6
m
4. Devem ser evitados prefixos no
denominador (exceto kg). Exemplos:
Escrever kJ/s e não J/ms
Escrever kJ/kg e não J/g
Escrever MJ/kg e não kJ/g
5. Não se misturam de prefixos, a não
ser que a diferença em tamanho seja
extrema ou uma norma técnica o
requeira. Exemplos:
Correto: A ferramenta tem 44 mm
de largura e 1500 mm de
comprimento.
Incorreto: A ferramenta tem 44 mm
de largura e 1,5 m de comprimento.
6. Não se usam unidades múltiplas ou
prefixos múltiplos. Por exemplo, Usa-
se 15,26 m e não 15 m 260 mm; usa-
se miligrama (mg) e não
microkilograma (µkg)
7. Não usar um prefixo sem a unidade.
Usar kilograma e não kilo
Usar megohm e não megs
Sistema Internacional

13
3.10. Ângulo e Temperatura
1. Os símbolos de grau (
o
) e grau
Celsius (
o
C) devem ser usados
quando se escreve uma medição.
Quando se descreve a escala de
medição e não uma medição, deve-
se usar o nome por
extenso.Exemplos:
Os ângulos devem ser medidos em
graus e não em radianos.
O ângulo de inclinação é 27
o
.
2. Não se deve deixar espaço entre
o
e
C, devendo se escrever
o
C e não
o

C.
3. A maioria das temperaturas é dada
na escala Celsius; a escala Kelvin é
usada somente em aplicações
científicas. Exemplo:
A temperatura normal do corpo
humano é 36
o
C.
4. Quando se tem uma série de valores
de temperatura ou uma faixa de
temperatura, usar o símbolo de
medição somente após o último
valor. Exemplos:
A temperatura em Salvador varia de
18 a 39
o
C.
As leituras do termômetro são: 100,
150 e 200
o
C.
5. É tecnicamente correto usar prefixos
SI com os nomes e símbolos, como
grau Celsius (
o
C), kelvin (K) e grau
angular (
o
). Porém, é preferível evitar
esta prática, pois os nomes
resultantes são confusos e difíceis de
serem reconhecidos. É preferível
ajustar o coeficiente numérico para
não usar o prefixo.
6. Um método simples para comparar
altas temperaturas Celsius com
temperaturas Fahrenheit é que o
valor Celsius é aproximadamente a
metade da temperatura Fahrenheit.
O erro percentual nesta aproximação
é relativamente pequeno para
valores Fahrenheit acima de 250.
Para valores menores, subtrair 30
antes de dividir por 2; isto fornece
uma precisão razoável até valores
Fahrenheit de -40.
3.11. Modificadores de Símbolos
As principais recomendações
relacionadas com os modificadores de
símbolos são:
1. Não se pode usar modificadores dos
símbolos SI. Quando é necessário o
uso de modificadores das unidades,
ele deve ser separado do símbolo ou
então escrito por extenso. Por
exemplo, não se usam Acc ou Aca,
para diferenciar a corrente contínua
da alternada. O correto é escrever 10
A cc ou 10 A ca, com o modificador
separado do símbolo. Como o
modificador não é SI, pode ser
escrito de modo arbitrário, como cc.,
c.c., dc ou corrente contínua.
2. Nas unidades inglesas, é comum
usar sufixos ou modificadores nos
símbolos e abreviações para dar uma
informação adicional. Por exemplo,
usam-se psia e psig para indicar
respectivamente, pressão absoluta e
manométrica. Psia significa pound
square inch absolute e psig significa
pound square inch gauge. No
sistema SI, é incorreto colocar
sufixos para identificar a medição.
Exemplos:
Usar pressão manométrica de 13
kPa ou 13 kPa (manométrica) e
não 13 kPaG ou 13 kPag.
Usar pressão absoluta de 13 kPa ou
13 kPa (absoluta) e não 13 kPaA
ou
13 kPaa.
3. Sempre deixar espaço após o
símbolo da unidade SI e qualquer
informação adicional. Exemplo:
Usar 110 V c.a. ou 110 V (ca) e não
110 V CA ou 110 V ca, para
voltagem de corrente alternada.
4. A potência e a energia são medidas
em uma unidade SI determinada e
não há necessidade de identificar a
fonte da quantidade, desde que 100
watts é igual a 100 watts,
independente da potência ser
elétrica, mecânica ou térmica.
Exemplos:
Usar MW e não MWe (potência
elétrica ou megawatt elétrico).
Usar kJ e não kJt (kilojoule termal).
Sistema Internacional

14
4. Algarismos Significativos
4.1. Introdução
O mundo da Metrologia é quantitativo e
depende de números, dados e cálculos.
Atualmente, os cálculos são feitos com
calculadoras eletrônicas e computadores,
que executam desde operações simples de
aritmética até operações que um
engenheiro nunca seria capaz de fazer
manualmente. Os microcomputadores se
tornam uma parte dominante da
tecnologia, não apenas para os
engenheiros mas para toda sociedade. As
calculadoras e computadores podem
apresentar os resultados com muitos
algarismos, porém o resultado final deve
ter o número de algarismos significativos
de acordo com os dados envolvidos.
Quando se executam cálculos de
engenharia e apresentam-se os dados,
deve-se ter em mente que os números
sendo usados tem somente um valor
limitado de precisão e exatidão. Quando se
apresenta o resultado de um cálculo de
engenharia, geralmente se copiam 8 ou
mais dígitos do display de uma
calculadora. Fazendo isso, deduz-se que o
resultado é exato até 8 dígitos, um tipo de
exatidão que é raramente possível na
prática da engenharia. O número de dígitos
que podem ser apresentados é usualmente
muito menos que 8, por que ele depende
de problemas particulares e envolve outros
conceitos de algarismos significativos,
precisão, tolerância, resolução e
conversão.
4.2. Conceito
Dígito é qualquer um dos numerais
arábicos 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9.
Algarismo ou dígito significativo em um
número é o dígito que pode ser
considerado confiável como um resultado
de medições ou cálculos. O algarismo
significativo correto expressa o resultado
de uma medição de forma consistente com
a precisão medida. O número de
algarismos significativos em um resultado
indica o número de dígitos que pode ser
usado com confiança. Os algarismos
significativos são todos aqueles
necessários na notação científica.
Qualquer dígito, entre 1 e 9 e todo zero
que não anteceda o primeiro dígito não
zero e alguns que não sucedam o último
dígito não zero é um algarismo
significativo. O status do zero é ambíguo,
por que o zero também é usado para
indicar a magnitude do número.
Por exemplo, não há dificuldade em
determinar a quantidade de algarismos
significativos dos seguintes números:
708 3 algarismos significativos
54,9 3 algarismos significativos
3,6 2 algarismos significativos
8,04 3 algarismos significativos
980,9 4 algarismos significativos
0,830 06 5 algarismos significativos
Em um número, o dígito menos
significativo é o mais à direita, dígito mais
significativo é o mais à esquerda. Por
exemplo, no número 2345, 2 é o dígito
mais significativo e 5 é o menos
significativo.
Para qualquer número associado à
medição de uma grandeza, os algarismos
significativos devem indicar a qualidade da
medição ou computação sendo
apresentada. Os dados de engenharia e os
resultados de sua computação devem ser
apresentados com um número correto de
algarismos significativos, para evitar de dar
uma impressão errada de sua exatidão. A
quantidade de algarismos significativos
está associado à precisão, exatidão e ao
método de obtenção destes dados e
resultados.
4.3. Algarismo Significativo e o Zero
O zero nem sempre é algarismo
significativo, quando incluído em um
número, pois ele pode ser usado como
parte significativa da medição ou pode ser
usado somente para posicionar o ponto
decimal.
Por exemplo, no número 804,301 os
dois zeros são significativos pois estão
intercalados entre outros dígitos.
Porém, no número 0,0007, os zeros são
necessários para posicionar a vírgula e dar
a ordem de grandeza do número e por isso
pode ser ou não significativo. Porém, se o
número 0,0007 for a indicação de um
instrumento digital, ele possui quatro
algarismos significativos.
Também no número 20 000 os zeros
são necessários para dar a ordem de
Sistema Internacional

15
grandeza do número e por isso nada se
pode dizer acerca de ser ou não ser
significativo. Assim o status do zero nos
números 20 000 e 0,007 é ambíguo e mais
informação é necessária para dizer se o
zero é significativo ou não. Quando não há
informação adicional, se diz que 0,0007 e
20 000 possuem apenas 1 algarismo
significativo.
No número 2,700, os zeros não são
necessários para definir a magnitude deste
número mas são usados propositadamente
para indicar que são significativos e por
isso 2,700 possui quatro dígitos
significativos..
4.4. Notação científica
Para eliminar ou diminuir as
ambigüidades associadas à posição do
zero, o número deve ser escrito na notação
científica, com um número entre 1 e 10
seguido pela potência de 10 conveniente.
Usar a quantidade de algarismos
significativos válidos no número entre 1 e
10, cortando os zeros no fim dos inteiros
quando não forem significativos ou
mantendo os zeros no fim dos inteiros,
quando forem significativos. Deste modo,
se o número 20 000 for escrito na notação
científica como 2,000 0 x 10
3
, ele terá 5
dígitos significativos. De modo análogo,

20 000 = 2 x 10
3
1 dígito significativo
20 000 = 2,0 x 10
3
2 dígitos significativos
20 000 = 2,00 x 10
3
3 dígitos significativos
20 000 = 2,000 x10
3
4 dígitos significativos

A ambigüidade do zero em números
decimais também desaparece, quando se
escreve os números na notação científica.
Os zeros à direita, em números decimais
só devem ser escritos quando forem
garantidamente significativos. Por
exemplo, 0,567 000 possui 6 algarismos
significativos, pois se os três zeros foram
escritos é porque eles são significativos.
Assim, o número decimal 0,007 pode
ser escrito de diferentes modos, para
expressar diferentes dígitos significativos:

7 x 10
-3
1 dígito significativo
7,0 x 10
-3
2 dígitos significativos
7,000 x 10
-3
4 dígitos significativos
7,000 00 x 10
-3
6 dígitos significativos

A notação científica serve também para
se escrever os números extremos (muito
grandes ou muito pequenos) de uma forma
mais conveniente Por exemplo, seja a
multiplicação dos números:
1 230 000 000 x 0,000 000 000 051 = 0,063

É mais conveniente usar a notação
científica:

(1,23 x 10
9
) x (5,1 x 10
-11
) = 6,3 x 10
-2


Na multiplicação acima, o resultado final
é arredondado para dois algarismos
significativos, que é o menor número de
algarismos das parcelas usadas no
cálculo.
A multiplicação dos números com
potência de 10 é feita somando-se
algebricamente os expoentes.
Na notação científica, os números são
escritos em uma forma padrão, como o
produto de um número entre 1 e 10 e uma
potência conveniente de 10.
Por exemplo, os números acima podem
ser escritos como:

10 000 000 = 1,00 x 10
7
(3 dígitos significativos)
0,000 000 12 = 1,2 x 10
-7
(2 dígitos
significativos).

Pode-se visualizar o expoente de 10 da
notação científica como um deslocador do
ponto decimal. Por exemplo, o expoente +7
significa mover o ponto decimal sete casas
para a direita; o expoente -7 significa
mover o ponto decimal sete casas para a
esquerda.
Para fazer manualmente os cálculos de
números escritos na notação científica, as
vezes, é conveniente colocá-los em forma
não convencional com o objetivo de fazer
contas de somar ou subtrair. Estas formas
são obtidas simplesmente ajustando
simultaneamente a posição do ponto
decimal e os expoentes, a fim de se obter
os mesmos expoentes de 10. Nesta
operação, perde-se o conceito de
algarismos significativos.
Por exemplo:

1,2 x 10
-4
+ 4,1 x 10
-5
+ 0,3 x 10
-3
=

1,2 x 10
-4
+ 0,41 x 10
-4
+ 3,0 x 10
-4
=

(1,2 + 0,41 + 3,0) x 10
-4
= 4,6 x 10
-4

Sistema Internacional

16


Deve-se evitar escrever expressões
como
M = 1800 g, a não ser que se tenha o erro
absoluto máximo de 1 g. Rigorosamente,
1800 g significa (1800 ±1) g.
Quando não se tem esta precisão e
quando há suspeita do segundo dígito
decimal ser incorreto, deve-se escrever

M = (1,8 ± 0,1) x 10
3
g

Se o quarto dígito decimal é o duvidoso,
então, o correto é escrever

M = (1,800 ± 0,001) x 10
3
g

4.5. Algarismo Significativo e a
Medição
Todos os números associados à
medição de uma grandeza física devem ter
os algarismos significativos
correspondentes à precisão do instrumento
de medição. Observar as três indicações
analógicas apresentadas na Fig.2.
O voltímetro analógico (a) indica uma
voltagem de 1,45 V. O último algarismo, 5,
é duvidoso e foi arbitrariamente escolhido.
Alguém poderia ler 1,49 e a leitura estaria
igualmente correta. Os algarismos
confiáveis são apenas o 1 e o 4; o último é
estimado e duvidoso. O voltímetro com
uma escala com esta graduação pode dar,
no máximo, três algarismos significativos.
É errado dizer que a indicação é de 1,450
ou 1,4500, pois está se superestimando a
precisão do instrumento. Do mesmo modo,
é impreciso dizer que a indicação é de 1,4
pois é agora está se subestimando a
precisão do indicador e não usando toda
sua capacidade. Na medição 1,45, o dígito
4 é garantido e no número 1,4 o dígito 4 é
duvidoso. Para que o dígito 4 seja
garantido é necessário que haja qualquer
outro algarismo duvidoso depois dele.



Fig. 1.2 - Várias escalas de indicação


Na Fig. 2 (b) tem-se a medição de uma
espessura por uma escala graduada. É
possível se ler 0,26, pois a espessura cai
exatamente no terceiro traço depois de 0,2
e a medição possui apenas dois
algarismos significativos. Se pudesse
perceber o ponteiro entre o terceiro e o
quarto traço, a medição poderia ser 0,265
e a medição teria três algarismos
significativos.
Na Fig. 2(c), a indicação é 48,6 ou 48,5
ou qualquer outro dígito extrapolado entre
0 e 9.
As medições da Fig. 2(a) e 1(c)
possuem três algarismos significativos e o
terceiro dígito de cada medição é
duvidoso. A medição da Fig. 2(b) possui
apenas dois algarismos significativos. Para
se ter medições mais precisas, com um
maior número de algarismos significativos,
deve-se ter novo medidor com uma escala
maior e com maior número de divisões.
Na Fig. 3, tem-se duas escalas de
mesmo comprimento, porém, a segunda
escala possui maior número de divisões.
Para medir o mesmo comprimento, a
primeira escala indicará 6,2 onde o dígito 2
é o duvidoso, pois é escolhido
Sistema Internacional

17
arbitrariamente, pois está entre 6 e 7,
muito próximo de 6. A leitura de 6,3 estaria
igualmente correta. A leitura da segunda
escala será 6,20 pois a leitura cai entre as
divisões 2 e 3, também muito próximo de
2. Também poderia ser lido 6,21 ou 6,22,
que seria igualmente aceitável.




Fig. 1.3. Escalas de mesmo tamanho mas com
diferentes divisões entre os dígitos.


Em paquímetros e micrômetros,
medidores de pequenas dimensões, é
clássico se usar a escala vernier, para
melhorar a precisão da medida. A escala
vernier é uma segunda escala que se
move em relação à principal. A segunda
escala é dividida em unidades um pouco
menores que as unidades da principal. Por
exemplo, observar a escala da Fig. 3, que
possui duas partes: a unidade principal e a
unidade decimal são lidas na escala
superior e a unidade centesimal é lida na
escala inferior. Para fazer a medição da
distância X, primeiro se lê as unidades à
esquerda da linha de indicação da régua,
que são 4,4. Depois a leitura continua no
centésimo, que é a linha da escala inferior
que se alinha perfeitamente com a linha da
escala principal. Neste exemplo, elas se
alinham na 6a linha, de modo que elas
indicam 0,06 e a medição final de X é 4,46.
Na expressão da medição, o valor é
sempre aproximado e deve ser escrito de
modo que todos os dígitos decimais,
exceto o último, sejam exatos. O erro
admissível para o último dígito decimal não
deve exceder a 1.
Por exemplo, uma resistência elétrica
de 1,35 Ω é diferente de uma resistência
de 1,3500 Ω. Com a resistência elétrica de
R = 1,35 Ω, tem-se erro de ±0,01 Ω, ou
seja, 1,34 Ω < R < 1,36 Ω.
Para a outra resistência de R = 1,3500
Ω a precisão é de 0,0001 Ω, ou seja,
1,3499 Ω < R < 1,3501 Ω
Se o resultado de um cálculo é R =
1,358 Ω e o terceiro dígito depois da
vírgula decimal é incorreto, deve-se
escrever R = 1,36 Ω.










A distância X é determinada onde o comprimento toca
a escala superior (4,4) mais o número da unidade na
escala inferior que se alinha com a linha da escala principal
(a 6a linha) que fornece a medição do centésimo (0,06).
Assim, a distância X é 4,46 unidades.

Fig. 1.4. Escala principal e escala vernier


Devem ser seguidas regras para
apresentar e aplicar os dados de
engenharia na medição e nos cálculos
correspondentes. As vezes, os
engenheiros e técnicos não estão
preocupados com os algarismos
significativos. Outras vezes, as regras não
se aplicam. Por exemplo, quando se diz
que 1 pé = 0,3048 metro ou 1 libra = 0,454
kilograma, o dígito 1 é usado sozinho. O
mesmo se aplica quando se usam
números inteiros em equações algébricas.
Por exemplo, o raio de um circuito é a
metade do diâmetro e se escreve: r = d/2.
Na equação, não é necessário escrever
que r = d/2,0000, pois se entende que o 2
é um número inteiro exato.
Outra confusão que se faz na
equivalência se refere ao número de
algarismos significativos. Obviamente, 1
km equivale a 1.000 metros porém há
diferenças práticas. Por exemplo, o
odômetro do carro, com 5 dígitos pode
indicar 89.423 km rodados, porém isso não
significa 89.423 000 metros, pois ele
deveria ter 8 dígitos. Se o odômetro tivesse
6 dígitos, com medição de 100 metros, ele
indicaria 89 423,6 km.
Por exemplo, as corridas de atletismo
de rua tem distâncias de 10 km, 15 km e
Sistema Internacional

18
21 km. As corridas de pista são de 100 m,
800 m, 5000 m e 10 000 m. Quem corre 10
km numa corrida de rua correu
aproximadamente 10 000 metros. A
distância foi medida por carro, por bicicleta
com hodômetro calibrado ou por outros
meios, porém, não é possível dizer que a
distância é exatamente de 10.000 m.
Porém, quem corre 10 000 metros em uma
pista olímpica de 400 metros, deve ter
corrido exatamente 10 000 metros. A
distância desta pista foi medida com uma
fita métrica, graduada em centímetros.
Poucas maratonas no mundo são
reconhecidas e certificadas como de 42
195 km, pois a medição desta distância é
complicada e cara.
4.6. Algarismo Significativo e o
Display
Independente da tecnologia ou da
função, um instrumento pode ter display
analógico ou digital.
O indicador analógico mede uma
variável que varia continuamente e
apresenta o valor medido através da
posição do ponteiro em uma escala.
Quanto maior a escala e maior o número
de divisões da escala, melhor a precisão
do instrumento e maior quantidade de
algarismos significativos do resultado da
medição.
O indicador digital apresenta o valor
medido através de números ou dígitos.
Quanto maior a quantidade de dígitos,
melhor a precisão do instrumento. O
indicador digital conta dígitos ou pulsos.
Quando o indicador digital apresenta o
valor de uma grandeza analógica,
internamente há uma conversão analógico-
digital e finalmente, uma contagem dos
pulsos correspondentes.
Atualmente, a eletrônica pode contar
pulsos sem erros. Porém, não se pode
dizer que o indicador digital não apresenta
erros, pois é possível haver erros na
geração dos pulsos. Ou seja, a precisão do
instrumento eletrônico digital está
relacionada com a qualidade dos circuitos
que convertem os sinais analógicos em
pulsos ou na geração dos pulsos.
Também os indicadores digitais
possuem uma precisão limitada. Neste
caso, é direto o entendimento da
quantidade de algarismos significativos.
Nos displays digitais, o último dígito é o
também duvidoso. Na prática, é o dígito
que está continuamente variando.
Um indicador digital com quatro dígitos
pode indicar de 0,001 até 9999. Neste
caso, os zeros são significativos e servem
para mostrar que é possível se medir com
até quatro algarismos significativos. O
indicador com 4 dígitos possui 4 dígitos
significativos.



Fig. 1.5. Instrumento digital com 6
1/2
dígitos
(Yokogawa)


Em eletrônica digital, é possível se ter
indicadores com 4 ½ dígitos. O meio dígito
está associado com a percentagem de
sobrefaixa de indicação e somente assume
os valores 0 ou 1. O indicador com 4 ½
dígitos pode indicar, no máximo, 19 999,
que é aproximadamente 100% de 9999 (20
000/10 000). Os quatro dígitos variam de 0
a 9; o meio dígito só pode assumir os
valores 0 ou 1.
Embora exista uma correlação entre o
número de dígitos e a precisão da
medição, também deve existir uma
consistência entre a precisão da malha e o
indicador digital do display. Por exemplo,
na medição de temperatura com termopar,
onde a precisão da medição inclui a
precisão do sensor, dos fios de extensão,
da junta de compensação e do display.
Como as incertezas combinadas do
sensor, dos fios e da junta de
compensação são da ordem de unidades
de grau Celsius, não faz nenhum sentido
ter um display que indique, por exemplo,
décimo ou centésimo de grau Celsius. Por
exemplo, na medição de temperatura com
termopar tipo J, onde a precisão resultante
do sensor, fios e junta de compensação é
Sistema Internacional

19
da ordem de ±5
o
C, na faixa de 0 a 100
o
C,
o display digital basta ter 2 ½, para indicar,
por exemplo, 101 oC. Não faz sentido ter
um display indicando 98,2 ou 100,4
o
C pois
a incerteza total da malha é da ordem de
±5
o
C. O mesmo raciocínio vale para um
display analógico, com escala e ponteiro.
4.7. Algarismo Significativo e
Calibração
Todos os instrumentos devem ser
calibrados ou rastreados contra um
padrão. Mesmo os instrumentos de
medição, mesmo os instrumentos padrão
de referência devem ser periodicamente
aferidos e calibrados. Por exemplo, na
instrumentação, tem-se os instrumentos de
medição e controle, que são montados
permanentemente no processo. Antes da
instalação, eles foram calibrados. Quando
previsto pelo plano de manutenção
preventiva ou quando solicitado pela
operação, estes instrumentos são aferidos
e recalibrados. Para se fazer esta
calibração, devem ser usados também
instrumentos de medição, como
voltímetros, amperímetros, manômetros,
termômetros, décadas de resistência,
fontes de alimentação. Estes instrumentos,
geralmente portáteis, também devem ser
calibrados por outros da oficina. Os
instrumentos da oficina devem ser
calibrados por outros de laboratórios do
fabricante ou laboratórios nacionais. E
assim, sobe-se na escada de calibração.
É fundamental entender que a precisão
do padrão de referência deve ser melhor
que a do instrumento sob calibração.
Quanto melhor? A resposta é um
compromisso entre custo e precisão. Como
recomendação, a precisão do padrão deve
ser entre quatro a dez (NIST) ou três a dez
(INMETRO) vezes melhor que a precisão
do instrumento sob calibração. Abaixo de
três ou quatro, a incerteza do padrão é da
ordem do instrumento sob calibração e
deve ser somada à incerteza dele. Acima
de dez, os instrumentos começam a ficar
caro demais e não se justifica tal rigor.
Assim, para calibrar um instrumento
com precisão de 1%, deve-se usar um
padrão com precisão entre 0,3% a 0,1%.
Quando se usa um padrão de 1% para
calibrar um instrumento de medição com
precisão de 1%, o erro do instrumento de
medição passa para 2%, por que

1% + 1% = 2% ou (0,01 + 0,01 = 0,02)

Quando se usa um padrão de 0,1%
para calibrar um instrumento de medição
com precisão de 1%, o erro do instrumento
de medição permanece em 1%, porque 1%
+ 0,1% = 1% (1+ 0,1 = 1).
Além da precisão do padrão de
referência, é também importante definir a
incerteza do procedimento de calibração,
para que ele seja confiável.
4.8. Algarismo Significativo e a
Tolerância
O número de dígitos decimais
colocados à direita da vírgula decimal
indica o máximo erro absoluto. O número
total de dígitos decimais corretos, que não
incluem os zeros à esquerda do primeiro
dígito significativo, indica o máximo erro
relativo. Quanto maior o número de
algarismos significativos, menor é o erro
relativo.
A precisão pretendida de um valor deve
se relacionar com o número de algarismos
significativos mostrados. A precisão é mais
ou menos a metade do último dígito
significativo retido. Por exemplo, o número
2,14 pode ter sido arredondado de
qualquer número entre 2,135 e 2,145. Se
arredondado ou não, uma quantidade deve
sempre ser expressa com a notação da
precisão em mente. Por exemplo, 2,14
polegadas implica uma precisão de ±0,005
polegada, desde que o último algarismo
significativo é 0,01.
Pode haver dois problemas:
1. Quantidades podem ser expressas
em dígitos que não pretendem ser
significativos. A dimensão 1,1875"
pode realmente ser muito precisa, no
caso do quarto dígito depois da
vírgula ser significativo ou ela pode
ser uma conversão decimal de uma
dimensão como 1 3/16, no caso em
que a dimensão é dada com excesso
de algarismos significativos.
2. Quantidades podem ser expressas
omitindo-se os zeros significativos. A
dimensão de 2" pode significar cerca
de 2" ou pode significar uma
Sistema Internacional

20
expressão muito precisa, que deveria
ser escrita como 2,000". No último
caso, enquanto os zeros
acrescentados não são significativos
no estabelecimento do valor, elas
são muito significativos em expressar
a precisão adequada conferida.
Portanto, é necessário determinar uma
precisão implicada aproximada antes do
arredondamento. Isto pode ser feito pelo
conhecimento das circunstâncias ou pela
informação da precisão do equipamento de
medição.
Se a precisão da medição é conhecida,
isto fornecerá um menor limite de precisão
da dimensão e alguns casos, pode ser a
única base para estabelecer a precisão. A
precisão final nunca pode ser melhor que a
precisão da medição.
A tolerância em uma dimensão dá uma
boa indicação da precisão indicada,
embora a precisão, deva ser sempre
menor que a tolerância. Uma dimensão de
1,635 ±0,003" possui precisão de ±
0,0005", total 0,001" . Uma dimensão
4,625 ±0,125" está escrita incorretamente,
provavelmente por causa da decimalização
das frações. O correto seria 4,62 ±0,12,
com uma precisão indicada de ±0,005
(precisão total de 0,01)
Uma regra útil para determinar a
precisão indicada a partir do valor da
tolerância é assumir a precisão igual a um
décimo da tolerância. Como a precisão
indicada do valor convertido não deve ser
melhor do que a do original, a tolerância
total deve ser dividida por 10 e convertida
e o número de algarismos significativos
retido.
4.9. Algarismo Significativo e
Conversão
Uma medição de variável consiste de
um valor numérico e de uma unidade. A
unidade da medição pode ser uma de
vários sistemas. Na conversão de um
sistema para outro, o estabelecimento do
número correto de algarismos significativos
nem sempre é entendido ou feito
adequadamente. A retenção de um
número excessivo de algarismos
significativos resulta em valores artificiais
indicando uma precisão inexistente e
exagerada. O corte de muitos algarismos
significativos resulta na perda da precisão
necessária. Todas as conversões devem
ser manipuladas logicamente,
considerando-se cuidadosamente a
precisão pretendida da quantidade original.
A precisão indicada é usualmente
determinada pela tolerância especifica ou
por algum conhecimento da quantidade
original. O passo inicial na conversão é
determinar a precisão necessária,
garantindo que não é nem exagerada e
nem sacrificada. A determinação do
número de algarismos significativos a ser
retido é difícil, a não ser que sejam
observados alguns procedimentos
corretos.
A literatura técnica apresenta tabelas
contendo fatores de conversão com até 7
dígitos.
A conversão de quantidades de
unidades entre sistemas de medição
envolve a determinação cuidadosa do
número de dígitos a serem retidos depois
da conversão feita. Converter 1 quarto de
óleo para 0,046 352 9 litros de óleo é
ridículo, por que a precisão pretendida do
valor não garante a retenção de tantos
dígitos. Todas as conversões para serem
feitas logicamente, devem depender da
precisão estabelecida da quantidade
original insinuada pela tolerância especifica
ou pela natureza da quantidade sendo
medida. O primeiro passo após o cálculo
da conversão é estabelecer o grau da
precisão.
O procedimento correto da conversão é
multiplicar a quantidade especificada pelo
fator de conversão exatamente como dado
e depois arredondar o resultado para o
número apropriado de algarismos
significativos à direita da vírgula decimal ou
para o número inteiro realístico de acordo
com o grau de precisão implicado no
quantidade original.
Por exemplo, seja um comprimento de
75 ft, onde a conversão métrica é 22,86 m.
Se o comprimento em pés é arredondado
para o valor mais próximo dentro de 5 ft,
então é razoável aproximar o valor métrico
próximo de 0,1 m, obtendo-se 22,9 m. Se o
arredondamento dos 75 ft foi feito para o
valor inteiro mais próximo, então o valor
métrico correto seria de 23 m. Enfim, a
conversão de 75 ft para 22,86 m é
Sistema Internacional

21
exagerada e incorreta; o recomendável é
dizer que 75 ft eqüivalem a 23 m.
Outro exemplo envolve a conversão da
pressão atmosférica padrão, do valor
nominal de 14,7 psi para 101,325 kPa.
Como o valor envolvido da pressão é o
nominal, ele poderia ser expresso com
mais algarismos significativos, como
14,693 psi, onde o valor métrico
correspondente seria 101,325, com três
dígitos depois da vírgula decimal. Porém,
quando se estabelece o valor nominal de
14,7 o valor correspondente métrico
coerente é de 101,3, com apenas um dígito
depois da vírgula.
4.10. Computação matemática
Na realização das operações
aritméticas, cada número no cálculo é
fornecido com um determinado número de
algarismos significativos e o resultado final
deve ser expresso com um número correto
de algarismos significativos. Quando se
fazem as operações aritméticas, deve-se
seguir as seguintes recomendações.
1. Fazer a computação de modo que
haja um número excessivo de
dígitos.
2. Arredonde o número correto de
algarismos significativos. Para
arredondar, aumente o último
número retido de 1, se o primeiro
número descartado for maior que 5.
Se o dígito descartado for igual a 5, o
último dígito retido deve ser
aumentado de 1 somente se for
ímpar. Se o dígito descartado for
menor que 5, o último dígito retido
permanece inalterado.
3. Para multiplicação e divisão,
arredonde de modo que o número de
algarismos significativos no resultado
seja igual ao menor número de
algarismos significativos contidos nas
parcelas da operação.
4. Para adição e subtração, arredonde
de modo que o dígito menos
significativo (da direita) do resultado
corresponda ao algarismo mais
significativo duvidoso contido na
adição ou na subtração.
5. Para combinações de operações
aritméticas, fazer primeiro as
multiplicações e divisões, arredondar
quando necessário e depois fazer a
somas e subtrações. Se as somas e
subtrações estão envolvidas para
posterior multiplicação e divisão,
faze-las, arredondar e depois
multiplicar e dividir.
6. Em cálculos mais complexos, como
solução de equações algébricas
simultâneas, quando for necessário
obter resultados intermediários com
algarismos significativos extras,
garantir que os resultados finais
sejam razoavelmente exatos, usando
o bom senso e deixando de lado as
regras acima.
7. Quando executar os cálculos com
calculadora eletrônica ou
microcomputador, também ter bom
senso e não seguir as regras
rigorosamente. Não é necessário
interromper a computação em cada
estágio para estabelecer o número
de algarismos significativos. Porém,
depois de completar a computação,
considerar a precisão global e
arredondar os resultados
corretamente.
8. Em qualquer operação, o resultado
final deve ter uma quantidade de
algarismos significativos igual à
quantidade da parcela envolvida com
menor número de significativos.
Exemplos de arredondamento para três
algarismos significativos:

1,8765 1,88
8,455 8,46
6,965 6,96
10,580 10,6
Soma e Subtração
Quando se expressam as quantidades
de massa como M = 323,1 g e m = 5,722
g
significa que as balanças onde foram
pesadas as massas tem classes de
precisão muito diferentes. A balança que
pesou a massa m é cem vezes mais
precisa que a balança de M. A precisão da
balança de M é 0,1 g; a precisão da
balança de m é de 0,001 g.
Somando-se os valores de (m + M)
obtém-se o valor correto de 328,8 g. O
valor 328,822 g é incorreto pois a precisão
do resultado não pode ser melhor que a
precisão da pior balança. Para se obter
Sistema Internacional

22
este resultado, considerou-se a massa M =
323,100, inventando-se por conta própria
dois zeros. Em vez de se inventar zeros
arbitrários, desprezam-se os dígitos
conhecidos da medição de m;
arredondando 5,722 para 5,7.
O valor correto de 328,8 pode ser obtido
através de dois caminhos diferentes:
1. arredondando-se os dados
M = 323,1 g
m = 5,7 g
---------------
M + m = 328,8 g

2. arredondando-se o resultado final
M = 323,1 g
m = 5,722 g
---------------
M + m = 328,822 g = 328,8 g

Deste modo, o número de algarismos
significativos da soma é igual ao número
da parcela com o menor número de
algarismos significativos.
Quando há várias parcelas sendo
somadas, o erro pode ser maior se as
parcelas forem arredondadas antes da
soma. Recomenda-se usar a regra do
dígito decimal de reserva, quando os
cálculos são feitos com um dígito extra e o
arredondamento é feito somente no final
da soma.
Exemplo 1
Seja a soma:

132,7 + 1,274 + 0,063321 + 20,96 + 46,1521

Com qualquer método, o resultado final
deve ter apenas um algarismo depois da
vírgula, pois a parcela 132,7 tem apenas
um algarismo depois da vírgula.
Se todas as parcelas forem
arredondadas antes da soma, se obtém
132,7 + 1,3 + 0,1 + 21,0 + 46,2 = 201,3
Usando-se a regra do dígito reserva,
tem-se
132,7 + 1,27 + 0,06 + 20,96 + 46,15 =
201,14
Fazendo-se o arredondamento no final,
tem-se 201,14 = 201,1.
Exemplo 2
Achar a soma das raízes quadradas dos
seguintes números, com precisão de 0,01

N = + + + 5 6 7 8

Usando-se a regra do dígito decimal
reserva, tomam-se os dados com precisão
de 0,001.

2,236 + 2,449 + 2,646 + 2,828 = 10,159

Arredondando-se no final, tem-se 10,16.
Sem a regra do dígito decimal reserva
seria 10,17 (verificar).
Quando o número de parcelas é muito
grande (centenas ou milhares),
recomenda-se usar dois dígitos decimais
reservas. Quando se somam várias
parcelas com o mesmo número de
algarismos depois da vírgula decimal,
deve-se considerar que o máximo erro
absoluto da soma é maior do que das
parcelas. Por isso, é prudente arredondar
para um dígito a menos.
Exemplo 3
Determinar a soma

1,38 +8,71 + 4,48 + 11,96 + 7,33 = 33,86

Porém, o resultado mais conveniente é
33,9, com três algarismos significativos,
que é o menor número de significativos
das parcelas.
O máximo erro absoluto de uma soma
ou diferença é igual à soma dos erros
máximos absolutos das parcelas. Por
exemplo, tendo-se duas quantidades com
precisões de 0,1 é lógico entender que a
soma ou diferença destas quantidades são
determinadas com precisão de 0,2, por
que, na pior situação, os erros se somam.
Quando há muitas parcelas, é improvável
que todos os erros se somem. Nestes
casos, usam-se métodos de probabilidade
para estimar o erro da soma. Um critério é
arredondar, desprezando-se o último
algarismo significativo. Ou seja, quando
todas as parcelas tiverem n algarismos
significativos, dar o resultado com (n-1)
algarismos significativos.
Sistema Internacional

23
As regras da subtração são
essencialmente as mesmas da soma.
Deve-se tomar cuidado quando se
subtraem dois números muito próximos,
pois isso provoca um grande aumento do
erro relativo.
Exemplo 4

(327,48 ± 0,01) - (326,91 ± 0,01) =
(0,57 ± 0,02)
O erro relativo de cada parcela vale
aproximadamente 0,01/300 = 0,003%.
O erro relativo do resultado vale cerca
de (0,02/0,57) = 3,5%, que é mais de 1000
vezes maior que o erro relativo das
parcelas.
Quanto mais à esquerda, mais
significativo é o dígito. O dígito na coluna
dos décimos é mais significativo que o
dígito na coluna dos centésimos. O dígito
na coluna das centenas é mais significativo
que o dígito na coluna das dezenas .
O resultado da soma ou subtração não
pode ter mais algarismos significativos ou
dígitos depois da vírgula do que a parcela
com menor número de algarismos
significativos.
Multiplicação e Divisão
Quando se multiplicam ou dividem dois
números com diferentes quantidades de
dígitos corretos depois da vírgula decimal,
o número correto de dígitos decimais do
resultado deve ser igual ao menor dos
números de dígitos decimais nos fatores.
Exemplo 5
Achar a área S do retângulo com

a = 5,2 m
b = 43,1 m

É incorreto dizer que a área S = 224,12
m
2
. Na realidade,
a está entre 5,1 e 5,3
b está entre 43,0 e 43,2
Assim, a área S está contida entre

219,3 cm
2
(5,1 x 43,0)
228,96 cm
2
(5,3 x 43,2)

Assim, os dígitos depois do segundo
algarismo significativo são duvidosos e a
resposta correta para a área é:

S = 2,2 x 10
2
cm
2


O número de dígitos decimais corretos e
o máximo erro relativo indicam qualidades
semelhantes ligadas com o grau de
precisão relativa. A multiplicação ou
divisão de números aproximados
provocam a adição dos erros relativos
máximos correspondentes.
No exemplo do cálculo da área do
retângulo, o erro relativo de a (5,1) é muito
maior que o de b ( 43,1) e por isso o erro
relativo da área S é aproximadamente
igual ao de a. S tem a mesma quantidade
de algarismos significativos que a; ambos
tem dois algarismos.
Se os fatores do produto são dados com
quantidades diferentes de algarismos
decimais corretos, deve-se arredondar os
números antes da multiplicação, deixando
um algarismo decimal reserva, que é
descartado no arredondamento do
resultado final. quando há mais que 4
fatores com igual número de dígitos
decimais corretos (n), o resultado deve ter
(n-1) dígitos decimais corretos.
Exemplo 6
Calcular o calor gerado por uma
corrente elétrica I percorrendo uma
resistência R durante o tempo t, através de

Q = 0,24 I
2
R t

Como a constante (0,24) tem dois
dígitos decimais corretos, o resultado final
só poderá ter dois dígitos depois da
vírgula. Assim, não se justifica
praticamente tomar valores de I, R e t com
mais de três dígitos decimais corretos (o
terceiro dígito já é o decimal reserva a ser
descartado no final).
As constantes não afetam o número de
dígitos decimais corretos no produto ou
divisão. Por exemplo, o perímetro do
círculo com raio r, dado pela expressão L =
2 π r, o valor de 2 é exato e pode ser
escrito como 2,0 ou 2,000 ou como se
quiser. A precisão dos cálculos depende
apenas da quantidade de dígitos decimais
Sistema Internacional

24
da medição do raio r. O número π também
é conhecido e a quantidade de
significativos pode ser tomada
arbitrariamente.
Exemplo 7
Calcular

D = 11,3
2
x 5,4 + 0,381 x 9,1 + 7,43 x 21,1

para estimar o valor das parcelas,
calculam-se estas parcelas com o
arredondamento correto.
Como 5,4 possui apenas dois
algarismos significativos, tomam-se as
parcelas com três algarismos (com um
dígito decimal reserva) e arredonda-se o
resultado final para dois algarismos
significativos.

11,3
2
= 127,7 x 5,4 = 690

0,381 x 9,1 = 3,47 = 3

7,43 x 21,1 = 157

Resultado final = 850
Resultado correto: 8,5 x 10
2

O cálculo com dígitos desnecessários é
inútil e pode induzir a erros, pois podem
dar a ilusão de uma precisão maior que a
realmente existe.
Todos os graus de precisão devem ser
coerentes entre si e em cada estágio dos
cálculos. Nenhum dos graus de precisão
deve ser muito menor ou maior do que o
correto.
Exemplo 8
Seja
x = 215
y = 3,1
Calcular:
x + y x - y x.y
x/y y/x
determinando:
1. resultado calculado
2. limite superior calculado
3. limite inferior calculado
4. resultado final correto


Tab. 1.4. Resultados
Operação Resultado Limite sup Limite inf Resultado
x + y 218,1 219,2 217,0 218
x - y 211,9 213,0 210,8 212
x.y 666,5 691,2 642,0 6,7x10
2

x/y 69,3548 72,0000 66,8750 69
y/x 0,01442 0,01495 0,01389 0,014


A quantidade x = 215 é definida por três
algarismos significativos de modo que o
dígito 5 é o menos significativo e duvidoso.
Como ele é incorreto por ±1, então o limite
superior é 216 e o inferior é 214.
A quantidade y = 3,1 tem dois
algarismos significativos e tem incerteza de
±0,1, variando entre 3,2 e 3,3. Os limites
superiores mostrados na tabela são a
soma dos limites inferiores de x e y. No
resultado final, se deve considerar só um
dígito duvidoso, e quando possível, com
apenas dois dígitos significativos.
Exemplo 9
Determinar a área de um quadrado com
lado de (10 ±1) metro.
A área nominal do quadrado é igual a
100, que é o produto de 10 x 10. Porém, a
incerteza de ±1 metro em cada lado do
quadrado é multiplicada pelo outro lado, de
modo que a incerteza total da área do
quadrado é de ±21 metros! Chega-se a
este resultado multiplicando-se 10 ± 1 por
10 ± 1:

10 ± 1
10 ± 1
_____
100 ± 10
±10 ± 1
_________
100 ± 20 ± 1

portanto

100 ± 21

ou mais rigorosamente

(100 -19 + 21) m
2
.

Outro modo de se chegar a este
resultado é considerar que cada lado de 10
± 1 metro varia de 9 a 11 metros e por isso
Sistema Internacional

25
as áreas finais variam de um mínimo de 81
(9 x 9) e um máximo de 121 (11 x 11) e
como a área nominal é de 100, o valor com
a tolerância é de 100 - 19 (81) +21 (121).
Este exemplo é interessante pois é
análogo ao cálculo da incerteza de uma
grandeza que depende de duas outras
grandezas. A incerteza da grandeza
resultante é igual à derivada parcial da
grandeza principal em relação a uma
grandeza vezes a incerteza desta
grandeza mais a derivada parcial da
grandeza principal em relação a outra
grandeza vezes a incerteza desta outra
grandeza. Ou seja, em matemática,
quando

z = f(x, y)

com
x = x ± ∆x

y = y ± ∆y

a incerteza ∆z é igual a

y
f
x
x
f
y z


+


= ∆
4.11. Algarismos e resultados
Devem ser estabelecidas algumas
regras para determinar as incertezas para
que todas informações contidas na
expressão sejam entendidas
universalmente e de modo consistente
entre quem escreve e quem lê.
Como a quantidade δx é uma estimativa
de uma incerteza, obviamente ela não
deve ser estabelecida com precisão
excessiva. Por exemplo, é estupidez
expressar o resultado da medição da
aceleração da gravidade g como

g
medida
= 9,82 ± 0,0312 956 m/s
2


A expressão correta seria

g
medida
= 9,82 ± 0,03 m/s
2

Regra para expressar incertezas:

Incertezas industriais devem ser quase
sempre arredondadas para um único
algarismo significativo.

Uma conseqüência prática desta regra é
que muitos cálculos de erros podem ser
feitos mentalmente, sem uso de
calculadora ou mesmo de lápis e papel.
Esta regra tem somente uma exceção
importante. Se o primeiro algarismo na
incerteza δx é 1, então é recomendável se
manter dois algarismos significativos em
δx. Por exemplo, se um cálculo resulta em
uma incerteza final de
δx = 0,14, um arredondamento para δx =
0,1 é uma redução proporcional muito
grande de modo que é razoável reter dois
algarismos significativos para expressar δx
= 0,14. O mesmo argumento poderia ser
usado se o primeiro número for 2, porém a
redução não é tão grande (metade da
redução se o algarismo fosse 1).
Assim que a incerteza na medição é
estimada, os algarismos significativos do
valor medido devem ser considerados.
Uma expressão como

velocidade medida = 6 051,78 ± 30 m/s

é certamente bem ridícula. A incerteza de
30 significa que o dígito 5 pode ser
realmente tão pequeno quanto 2 ou tão
grande quanto 8. Claramente, os dígitos 1,
7 e 8 que vem depois do 5 não tem
nenhum significado prático. Assim, a
expressão correta seria
velocidade medida = 6050± 30 m/s
Regra para expressar resultados
O último algarismo significativo
em qualquer expressão do
resultado deve ser usualmente
da mesma ordem de grandeza
(mesma posição decimal) que a
incerteza.

Por exemplo, para uma expressão de
resultado 78,43 com uma incerteza de 0,04
seria arredondada para

78,43 ± 0,04

Sistema Internacional

26
Se a incerteza fosse de 0,4 então ficaria

78,4 ± 0,4

Se a incerteza fosse de 4, a expressão
ficaria

78 ± 4

Finalmente, se a incerteza fosse de 40,
seria

80 ± 40

Para reduzir incertezas causadas pelo
arredondamento, quaisquer números
usados nos cálculos intermediários devem
normalmente reter, no mínimo, um
algarismo a mais do que o finalmente
justificado. No final dos cálculos, faz o
último arredondamento para eliminar o
algarismo extra insignificante.
A incerteza em qualquer quantidade
medida tem a mesma dimensão que a
quantidade medida em si. Assim,
escrevendo as unidades (m/s
2
, g/cm
3
, A, V,
o
C ) após o resultado e a incerteza é mais
claro e mais econômico.
Exemplo

densidade medida = 8,23 ± 0,05 g/cm
3

ou
densidade medida = (8,23 ± 0,05) g/cm
3


Quando se usa a notação científica,
com números associados a potências de
10, é também mais simples e claro colocar
o resultado e a incerteza na mesma forma.
Por exemplo:

corrente medida = (2,54 ± 0,02) x 10
-6
A

é mais fácil de ler e interpretar do que na
forma:

corrente medida = 2,54 x 10
-6
± 2 x 10
-8
A

Apostilas\Metrologia 2SistemsSI.DOC 22 SET 98 (Substitui 05 ABR 98)


27
2
Estatística da Medição
Objetivos de Ensino
1. Apresentar os fundamentos de estatística aplicados à medição, como média,
desvio, distribuição, flutuação, faixa de variação e intervalo.
2. Mostrar as expressões matemáticas e significados físicos das diferentes médias:
aritmética, ponderada e geométrica.
3. Apresentar os diferentes tipos de desvio: desvio do valor médio, de população e
da amostra.
4. Conceituar os parâmetros de medida da precisão: desvio padrão e variância.
5. Mostrar a distribuição normal e suas propriedades.
6. Apresentar os intervalos de confiança da medição.
7. Mostrar o tratamento das medidas com grandes desvios.
8. Conceituar o método de regressão para curvas de calibração.


1. Estatística Inferencial
1.1. Introdução
A premissa básica da metrologia é:
nenhuma medição é sem erro. Ou na
lógica positiva: toda medição possui erro.
Por isso, nem o valor exato da medição e
nem o erro associado com a medição pode
ser conhecido exatamente. Na metrologia,
como na física, existe o princípio
desconfortável da indeterminação. As
incertezas e os erros da medição devem
ser tratados metodicamente para que as
medições práticas tenham alguma utilidade
e confiabilidade.
A confiabilidade da medição não
depende somente das variações nas
entradas controladas mas também das
variações em fatores incontrolados e
desconhecidos.
O operador é quem faz a medição e
toma nota do resultado. Ele pode cometer
erros grosseiros e acidentais nestas
tarefas. O equipamento de suporte do
instrumento de medição incluem outros
instrumentos auxiliares. As condições de
contorno do instrumento de medição
podem influir no seu desempenho. Estas
condições incluem a temperatura,
umidade, pressão ambiente, vibração,
choque mecânico, alimentação externa. O
instrumento de medição é o elo mais
importante de toda o sistema de medição.
É ele que faz a medição e espera-se que
ele não influa no valor da medição feita.
1.2. Conceito
A ciência da estatística envolve a coleta,
organização, descrição, análise e
interpretação de dados numéricos. A
estatística é a parte da matemática que
fornece um método organizado para
manipular dados que apresentem
variações aleatórias. A estatística revela
somente a informação que já está presente
em um conjunto de dados. Nenhuma
informação nova é criada pela estatística.
O tratamento estatístico de um conjunto de
dados permite fazer julgamentos objetivos
relacionados com a validade de resultados.
A estatística permite olhar os dados de
modos diferentes e tomar decisões
objetivas e inteligentes quanto à sua
qualidade e uso.
Estatística da Medição

28
A metrologia usa estatística por vários
objetivos:
1. entender, controlar e determinar os
erros da medição
2. facilitar a coleta de dados adequados
e confiáveis relacionados com a
medição
3. entender e calcular melhor as
incertezas associadas à medição
4. controlar a qualidade da mão de obra
e dos materiais produzidos na
indústria.
Os métodos estatísticos podem ser
úteis para determinar
1. o valor mais provável de uma
medição, a partir de um conjunto
limitado de medições,
2. o erro provável de uma medição e
3. o valor da incerteza na melhor
resposta obtida.
Um dado individual é imprevisível e
aleatório. Porém, grupos de dados
aleatórios são previsíveis e
determinísticos. Por exemplo, o
lançamento de um único dado é aleatório e
não determinístico. Qualquer um dos
lados, 1-2-3-4-5-6, é igualmente provável.
Porém, quando se lançam dois dados, a
soma dos lados já é determinística e não
aleatória. A soma 2 (1+1) ou 12 (6+6) é
menos provável que a soma 7 (6+1, 5+2,
4+3).
A base da estatística na medição é a
replicação, que é a tomada múltipla e
repetida da medição em valores individuais
da quantidade. Quando se faz apenas uma
medição sujeita aos erros aleatórios,
obtém-se pouca informação. Quando se
fazem muitas medições repetidas da
mesma quantidade, os erros aleatórios
aparecem como um espalhamento em
torno da média destas medições. O
espalhamento é causado pelas variações
da medição, que devem ser consideradas
e pelas variações das características do
sistema de medição, que devem ser
eliminadas. As variações aleatórias podem
ser uma conseqüência natural das
experiências ou uma inevitável deficiência
do sistema de medição das variações de
processo e a estatística tem meios de
identificar e separar estas causas.
O objetivo do tratamento estatístico não
é o de eliminar a variabilidade das
medições - o que é impossível - mas o de
restringir esta variabilidade dentro de
limites economicamente realizáveis e
estabelecer graus de probabilidade de sua
localização.
A análise estatística não melhora a
precisão de uma medição. As leis da
probabilidade usadas pela estatística se
aplicam somente em erros aleatórios e não
nos erros sistemáticos ou do operador.
Assim, antes de fazer o tratamento
estatístico dos erros aleatórios, deve-se
cuidar de eliminar ou diminuir os erros
sistemáticos e evitar os erros de operação.
A precisão de um instrumento que
descreve a concordância entre várias
medições replicadas pode ser medida
através dos parâmetros estatísticos como
desvio padrão, variância e espalhamento
das medições.
Por exemplo, se um instrumento está
com um erro de calibração de zero, um
tratamento estatístico não removerá este
erro. Porém, a análise estatística de dois
métodos de medição diferentes pode
demonstrar a discrepância entre eles.
A estatística descritiva usa tabelas,
gráficos e métodos numéricos para resumir
conjuntos de dados da população total ou
de amostras.
A estatística inferencial pode
1. definir o intervalo em torno da média
de um conjunto dentro do qual a
média da população deve estar, com
uma dada probabilidade;
2. determinar o número de medições
replicadas necessárias para garantir,
com uma dada probabilidade, que
uma média experimental caia dentro
de um intervalo predeterminado em
torno da média da população;
3. decidir se um valor distante no
conjunto de resultados replicados
deve ser mantido ou rejeitado no
cálculo da média para o conjunto;
4. manipular os dados da calibração.

Estatística da Medição

29

Fig. 2.1. Inferência estatística

1.3. Variabilidade da Quantidade
As medições repetidas de um mesmo
valor exibem variações. Estas variações
são causadas por diferenças em materiais,
equipamentos, instrumentos, instalações,
operações, condições, problemas, reações
psicológicas e condições climáticas.
Geralmente se tem muitas variações
pequenas e poucas grandes variações
(diagrama de Paretto).
Às vezes, ocorre uma variação não
usual, maior que todas as outras, por uma
ou pela combinação das seguintes causas:
1. material diferente da batelada,
2. novo ajuste do equipamento
3. nova calibração do instrumento de
medição
4. substituição do operador
5. jogo da seleção brasileira de futebol
6. festa de Carnaval, São João ou Natal.
A experiência mostra que há diferenças
definidas detectáveis entre o padrão
natural e o não natural. É possível
descobrir e estudar estas diferenças por
meio de cálculos simples baseados na
estatística. Assim que se conhece o
padrão natural, é possível encontrar as
causas das anormalidades.
As medições de uma mesma variável do
processo tendem a se agrupar em torno de
um valor central, tipicamente a média
aritmética, com uma certa variação de
dispersão em cada lado. O padrão ou
formato desenhado pelas medições
agrupadas é chamado de distribuição da
freqüência.
Se as causas que produzem as
medições permanecem inalteradas, a
distribuição tende a ter certas
características estáveis, que se tornam
ainda mais definidas quando se aumenta o
número de medições. Se o sistema de
causa é constante, a distribuição
observada tende a se aproximar de um
limite estatístico, segundo uma lei ou
função de distribuição.
A experiência mostra que a distribuição
e a flutuação estão relacionadas
estatisticamente. A distribuição é uma
massa composta de flutuações e a
flutuação está confinada dentro dos limites
de uma distribuição.
Com relação às distribuições e
flutuações, pode-se dizer que
1. Tudo varia.
2. As coisas individuais são imprecisas.
3. Os grupos de coisas de um sistema
constante de causas tendem a ser
previsíveis.
Por exemplo,
1. As pessoas vivem até diferentes
idades.
2. Ninguém sabe quanto tempo ele
viverá.
3. As companhias de seguro podem
prever com precisão a percentagem
de pessoas que viverão até 50, 60,
70 e 80 anos.
Outro exemplo,
1. Ninguém escreve a letra a duas
vezes do mesmo modo.
2. Não se pode saber como o próximo a
será diferente do último.
3. O grafologista sabe reconhecer a
letra de uma pessoa.
Estatística da Medição

30
2. População e Amostra
Uma premissa básica da teoria da
probabilidade é que ela trata somente de
eventos aleatórios. Um evento aleatório é
aquele em que as condições são tais que
cada membro da população tem uma
chance igual de ser escolhido.
A população ou universo é o conjunto
de todos os itens (produtos, indivíduos,
firmas, empregados, preços, medições).
A amostra é uma parte da população,
tirada aleatoriamente do universo de modo
que o represente. A amostra deve ser
aleatória, onde cada membro da população
tem uma igual chance de ser selecionado.
Embora a amostra seja representativa, ela
não é uma réplica exata, em miniatura, da
população de onde ela foi retirada. Isto é
impossível de se conseguir e como
resultado, há erros de amostragem. Estes
erros devem ser minimizados ou então
previstos, através de distribuições de
amostras.
Trabalhar com amostras em vez de
estudar a população total é uma técnica
bem estabelecida e usada, resultando na
vantagem de assumir um risco definido de
aceitar uma pequena percentagem de
alguns dados com não-conformidade em
troca da grande redução do custo e do
tempo de inspeção.
Muita inspeção de aceitação é por
amostragem. Geralmente a inspeção de
100% é impraticável e antieconômica.
Também, a qualidade do produto aceito
pode realmente ser melhor com
amostragem estatística do que a
conseguida por inspeção de 100%. A
amostragem tem vantagens psicológicas e
menos cansaço dos inspetores. Muitos
tipos de inspeção de 100% não eliminam
todos os produtos fora de conformidade.
No caso de medições replicadas,
quando se faz a computação estatística de
um número muito elevado de dados
(milhares), há uma alta probabilidade de se
cometer erros na entrada de dados na
calculadora ou no computador.
As leis da estatística se aplicam
estritamente a uma população formada
apenas de dados aleatórios. Para usar
estas leis, deve-se assumir que o conjunto
de dados que formam uma amostra
representa a população infinita de
resultados. Infelizmente, esta hipótese não
é garantidamente válida. Como resultado,
a estimativa estatística acerca do valor dos
erros aleatórios também está sujeita a
incerteza e por isso ela é expressa
somente em termos de probabilidade.
Em qualquer decisão que se toma,
baseando-se em poucos dados, corre-se o
risco de que ela seja errada. Por exemplo,
quando se sai de casa, carregando ou não
um guarda-chuva, coletam-se certos
dados: olha-se o céu, lê-se a previsão do
tempo do jornal, escuta-se a televisão.
Depois de avaliar rapidamente todos estes
dados disponíveis, incluindo a previsão do
rádio de "30% de probabilidade de haver
chuva", toma-se uma decisão. De qualquer
modo, faz-se o compromisso entre a
inconveniência de carregar um guarda-
chuva e a possibilidade de tomar uma
chuva, sujando-se a roupa e pegando um
resfriado. Neste exemplo, tomou-se uma
decisão baseando-se na incerteza. A
incerteza não implica falta de
conhecimento, mas somente que o
resultado exato não é completamente
previsível.
Inferência estatística é o processo de se
deduzir algo acerca de um universo
baseando-se em dados obtidos de uma
amostra retirada deste universo. Partindo-
se dos parâmetros da amostra, calculados
e obtidos mais facilmente, estimam-se as
faixas onde devem estar estes mesmos
parâmetros da população. Quando o
tamanho da amostra aumenta, os valores
dos parâmetros da amostra tendem para
os valores dos parâmetros da população.
Assim, a escolha do tamanho da amostra é
um compromisso entre a facilidade dos
cálculos (amostra muito pequena) e a
validade dos valores (amostra muito
grande). O tamanho conveniente da
amostra depende de vários fatores, como:
1. desvio permitido entre o parâmetro e
o valor verdadeiro,
2. o grau de variabilidade da população
fornecido pela experiência anterior,
3. o risco assumido ou o grau de
probabilidade determinado.
Na prática, amostra com n ≥ 20 é
considerada de bom tamanho e
representativa do universo. Alguns autores
consideram ideal n ≥ 30. Na prática, por
conveniência, trabalha-se com amostras
Estatística da Medição

31
contendo cerca de 4 a 10 pontos, e
aplicando a estatística t do Student, que
compensa os erros das amostras
pequenas.
A metodologia da inferência estatística
envolve
1. o problema: estimativa dos
parâmetros da população (média e
variância) com os dados disponíveis,
2. a solução: usa da informação da
amostra para obter as estimativas,
mesmo tendo de conviver com os
erros da amostragem,
3. o resultado final: estimativa dos
parâmetros da população e os graus
de confiança associados.
3. Tratamento Gráfico
Os dados estatísticos podem ser
apresentados e arranjados em tabelas e
gráficos. O objetivo destes métodos é o de
condensar a informação de uma grande
quantidade de números, mostrando as
características mais importantes dos
dados.
Os dados consistem de números, que
devem ser úteis e confiáveis. Para isso, é
importante definir a fonte dos dados, qual o
escopo do estudo, como eles são
coletados, qual a sua exatidão e precisão,
como são arredondados. Os dados podem
mostrar propriedades físicas variáveis.
3.1. Distribuição de Freqüência
O processo para construir uma matriz e
uma distribuição de freqüência é simples e
direto. Os passos são os seguintes:
1. Coletar todos os dados disponíveis.
2. Arranjar os dados em uma matriz,
colocando-os em ordem crescente ou
decrescente.
3. Determinar o número de classes ou
células.
4. Determinar o intervalo de cada
classe.
5. Agrupar os dados em classes ou
células.
6. Construir um gráfico com as classes
e os números de dados para cada
classe.
7. Construir a distribuição de
freqüência.
O número de grupos não pode nem ser
muito grande nem muito pequeno. Como
regra, pode-se tomar a raiz quadrada do
número dos dados, o que na prática,
resulta em 5 a 15 grupos. Por exemplo, se
há 100 dados, escolhem-se 10 classes
( 100 10 = ). Quando o número não for
exato, arredonda-se para o inteiro mais
próximo; por exemplo, para 200 dados,
usam-se 14 classes ( 200 14 1 = , ). Os
limites inferior e superior devem ser
escolhidos de modo a não se ter
superposições ou dados de fora.
O intervalo da classe pode ser
determinado dividindo-se a diferença do
maior dado pelo menor dado pelo número
de classes.
Matematicamente, tem-se:
Intervalo da classe =
x
número de classes
h
− x
l

onde
x
h
é o maior número da matriz
x
l
é o menor número da matriz
Exemplo
Para fixar idéias, será apresentado o
exemplo, onde se quer desenvolver uma
controle de qualidade para a fabricação de
lâmpadas de 100-watt. São tomados 50
registros de uma lote da produção e são
feitos testes de falha das lâmpadas. A
confiabilidade é medida em termos de
horas para falhar. As confiabilidades são
as seguintes:

Tab. 2.1. Dados completos
1983 2235 2414 2465 2510
2329 2414 2697 2567 2270
2321 2214 2130 2174 2553
2438 2356 2299 2238 2350
2450 2454 2452 2543 2544
2026 2237 2248 2643 2544
2326 2320 2293 2234 2343
2027 2175 2346 2438 2652
2420 2355 2362 2146 2124

Estatística da Medição

32

Tab.2.2. Dados em ordem crescente
1983 2235 2329 2414 2510
2026 2237 2343 2417 2544
2027 2238 2346 2420 2543
2124 2248 2350 2438 2564
2130 2270 2353 2438 2567
2146 2293 2355 2438 2565
2174 2299 2356 2450 2643
2175 2320 2362 2454 2652
2214 2321 2387 2452 2680
2234 2326 2414 2465 2697


Os dados agora devem ser agrupados
em classes ou células.
O número adequado de classes é de
7 ( 50 7 1 = , ).
O intervalo da classe é calculado como:

Intervalo da classe =
2697 - 1983
7
102 =
Assim, deveria se ter:
maior dado = 2697 horas
menor dado = 1983 horas
faixa = 2697 - 1983 = 714 horas
número de classes = 7
intervalo da classe = 102
Pode-se fazer alguns ajustes finos:
1. o intervalo da classe pode ser igual a
100, para facilitar os cálculos,
2. a primeira classe é de 1900 a 1999,
3. a segunda classe é de 2000 a 2099,
4. a terceira classe é de 2100 a 2199, ...
4. deve-se ter uma oitava classe, de
2600 a 2699 para acomodar os 4
últimos valores.
À primeira vista se pensa que o
intervalo é de 99 e não de 100, porém
como a contagem começa de 0, tem-se
realmente 100 pontos contados entre 1900
e 1999.
Constrói-se agora a tabela com os
números em cada intervalo de classe. O
arranjo pode ser horizontal ou vertical. No
arranjo horizontal, colocam-se as classes à
esquerda e uma marca de contagem (X, ou
marcas múltiplas de 5) para cada ponto em
cada classe à direita. Tem-se

Tab. 2.3. Contagens
Horas
Marcas de contagem
1900-1999 X
2000-2099 XX
2100-2199 XXXXX
2200-2299 XXXXXXXXX
2300-2399 XXXXXXXXXXXX
2400-2499 XXXXXXXXXXX
2500-2599 XXXXXX
2600-2699 XXXX

As marcas de contagem são
convertidas em números, resultando na
distribuição de freqüência absoluta.

Tab. 2.4. Distribuição da freqüência
absoluta
Horas Número de falhas
1900-1999 1
2000-2099 2
2100-2199 5
2200-2299 9
2300-2399 12
2400-2499 11
2500-2599 6
2600-2699 4

Pode-se obter as seguintes informações
sobre a folha de distribuição de freqüência:
1. a menor taxa de queima da lâmpada
é de de 1900 horas e a maior, de
2700,
2. a maioria das lâmpadas queima entre
2200 e 2500 horas,
3. a maior concentração de falhas é
entre 2300 e 2399 horas.
Fazendo-se um gráfico (abcissa = horas
de funcionamento até queimar da lâmpada;
ordenada = freqüência), percebe-se o
centro da distribuição (2350 horas) e como
os valores se espalham em torno deste
ponto central.
Se ainda se quer a distribuição da
freqüência relativa, para prever o número
de lâmpadas que iriam falhar dentro de um
determinado intervalo, calcula-se a
freqüência relativa, dividindo-se cada
freqüência absoluta pelo número total de
freqüências. O valor total da freqüência
relativa é 1,0. A fórmula da freqüência
relativa é:

Estatística da Medição

33
s observaçõe de total número
intervalo no s observaçõe de número
= relativa Frequência

No exemplo da lâmpada, a freqüência
relativa de falhas para o intervalo de classe
de 2100-2199 é de 0,01 ou 10% (5/50).

Tab. 2.5. A freqüência relativa em cada intervalo de
classe das confiabilidades das lâmpadas

Horas Falhas Freqüência
relativa
1900-1999 1 1/50 = 0,02
2000-2099 2 2/50 = 0,04
2100-2199 5 5/50 = 0,10
2200-2299 9 9/50 = 0,18
2300-2399 12 12/50 = 0,24
2400-2499 11 11/50 = 0,22
2500-2599 6 6/50 = 0,12
2600-2699 4 4/50 = 0,08
1,00


3.2. Histograma
Histograma é o gráfico da distribuição
de freqüência que ilustra os resultados
obtidos da matriz e da folha dos
resultados. Um gráfico comunica a
informação mais facilmente que a análise
numérica. Vendo o gráfico pode-se contar
diretamente os dados em cada intervalo de
classe e determinar o centro e o
espalhamento dos dados da distribuição.
O histograma é um gráfico de barras
que mostra os resultados da análise da
distribuição da freqüência, comprimindo os
dados em grupos lógicos.
O eixo horizontal dos x (abcissa) mostra
os intervalos das classes e o eixo vertical
dos y (ordenada) mostra a freqüência,
absoluta ou relativa. Cada intervalo de
classe tem um limite inferior e um limite
superior. Geralmente o menor limite da
primeira classe é abaixo do primeiro
número e o limite maior da última classe é
acima do último número da matriz.
3.3. Significado metrológico
Quando se tem n medições, pode-se
quantizar estes n resultados em valores
iguais ou dentro de uma classe de largura
∆x. Plotando a freqüência das ocorrências
(número de medições dentro das faixas) e
os valores das medições, obtém-se um
histograma, ou gráfico com barras. É
interessante observar os tamanhos destas
barras: no centro da curva estão as
maiores freqüências correspondendo a
valores próximos da média das medições.
Ou seja, as medições se distribuem em
torno do valor médio das medições, com
maior quantidade de medições próximas
da média e com poucas medições longe
das médias.
Aumentando o número de medições e
diminuindo a largura da faixa, o histograma
se aproxima de uma curva continua,
chamada de função de distribuição da
densidade da probabilidade das amplitudes
da medição de x.
Quando os erros são puramente
aleatórios, os resultados das n medições
sucessivas são espalhados em torno do
valor verdadeiro, com a metade dos
resultados acima e a outra metade abaixo
do valor verdadeiro . Este valor verdadeiro
é também chamado de valor médio.
Exemplo
Sejam os 50 dados replicados obtidos
na calibração de uma pipeta de 10 mL
(Tab. 2.6)..

Tab. 2.6. Dados da pipeta de 10 mL

Dado
#
Volume
, ml
Dado
#
Volume,
ml
Dado
#
Volume,
ml
1 9,988 18 9,975 35 9,976
2 9,973 19 9,980 36 9,990
3 9,986 20 9,994 37 9,988
4 9,980 21 9,992 38 9,971
5 9,975 22 9,984 39 9,986
6 9,982 23 9,981 40 9,978
7 9,986 24 9,987 41 9,986
8 9,982 25 9,978 42 9,982
9 9,981 26 9,983 43 9,977
10 9,990 27 9,982 44 9,977
11 9,980 28 9,991 45 9,986
12 9,989 29 9,981 46 9,978
13 9,978 30 9,968 47 9,983
14 9,971 31 9,985 48 9,980
15 9,982 32 9,977 49 9,983
16 9,983 33 9,976 50 9,979
17 9,988 34 9,983

Estatística da Medição

34
A partir destes dados foram encontrados:
Volume médio = 9,982 ml
Volume mediano = 9,982 ml
Afastamento = 0,025 ml
Desvio padrão = 0,0056 ml
A partir dos dados da Tab.2.6, pode-se
elaborar uma outra tabela (Tab. 2.7)
mostrando a distribuição da freqüência
usando-se células com largura de 0,003
mL e calculando-se a percentagem de
medições caindo em cada célula. Nota-se
que 26% dos dados residem na célula
contendo a média e a mediana de 9 982
mL e que mais da metade dos dados estão
dentro de +- 0,004 mL.
Tab. 2.7. Freqüência dos dados da Tab.
2.6

Faixa volume,
mL
Número na
faixa
% na
faixa
9 969 a 9 971 3 6
9.972 a 9 974 1 2
9 975 a 9977 7 14
9 978 a 9980 9 18
9 981 a 9983 13 26
9 984 a 9 986 7 14
9 987 a 9 989 5 10
9 990 a 9 992 4 8
9 993 a 9 995 1 2


Os dados da distribuição da freqüência
da Tab. 7 podem ser plotados em um
gráfico de barras ou histograma. Pode-se
perceber que quando o número de dados
medidos aumenta, o histograma se
aproxima da curva contínua da distribuição
normal, gerada com um número infinito de
dados.
4. Médias
Os dados podem ser reduzidos a um
único número, para fins de comparação. A
média ou valor médio é o mais
representativo de um conjunto de dados ou
medições. A média é o valor esperado de
uma quantidade medida do conjunto das
medições tomadas. Valor esperado não é
o valor mais provável. A média tende a
ficar no centro dos dados quando eles são
arranjados de acordo com as magnitudes e
por isso a média é também chamada de
tendência central das medidas. Quanto
maior o número de medições feitas, melhor
será o resultado. O valor médio é a
expectativa matemática do conjunto dos
dados.
Nas distribuições formadas pelos dados,
quase sempre há uma tendência central
destes dados. Esta tendência central, em
torno da qual os dados se agrupam pode
ser medida por algum tipo de média. As
médias típicas são: média aritmética,
ponderada, eficaz, geométrica, harmônica,
mediana e moda.

















Fig. 2.2. Histograma da Tab. 2.7


4.1. Média Aritmética
A média mais usada é a aritmética, que
é calculada matematicamente como a
soma de todas as medidas de um conjunto
dividida pelo número total de medidas. A
média aritmética de um conjunto de
medidas é dada por:

x x
x x x
n
m
n
= =
+ + +
1 2
...

onde
x
m
= x = valor médio ou a média
x
1
, x
2
, ... x
n
= valor de cada medição
n = número de leituras.
Também pode se escrever, de modo
abreviado:

x
x
n
m
i
i
n
=
=

1


Estatística da Medição

35
Diz-se que a média é a somatória dos
valores de x, começando de i igual a 1 e
terminando em n dividido por n. Σ é a letra
grega Sigma.
É comum denotar a média como x (diz-
se x barra), porém este símbolo é difícil de
se obter em datilografia e por isso também
se usa x
m
.
Quando se tem uma população com o
número muito grande de dados (n tende
para infinito), o símbolo da média é
expresso como:

µ = → ∞
=

x
n
i
i
n
1
com n

Através do conceito dos mínimos
quadrados do erro pode-se demonstrar
matematicamente que a média aritmética é
a melhor estimativa do valor verdadeiro de
um dado conjunto de medições.
O instrumentista deve sempre fazer de
duas a cinco replicações de uma medição.
Os resultados individuais de um conjunto
de medições são raramente os mesmos e
usa-se a média ou o melhor valor para o
conjunto. O valor médio central é sempre
mais confiável do que qualquer resultado
individual. A variação nos dados deve
fornecer uma medida da incerteza
associada com o resultado central. A
média serve como o valor central para um
conjunto de medições replicadas.
A média de dados aleatórios não é mais
aleatória mas é determinística. Por
exemplo, a média das somas dos pontos
obtidos pelo lançamento de dois dados é
um número determinado igual a 7.
O valor médio tem as seguintes
propriedades matemáticas práticas e úteis
à metrologia:
1. a média é a melhor estimativa para um
conjunto de medições disponíveis.
2. a média tem a mesma dimensão das
medições e fica entre os valores
mínimo e máximo das medições.
3. quando se multiplica uma variável
aleatória por uma constante, sua média
será multiplicada pela mesma
constante.
4. a média da soma de duas variáveis
aleatórias é a soma de suas médias.
5. se uma constante é somada à variável
aleatória, a mesma constante é
somada ao seu valor médio.
6. a média do produto de duas variáveis
aleatórias independentes é igual ao
produto de seus valores médios.
7. mesmo que a distribuição dos valores
seja simétrica, a distribuição da área
não é simétrica, pois, se 5 está no meio
de 0 e 10, mas 5
2
não está no meio de
0
2
e 10
2
.
Exemplo
As medições do valor do resistor dão:
52,3 Ω 51,7 Ω
53,4 Ω 53,1 Ω
80,0 Ω
O valor médio destas medições,
desprezando o valor de 80,0 Ω que é
grosseiro, vale 52,6 Ω.
R
m
=
+ + +
=
52 3 517 53 4 531
4
52 6
, , , ,
, Ω
4.2. Raiz da Soma dos Quadrados
Quando se tem dados com sinais
positivos e negativos e as suas influências
se somam, não se pode tirar a média
aritmética pois a soma algébrica dos dados
cancelam seus valores. Por isso, inventou-
se a média Raiz quadrada da Soma dos
Quadrados (RSQ), que é dada pela
expressão:

X x x x
RSQ n
= + + + ( ... )
1
2
2
2 2


Em metrologia, esta relação matemática
(algoritmo) é a mais usada para determinar
o erro final resultante de vários erros
componentes aleatórios e independentes
entre si.
Em estatística, o desvio padrão (σ) é
calculado através de uma relação que
também envolve a raiz quadrada da soma
dos quadrados dos desvios de cada
medição (d
i
). Tem-se

σ =
+ + + ( ... ) d d d
n
n 1
2
2
2 2

Estatística da Medição

36
5. Desvios
Como ocorre com as médias, há
também vários tipos de desvios, embora o
mais usado seja o desvio padrão.
5.1. Dispersão ou Variabilidade
A medida do ponto central isolado não
dá uma descrição adequada dos dados
experimentais. Deve-se considerar
também a variabilidade ou espalhamento
dos dados. Por exemplo, se alguém tem os
pés na geladeira e a cabeça no forno,
pode-se dizer que a média da temperatura
é boa, mas a sensação será horrível, por
causa da grande faixa de espalhamento
entre as duas temperaturas.
Por isso foram desenvolvidos outros
parâmetros importantes de dados
experimentais associados ao grau de
espalhamento do conjunto de dados, como
faixa, desvio médio, variância, desvio
padrão, coeficiente de variação, desvio
padrão ajustado.
5.2. Faixa (Range)
A faixa ou espalhamento de um
conjunto de dados é a diferença entre o
maior e o menor valor do conjunto. A faixa
é o modo mais simples para representar a
dispersão dos dados. As desvantagens
associadas com a faixa como medida da
dispersão são:
1. ela se baseia somente na dispersão
dos valores extremos,
2. ela deixa de fornecer informação
acerca do ajuntamento ou dispersão dos
valores observados dentro dos dois valores
extremos.
Mesmo assim, ela é empregada para se
ter uma idéia aproximada da extensão dos
valores espalhados dos dados disponíveis.
Ela é fundamental nas cartas para o
controle estatístico dos dados.
Por exemplo, para um conjunto de
medições de um comprimento, em mm,

194, 195, 196, 198, 201, 203

o espalhamento é igual a 203 - 194 = 9
mm.
O desvio padrão para conjuntos com
pequeno número de dados (N) pode ser
rapidamente estimado multiplicando-se a
faixa por um fator k (Tab. 2.8).
No conjunto anterior, o desvio padrão
estimado pelo fator k da tabela (N = 6) é
igual a 9 x 0,38 = 3,5. O desvio padrão
calculo de modo convencional é igual a
3,6.

Tab. 2.8. Fatores para estimar desvio padrão

N k
2 0,89
3 0,59
4 0,49
5 0,43
6 0,39
7 0,37
8 0,35
9 0,34
10 0,32

5.3. Desvio do Valor Médio
O desvio é a diferença entre cada
medida e a média aritmética. O desvio do
valor médio indica o afastamento de cada
medição do valor médio. O valor do desvio
pode ser positivo ou negativo. Os desvios
das medidas x
1
, x
2
, ... x
n
da média
aritmética x
m
são:
d
1
= x
1
- x
m

d
2
= x
2
- x
m

...
d
n
= x
n
- x
m


Teoricamente, a soma algébrica de
todos os desvios de um conjunto de
medidas em relação ao seu valor médio é
zero. Na prática, nem sempre ele é zero,
por causa dos arredondamentos de cada
desvio.
Para as medições da resistência acima,

R
i
R
m
d
i

52,3 52,6 -0,3
51,7 52,6 -0,9
53,4 52,6 +0,8
53,1 52,6 +0,5

Onde
R
i
é o valor de cada resistência
R
m
é o valor médio das resistências
d
i
é o desvio de cada resistência
Estatística da Medição

37
A soma dos desvios não deu zero pois
há um erro de arredondamento, pois a
média é de 52,63 aproximado para 52.6.
5.4. Desvio Médio Absoluto
O grau de espalhamento em torno do
valor médio é a variação ou dispersão dos
dados. Uma medida esta variação é o
desvio médio. O desvio médio pode
fornecer a precisão da medição. Se há um
grande desvio médio, é uma indicação que
os dados tomados variam largamente e a
medição não é muito precisa.
O desvio médio é a soma dos valores
absolutos dos desvios individuais, dividido
pelo número de medições. Se fosse
tomada a soma algébrica, respeitando os
sinais, e não havendo erros de
arredondamento, a soma seria zero.
O desvio médio absoluto é dado por:

| | | | | |
n
x ... x x
D
n 2 1
+ + +
=
Exemplo
De novo, a resistência acima
R
i
R
m
d
i

52,3 52,6 -0,3
51,7 52,6 -0,9
53,4 52,6 +0,8
53,1 52,6 +0,5

O desvio médio absoluto é calculado
tomando-se os d
i
em valor absoluto
(positivo)

D =
+ + +
= ≈
0 3 0 9 0 8 0 5
4
0 67 0 7
, , , ,
, , Ω
Para distribuições simétricas de
freqüência, há uma relação empírica entre
o desvio médio e o desvio padrão como:
desvio médio =
4
5
(desvio padrão)
5.5. Desvio Padrão da População
O desvio médio de um conjunto de
medições é somente um outro método
para determinar a dispersão do conjunto
de leituras. O desvio médio não é
matematicamente conveniente para
manipular as propriedades estatísticas pois
sua soma geralmente se anula e por isso o
desvio padrão é mais adequado e útil para
expressar a dispersão dos dados.
O desvio padrão de uma população, σ,
é calculado raiz quadrada da média dos
quadrados dos desvios individuais. Tem-se

σ
µ
=


( ) x
n
i
2


onde
(x
i
- µ) é o desvio da média da i
a

medição.
n é o número de dados da população
total.
O desvio padrão pode expressar a
precisão do instrumento que fornece o
conjunto de medições. Quando o desvio
padrão (σ) é pequeno, a curva da
probabilidade das amplitudes é estreita e o
valor de pico é grande e as medições são
feitas por um instrumento muito preciso.
Quando o desvio padrão (σ) é grande, a
curva da probabilidade das amplitudes é
larga e o valor de pico é pequeno e as
medições são feitas por um instrumento
pouco preciso. Em qualquer caso, a área
sob a curva é igual a 1, pois a soma das
probabilidades é igual a 1.
5.6. Desvio Padrão da Amostra
O desvio padrão da amostra com
pequeno número de dados (n ≤ 20 ou para
alguns, n < 30) ou desvio padrão ajustado
é dado por:

) 1 n (
) x x (
s
n
1 i
2
i


=

=


Usa-se o denominador (n - 1) por que
agora se tem (n - 1) variáveis aleatórias e a
n
a
é determinada.
O desvio padrão usado para medir a
dispersão dos dados sobre de uma lacuna
que é sua polarização quando o número de
dados é pequeno. Por exemplo, quando se
tem somente uma medida, o valor do
desvio se reduz a zero. Isto implica que a
medição não tem dispersão e como
conseqüência, não tem nenhum erro.
Obviamente este resultado é altamente
Estatística da Medição

38
polarizado, quando se toma somente uma
medição nos cálculos. Quando se tomam
duas ou mais medições, a polarização no
paramento diminui progressivamente até
se tornar desprezível para n grande.
Assim, o valor do desvio padrão é ajustado
para dar uma estimativa não polarizada da
precisão. Isto é conseguido dividindo-se a
soma dos quadrados dos desvios por (n -
1) em vez de n. Diz-se que (n-1) é o
número de grau de liberdade e n é o
número total de observações. O número de
graus de liberdade se refere ao número de
dados independentes gerados de um dado
conjunto e usados na computação.
Um conjunto com duas medições tem
somente uma entrada útil com relação a
estimativa da dispersão em torno da média
da população, por que o conjunto deve
fornecer informação acerca da dispersão e
acerca da média. Assim, uma amostra de
dois dados fornece só uma observação
independente com relação à dispersão.
Para uma amostra de 10 dados, pode-se
ter 10 desvios. Porém, somente 9 são
independentes, por que o último pode ser
deduzido do fato que a soma dos desvios é
igual a zero. Assim, um conjunto de n
dados fornece
(n - 1) observações independentes com
relação ao desvio padrão da população.
De um modo mais geral ainda, tem-se (n -
m) graus de liberdade em um conjunto com
n dados e m constantes.
Na população, quando m é
desconhecido, duas quantidades podem
ser calculadas de um conjunto cm n dados
replicados, x e s. Um grau de liberdade é
usado para calcular x , porque, retendo os
sinais dos desvios, a soma dos desvios
individuais deve ser zero. Assim,
computados (n - 1) desvios, o último desvio
(n
o
) fica conhecido. Como conseqüência,
somente
(n - 1) desvios fornecem medida
independente da precisão do conjunto de
medições. Em pequenas amostras (n <
20), quando se usa n em vez de
(n - 1) para calcular s, obtém-se um valor
menor do que o verdadeiro.
O desvio padrão das medições da
resistência é de 0,8 Ω. Como ainda será
visto, o valor da resistência deve estar
entre o valor médio e uma tolerância de n
desvios padrão. O n está relacionado com
o nível de probabilidade associado. Assim,
o valor da resistência é de 51,6 ± 0,8 (1s)
Ω, com 68% de probabilidade ou 51,6 ± 1,6
(2s) Ω com 95% de probabilidade.
5.7. Fórmulas Simplificadas
Ás vezes, é mais cômodo e rápido
calcular os desvios padrão da população e
da amostra com fórmulas que envolvem
somente a computação de x
i
2
, x
i
2

e
x
i ∑
. Estas fórmulas são:

( )
σ
2
=

∑ ∑
( ) / x x n
n
i i
2
2


( )
s
x x n
n
i i
2
2
2
1
=


∑ ∑
( ) /

5.8. Desvios da população e da
amostra
Como o desvio padrão da população
envolve n e o desvio padrão da amostra
envolve (n - 1), obtém-se facilmente a
relação entre os dois desvios, como
s
n
n
=

×
1
σ
onde o fator
n
n −1
é conhecido como
fator de correção de Bessel.

Quando n aumenta, o fator de Bessel se
aproxima de 1, e o s se iguala a σ. Na
prática, para n ≥ 20, pode-se considerar s
igual a σ. O desvio padrão da amostra é
também chamado de desvio padrão
ajustado.
5.9. Desvio padrão de operações
matemáticas
Para uma soma ou diferença, o desvio
padrão absoluto da operação é a raiz
quadrada da soma dos quadrados dos
desvios padrões absolutos individuais dos
números envolvidos na soma ou
subtração. Ou seja, na computação de

y a s b s c s
a b c
= ± + ± − ± ( ) ( ) ( )

Estatística da Medição

39
o desvio padrão do resultado é dado
por:

s s s s
y a b c
= + +
2 2 2


Para a multiplicação e divisão, o desvio
padrão relativa da operação é a raiz
quadrada da soma dos quadrados dos
desvios padrão relativos dos números
envolvidos na multiplicação e divisão. Ou
seja, na computação de

y
a b
c
=
×


o desvio padrão relativo a y vale

s
y
s
a
s
b
s
c
y
a b c
=
|
\

|
.
|
+
|
\

|
.
|
+
|
\

|
.
|
2 2 2

5.10.Coeficiente de variação
Define-se como desvio padrão relativo a
divisão do desvio padrão absoluto pela
média do conjunto de dados. O desvio
padrão relativo é geralmente expresso em
ppm (parte por mil), multiplicando-se esta
relação por 1000 ppm ou em percentagem,
multiplicando-se a relação por 100%. O
coeficiente de variação (CV) é definido
como o desvio padrão relativo multiplicado
por 100%:
Como o valor médio está no
denominador, não de pode usar o
coeficiente de variação quando o valor
médio se aproxima de zero.

CV (%) =
desvio padrão
valor médio
×100%

CV = ×
σ
µ
100% , para toda a população
CV
s
x
= ×100%, para uma amostra

O coeficiente de variação é mais
conveniente que o desvio padrão absoluto
para medir a dispersão relativa de um
conjunto de medições. Quando se quer
comparar a variação de dois conjuntos
separados de dados onde as unidades de
medição não são as mesmas ou quando
as unidade são as mesmas mas as
variações são muito grandes.
Por exemplo, se uma amostra contem
cerca de 50 mg de cobre e o desvio padrão
é de 2 mg, o coeficiente de variação (CV)
para esta amostra é de 2 mg/50 mg x
100%, ou seja, 4%. Para uma amostra
contendo 10 mg, o CV é de 20%.
5.11. Desvio Padrão Das Médias
Os números calculados da distribuição
da percentagem se referem ao erro
provável de uma única medição. Quando
se fazem n séries de medições replicadas,
cada uma com N dados, e acham-se as
médias de cada conjunto, estas médias
também se espalham em torno de um valor
médio e este espalhamento pode também
ser expresso por um desvio padrão,
chamado de desvio padrão das médias.
O desvio padrão da média de cada
conjunto é chamado de erro padrão da
média e é inversamente proporcional à raiz
quadrada do número de séries replicadas
de medições com N dados (N ≥ 20).
σ
σ
=
n


De um modo análogo, tem-se para uma n
amostras com N dados (N ≤ 20),

s
s
n
=

O desvio padrão das médias é uma
melhor estimativa da incerteza interna e é
chamado também de erro padrão interno.
Pode-se notar que a distribuição normal
das medições de uma amostra tem menor
precisão que a correspondente distribuição
normal da amostra das médias da
população. A distribuição normal das
médias tem um formato mais estreito e um
pico maior que a distribuição normal de
uma amostra.
Estatística da Medição

40












Fig. 2.3. Desvio padrão das médias


Deve-se ter o cuidado para não
confundir os números envolvidos. É
possível ter um conjunto com N dados
(base de cálculo do desvio padrão do
universo),
σ
µ
=

=

( ) x
N
i
i
N
2
1


dos quais se tira uma amostra com k
dados (base de cálculo do desvio padrão
da amostra)

s
x x
k
i
i
k
=


=

( )
( )
2
1
1


e se tira a média de um n conjuntos de
dados (base de cálculo para o desvio
padrão das n médias).

s
s
n
=
5.12. Variância
A variância (V) é simplesmente o
quadrado do desvio padrão (s
2
). A
variância também mostra a dispersão das
medições aleatórias em torno do valor
médio.
A unidade da variância é o quadrado da
unidade das quantidades medidas.
A variância (s
2
) é definida para
população muito grande (essencialmente
infinita) de medições replicadas de x.
Tem-se

σ
2
2
1
=

=

( ) x x
n
i
i
n

para grandes populações (n > 20) e onde n
é o grau de liberdade da população.
Tem-se, para pequenas populações (n <
20)

s
x x
n
i
i
n
2
2
1
1
=


=

( )
( )


Enquanto a unidade do desvio padrão é
a mesma dos dados, a variância tem a
unidade dos dados ao quadrado. Mesmo
com esta desvantagem, a variância possui
as seguintes vantagens:
1. ela é aditiva,
2. ela não tem os problemas
associados com os sinais algébricos
dos erros,
3. ela emprega todos os valores dos
dados e é sensível a qualquer
variação no valor de qualquer dado,
4. ela é independente do ponto central
ou do valor médio, por que ela usa os
desvios em relação ao valor médio,
5. seu cálculo é relativamente mais
simples.
Estatística da Medição

41
Exemplo
Sejam os dados obtidos de uma análise:

Tab. 2.9. Dados da análise química
x
i
ppm Fe
x x
i

( ) x x
i

2

x
1
19,4 0,38 0,1444
x
2
19,5 0,28 0,0784
x
3
19,6 0,18 0,0324
x
4
19,8 0,02 0,0004
x
5
20,1 0,32 0,1024
x
6
20,3 0,52 0,2704

Efetuando-se os cálculos, chega-se a
x
i ∑
= 118,7

( ) x x
i


2
= 0,6284
Média
x = 118,7/6 = 19,78 ppm Fe
Desvio padrão
s =
i
x
Variância
s
2
= 0,35
2
= 0,13 (ppm Fe)
2

Desvio padrão relativo
x
i
= ppt 18 9 , 17 1000
78 , 19
354 , 0
≈ = ×
Coeficiente de variação
x
i
=
0 354
19 78
100% 179 18%
,
,
, , × = ≈
Erro absoluto
Assumindo que o valor verdadeiro da
amostra seja de 10,00 ppm Fe:

19,78 - 20,00 = 0,011 ppm Fe
Erro relativo
% 100
00 , 20
00 , 20 78 , 19
×

= -1,1%
6. Distribuições dos dados
6.1. Introdução
A determinação de probabilidades
associadas com eventos complexos pode
ser simplificada com a construção de
modelos matemáticos que descrevam a
situação associada com um evento
particular específico. Estes modelos são a
distribuição da probabilidade ou função
probabilidade. A distribuição da
probabilidade pode ser calculada a partir
de dados de amostra retirada da
população e também teoricamente.
Por causa de suas características, a
distribuição da probabilidade está
relacionada com as distribuições de
freqüência. Porém, na distribuição de
freqüência, as freqüências são números
observados de eventos ocorridos e na
distribuição da probabilidade, a freqüência
é derivada da probabilidade de eventos
que podem ocorrer.
6.2. Parâmetros da Distribuição
A distribuição das freqüências mostra os
dados em formas e formatos comuns. Os
números tem uma tendência de se agrupar
e mostrar padrões semelhantes. Estes
padrões podem ser identificados, medidos
e analisados. Na análise dos dados de
uma distribuição de freqüências há quatro
parâmetros importantes: tendência central,
dispersão, assimetria e kurtosis
Tendência central
A tendência central é a característica
que localiza o meio da distribuição. A
tendência central natural é a média dos
pontos. As curvas podem ter diferentes
simetrias e dispersões, mas a mesma
tendência central. Também, pode-se ter
curvas com a mesma simetria e mesma
dispersão, mas com diferente tendência
central.
Dispersão
Dispersão é a característica que indica
o grau de espalhamento dos dados. A
dispersão é também chamada de variação.
Estatística da Medição

42
Assimetria (Skewness)
Skewness é a característica que indica
o grau de distorção em uma curva
simétrica ou o grau de assimetria. Uma
curva simétrica possui os lados direito e
esquerdo da lei de centro iguais. Os dois
lados de uma curva simétrica são imagens
espelhadas de cada lado. Uma curva se
distorce para a direita quando a maioria
dos valores estão agrupados no lado
direito da distribuição.
Curtose (Kurtosis)
A curtose (kurtosis) é a característica
que descreve o pico em uma distribuição.
É uma medida relativa para comparar o
pico de duas distribuições. Uma maior
curtose significa um pico maior de
freqüência relativa, não maior quantidade
de dados.
Há três classes de curtose: platicúrtica
(curva plana e esparramada), leptocúrtica
(curva com pico estreito e alto) e
mesocúrtica (intermediária entre as duas
outras).
6.3. Tipos de distribuições
Há três distribuições de probabilidade
usadas:
1. binomial
2. retangular
3. normal.
Distribuição Binomial
A distribuição binomial se refere a
variáveis discretas e se aplica,
principalmente, à contagem de eventos,
onde as duas saídas possíveis podem ser
sucesso ou falha, peça normal ou
defeituosa.
Sendo
n o número de tentativas,
p a probabilidade de sucesso em cada
tentativa,
q a probabilidade de falha em cada
tentativa,
P(x) a probabilidade de se obter x
sucessos,

P x C p q
x
n x n x
( ) ( )( ) =



onde
)! x n ( ! x
! n
C
n
x

=

C
x
n
é a combinação de n elementos
tomados x vezes
n! é o fatorial de n, n! = n.(n-1)(n-2)...3.2.1
Para evitar os enfadonhos cálculos,
principalmente quando n for grande, pode-
se usar tabelas disponíveis na literatura
técnica, onde se determina P(x) a partir de
n, x.
Distribuição Retangular
Na distribuição retangular os valores
possíveis são igualmente prováveis. Uma
variável aleatória que assume cada um dos
n valores, x
1
, x
2
, ...,x
n
com igual
probabilidade de 1/n.
Em metrologia, os erros sistemáticos
possuem distribuição retangular de
probabilidade. Para qualquer valor da
medição, ele é constante.









Fig. 2.4. Distribuição retangular
6.4. Distribuição normal ou de Gauss
Conceito
A distribuição normal é uma distribuição
contínua de probabilidade, fundamental
para a inferência estatística e análise de
dados. Sua importância vem dos seguintes
fatos:
1. muitos fenômenos físicos e muitos
conjuntos de dados seguem uma
distribuição normal. Por exemplo, as
distribuições de freqüência de
alturas, pesos, leituras de
instrumentos, desvios em torno de
valores estabelecidos seguem a
distribuição normal.
2. pode-se mostrar que várias
estatísticas de amostras (como a
média) seguem a distribuição normal,
mesmo que a população de onde
1/A
A
Estatística da Medição

43
foram tiradas as amostras não seja
normal.
3. mesmo a distribuição binomial tende
para a distribuição normal, quando o
número de dados aumenta muito. E
os cálculos relacionados com a
distribuição binomial são muito mais
complexos que os empregados pela
distribuição normal.
4. a distribuição normal possui
propriedades matemáticas precisas e
idênticas para todas as distribuições
normais.



Fig. 2.5. Distribuição normal ou de
Gauss

Relação matemática
Quando se tem uma variável continua, a
função distribuição normal ou função de
Gauss tem a seguinte expressão
matemática, envolvendo os números
naturais 2, π e exponencial de e:
(
(
¸
(

¸

|
.
|

\
|
σ
µ −

π σ
=
2
x
2
1
exp
2
1
) x ( F


A expressão matemática para uma
amostra pequena, tem-se:
F x
s
x x
s
( ) exp = −
− |
\

|
.
|

¸

(
¸
(
(
1
2
1
2
2
π


Quando a variável for discreta, pode-se
construir a curva a partir dos dados. No
eixo x, colocam-se os valores dos dados
divididos em classes e no eixo y, o número
de vezes que aparecem os dados. Quando
o número de dados é muito grande
(tendendo para infinito) e sujeito somente
às variações aleatórias, os dados
produzidos caem dentro da curva de
distribuição normal. Os erros aleatórios de
uma medição formam uma distribuição
normal por que eles resultam da
superposição mútua de uma grande
quantidade de pequenos erros
independentes que não podem ser
considerados separadamente.
Características
O formato de uma curva de distribuição
de probabilidade normal é simétrico e
como um sino. A curva de distribuição
deve ter as seguintes características:
1. simétrica em relação à média,
indicando que os erros negativos de
determinado valor são igualmente
freqüentes quanto os positivos,.
2. formato mostrando que ocorreram
muitos desvios pequenos e poucos
desvios grandes,
3. valor de pico máximo igual ao valor
verdadeiro (exata) ou distante (não
exata).
4. pontos de inflexão da curva são
x x = ± σ
5. por causa da simetria da curva, a
mediana é igual à média e como a
média ocorre no pico da densidade
de probabilidade, ele também
representa a moda. Tem-se média =
moda = mediana.
6. o eixo x é uma assíntota da curva.
7. quando normalizada, a área total sob
a curva é igual a 1 englobando 100%
dos eventos.
8. para o mesmo valor médio, a
distribuição tem um pico estreito para
pequenos valores do desvio padrão e
é larga para grandes valores do
desvio padrão. Como a área é
sempre igual a 1, quando o formato
for mais estreito, o pico é maior.
9. a equação do valor máximo da
densidade de probabilidade vale:

{ }
p x
max
( )
,
= =
1
2
0 399
πσ
σ


10. a probabilidade que o valor médio x
fique entre um intervalo de x
1
e x
2
é a área
debaixo da curva distribuição neste
intervalo.
Estatística da Medição

44
Aplicações
Pode-se determinar a probabilidade de
as medições replicadas caírem dentro de
determinada faixa em torno da média. Esta
probabilidade serve como medida da
confiabilidade da medição em relação aos
erros aleatórios. Os limites de confiança
servem para definir a faixa do erro
aleatório da medição.
Para estabelecer se os erros aleatórios
ou desvios se aproximam da distribuição
de Gauss, são feitos testes de
homogeneidade. Estes testes fornecem
meios para
1. detectar se as diferenças entre os
conjuntos de medições são devidas a
uma razão real (sistemática) ou
aleatória,
2. detectar uma chance em um
característica de distribuição,
3. avaliar as diferentes medições,
distinguindo as mais e menos
confiáveis,
4. distinguir os erros dependentes e
correlatos.
Área Sob a Curva de Erro Normal
A área total sob a curva de distribuição
normal é 1, entre os limites -∞ e +∞ pois
todos os resultados caem dentro dela.
Independente de sua largura, tem-se
68,3% da área sob a curva do erro normal
fica dentro de um desvio padrão (±σ) a
partir da média. Ou seja, 68,3% dos dados
que formam a população ficam dentro
destes limites. Do mesmo modo, 95,5% de
todos os dados caem dentro dos limites de
±2σ da média e 99,7% caem dentro de ±
3σ.

Tab. 2.10 Limites para grandes populações
Limites Percentagem Probabilidade
±0,67σ
50,0 0,500
±1,00σ
68,3 0,683
±1,29σ
80,0 0,800
±1,64σ
90,0 0,900
±1,96σ
95,0 0,950
±2,00σ
95,4 0,954
±2,58σ
99,0 0,990
±3,00σ
99,7 0,997


Por causa destas relações de área, o
desvio padrão de uma população de dados
é um ferramenta útil de previsão. Por
exemplo, pode-se dizer há uma
probabilidade de 68,3% que a incerteza de
qualquer medição isolada não seja maior
que ±1σ. Do mesmo modo, a chance é de
95,5% que o erro seja menor que ±2σ.


Fig.2. 6. Limites da distribuição


Estatística da Medição

45
Distribuição Normal, Precisão e
Exatidão
A análise do formato da curva de
distribuição normal das medições pode
mostrar a distinção entre exatidão e
precisão. As medições de um instrumento
muito preciso, quando pilotadas, dão uma
curva de distribuição estreita e com o pico
grande. As medições de um instrumento
pouco preciso dão uma curva de
distribuição larga e com o pico pequeno.
Quando a largura aumenta, o valor do pico
deve diminuir, porque a área sob a curva é
igual a 1.
As medições muito exatas de um
instrumento, quando pilotadas, dão uma
curva de distribuição com o valor médio
próximo do melhor valor estimado. Ou
seja, a soma dos quadrados dos desvios
dos dados de seus valores estimados é
mínimo (princípio dos mínimos quadrados).
Quando as medições são pouco exatas, a
sua curva de distribuição tem o valor médio
distante do melhor valor estimado. Ou seja,
a soma dos quadrados dos desvios dos
dados de seus valores estimados é maior
que o mínimo.
Deste modo é possível ter quatro
combinações de boa, ruim, precisão e
exatidão.
As medições são muito exatas e o
instrumento é muito preciso quando a
curva é estreita, o pico é elevado e o valor
médio é igual (ou próximo) do valor
verdadeiro.




Não preciso e não exato Não preciso e exato

Fig.2. 7. - Exatidão
As medições são pouco exatas e o
instrumento é muito preciso quando a
curva é estreita, o pico é elevado e o valor
médio é distante do valor verdadeiro.
As medições são muito exatas e o
instrumento é pouco preciso quando a
curva é larga, o pico é baixo e o valor
médio é igual (ou próximo) do valor
verdadeiro.
As medições são pouco exatas e o
instrumento é pouco preciso quando a
curva é larga, o pico é baixo e o valor
médio é distante do valor verdadeiro.




Preciso e não exato Preciso e exato

Fig.2. 8. Precisão


Distribuição Normal e Erro Provável
Se um conjunto aleatório de erros em
torno de um valor médio é examinado,
acha-se que sua freqüência de ocorrência
relativa ao seu tamanho é descrita por uma
curva conhecida como a curva de Gauss
ou a curva do sino. Gauss foi o primeiro a
descobrir a relação expressa por esta
curva. Ela mostra que a ocorrência de
pequenas desvios aleatórios da média são
muito mais prováveis que grandes desvios.
Ela também mostra que estes grandes
desvios são muito improváveis.
O desvio padrão de uma distribuição
normal
1. mede o espalhamento da medição
em uma dada entrada
2. tem a mesma unidade da medição
3. é a raiz quadrada da média da soma
dos quadrados dos desvios de todas
as medições possíveis da média
aritmética verdadeira.
A curva também indica que os erros
aleatórios são igualmente prováveis serem
positivos e negativos. Quando se usa o
desvio padrão para medir o erro, pode-se
Estatística da Medição

46
usar a curva para determinar qual a
probabilidade de um erro ser maior ou
menor que um certo valor σ para cada
observação.
Pode-se calcular o erro provável quando
se tem apenas uma medição. Como o erro
aleatório pode ser positivo ou negativo, um
erro maior que 0,675σ é provável em 50%
das observações. Assim, o erro provável
de uma medição é

e = ± 0,675 σ

Assim, uma medição possui três partes:
1. um valor indicado
2. uma margem de incerteza ou erro ou
tolerância, que é o intervalo de confiança,
expresso em ±nσ, onde n é uma constante
e σ é o desvio padrão
3. uma probabilidade, que é a indicação
da confiança que se tem quanto ao erro
real estar dentro da margem de incerteza
escolhida; p. ex., 99,73% quando se
escolhe a margem de ±3σ.
Distribuição Normal Padrão
Existe uma infinidade de curvas e
funções distribuição normal, diferentes de
acordo com o valor da média central (µ) e
do desvio padrão (σ). O desvio padrão
para a população que produz a curva mais
larga e com menor pico (B) é o dobro do
desvio padrão da curva mais estreita com
o pico maior (A). O eixo dos x das curvas é
em afastamento da média em unidades de
medição (x - µ).
Plotando as mesmas curvas, porém
usando como abscissa o desvio da média
em múltiplos de desvio padrão [(x-µ)/σ]
obtém-se uma curva idêntica para os dois
conjuntos de dados.
Qualquer distribuição normal pode ser
transformada em uma forma padrão
(standard). Para fazer isso, a variável x é
expressa como o desvio de sua média µ e
dividida por seu desvio padrão σ, ou seja,
muda-se a variável x para outra variável z
dada por:
z
x
=
− µ
σ


Para uma amostra da população, tem-se

z
x x
s




A variável z é o desvio da média dado
em unidades de desvio padrão. Assim,
quando

(x - µ) = σ, z é igual a um desvio padrão;
Quando (x - µ) = 2σ, z é igual a dois
desvios padrão.
Quando se tem uma particular
destruição normal de uma variável
aleatória x, com uma dada média (µ) e
desvio padrão (σ), achar a probabilidade
de x cair dentro de um determinado
intervalo é equivalente a encontrar a área
debaixo da curva limitada pelo intervalo.
Porém, pode-se achar diretamente esta
área das tabelas de distribuição normal
padrão.
A curva da distribuição normal padrão
apresenta as seguintes propriedades:
1. A média ocorre no ponto central de
máxima freqüência e vale zero (µ = 0).
2. O desvio padrão é igual a 1 (σ = 1).
2. Há uma distribuição simétrica de
desvios positivos e negativos em torno da
média.
3. Há uma diminuição exponencial na
freqüência quando o valor dos desvios
aumenta, de modo que pequenas
incertezas são observadas muito mais
freqüentemente que as incertezas grandes.
A estatística z é normalizada e sua
expressão matemática vale

|
|
.
|

\
|

π
=
2
2
z
e
2
2
) z ( F
Estatística da Medição

47
7. Intervalos Estatísticos
O valor exato da média de uma
população de dados, µ, nunca pode ser
determinado exatamente por que tal
determinação requer um número infinito de
medições. O que se faz é tirar uma
amostra significativa da população, com n
dados (n > 20) e achar a média aritmética
dos dados desta amostra, µ. Na prática,
usa-se uma amostra com (n < 20) e tem-se
a média x . Nesta situação, a teoria
estatística permite estabelecer limites em
torno da média da amostra, x , e garantir
que a média da população, µ, caia dentro
destes limites com um dado grau de
probabilidade. Estes limites são chamados
de limites de confiança e o intervalo que
eles definem é conhecido como o intervalo
de confiança. Estes limites são
determinados multiplicando-se o desvio
padrão disponível (da população ou da
amostra) por um fator de cobertura, f, que
está associado com um grau de
probabilidade, P%. Os limites de confiança
definem um intervalo em torno da média da
amostra que provavelmente contem a
média da população total.
7.1. Intervalo com n grande (n > 20)
Quando se tem n > 20, a média das
medições é µ e o desvio padrão é σ. A
medição pode ser reportada como:

x f = ± µ σ (P%)

onde
x é o valor da medição
x é o valor médio das n medições
f é o fator de cobertura associado a P%
σ é o desvio padrão da população
P% é a probabilidade
Pode-se dizer, com uma probabilidade
de acerto de P% que a medição x se
encontra entre os limites:

µ- fσ < x < µ + fσ

Por exemplo, para uma probabilidade
de 95%, o fator de cobertura é 2. Isto
significa que quando se tem uma medição
com n replicações, (n > 20) com desvio
padrão σ e média µ, então a medição x
pode ser reportada como

x = ± µ σ 2 (95%)

ou

µ - 2σ < x < µ + 2σ (95°)

7.2. Intervalo com n pequeno (n < 20)
Quando a amostra tem um número
pequeno de dados, n < 20, a média µ se
torna x , o desvio padrão σ se torna s,
torna-se s. As equações passam para

x x fs = ± (P%)

ou

x - fs < x < x + fs

Para o exemplo de probabilidade de
95%, para a amostra (n ≤ 20) com média
x , a medição pode ser reportada como

x x s = ± 2 (95%)

x - 2s < x < x + 2s (95%)

7.3. Intervalo com n pequeno (n < 10)
Populações com n muito grande (n >
20) requerem muito tempo para a
computação de seus parâmetros e há uma
grande probabilidade de enganos nos
cálculos. É mais pratico e rápido trabalhar
com populações com número pequeno de
dados (n < 10), por exemplo 5 medições.
Foram desenvolvidos métodos científicos
para tornar mínimos os erros quando se
manipulam amostras com pequeno número
de dados.
Neste caso, o desvio padrão aumenta,
pois ele é inversamente proporcional a n, e
também a incerteza aumenta. Agora, o
fator de cobertura é dado pelo t do
Student, que é

x x ts = ±

ou
Estatística da Medição

48

x - ts < x < x + ts (P%)

t obtido de uma tabela que relaciona o seu
valor, a probabilidade associada e o
número de medições replicadas.
O parâmetro estatístico t é chamado de
t do Student, por que Student foi o
pseudônimo usado por W. S. Gosset,
quando ele escreveu o artigo clássico, t,
que apareceu na revista Biometrika, 1908,
Vol. 6, Nr. 1. Gosset era empregado da
Guinness Brewery e sua função era
analisar estatisticamente os resultados da
análise de seus produtos. Com o resultado
de seu trabalho, ele descobriu o famoso
tratamento estatístico de pequenos
conjuntos de dados. Para evitar problemas
com segredos profissionais, Gosset
publicou o papel sob o pseudônimo
Student.
A distribuição t-Student tem formato
semelhante ao da distribuição normal,
exceto que é mais achatada e se espalha
mais progressivamente para valores
pequenos de n. O teste t permite descobrir
se toda a variabilidade em um conjunto de
medições replicadas por ser atribuída ao
erro aleatório.
Os valores de t caem muito rapidamente
no início e depois caem lentamente.
Aumentar o número de replicações da
medição custa tempo e nem sempre o
ganho é significativo. O número
compromisso sugere três a quatro
replicações

Tab. 2.11. Tabela Resumida de t
ν t
50
t
90
t
95
t
99

1 1,00 6,31 12,71 63,66
2 0,82 2,92 4,30 9,92
3 0,76 2,35 3,18 5,84
4 0,74 2,13 2,78 4,60
5 0,73 2,02 2,57 4,03
6 0,72 1,94 2,45 3,71
7 0,71 1,90 2,36 3,50
8 0,71 1,86 2,31 3,36
9 0,70 1,83 2,26 3,25
10 0,70 1,81 2,23 3,17
15 0,69 1,75 2,13 2,95
20 0,69 1,72 2,09 2,84
30 0,68 1,70 2,04 2,75
60 0,68 1,67 2,00 2,66

0,68 1,64 1,96 2,58
ν = (n-1), grau de liberdade
α = (1 - intervalo de confiança)

onde
t
P
é o coeficiente de confiança, obtido
de tabelas, a partir do grau de liberdade (ν)
e da probabilidade (P%).
O grau de liberdade (ν) é dado por n-1,
onde n é o número de dados da amostra e
a probabilidade (P).
Por exemplo, para 5 replicações (grau
de liberdade 4), probabilidade de 95%, t
vale 2,78 (Tab. 2.11) e se tem

2,78 s < x < 2,78 s

7.4. Intervalo para várias amostras
Quando se tem n conjuntos de amostras
com N dados (N ≤ 20), então se obtém o
desvio padrão das médias ( s
x
) e o fator de
cobertura pode ser menor, porque o desvio
padrão das médias das amostras é mais
confiável que o desvio de apenas uma
amostra. Neste caso, divide-se o fator de
cobertura, f, por n . Por exemplo, para
probabilidade de P%, tem-se:

x f
s
n
x x f
s
n
x x
− < < + (P%)

Quando o número de dados de cada
amostra é pequeno, o fator de cobertura se
torna o t
P
do Student e tem-se:
Estatística da Medição

49
x x t
s
n
P
= ± (P%)

Exemplo
Para o conjunto de medições abaixo,
determinar:
1. média
2. desvio padrão estimado
3. desvio padrão relativo percentual
4. como os dados devem ser relatados
para um nível de 99% de confiança?

Medições Media Desvio
46,25 46,32 -0,07
46,40 46,32 +0,08
46,36 46,32 +0,04
46,28 46,32 -0,04

Respostas

1. Média

4
28 , 46 36 , 46 40 , 46 25 , 46
x
+ + +
=

2. Desvio padrão estimado

s = 0,0695

3. Coeficiente de variação

% 15 , 0 % 100
32 , 46
0695 , 0
CV = × =

4. Probabilidade de 99%, tem-se
α = 0,01
Grau de liberdade (4-1) = 3

Da tabela, tem-se

t = 5,84

Então o melhor valor da média é

20 , 0 32 , 46
4
0695 , 0 4 , 5
32 , 46 ± =
×
±
8. Conformidade das Medições
8.1. Introdução
Mesmo com métodos válidos,
instrumentos calibrados e procedimentos
cuidadosos, ainda há erros aleatórios e
longe da média. Não são sistemáticos nem
aleatórios, mas grosseiros. Um dado com
erro grosseiro é marginal (outlier). Quando
se encontra um erro marginal, deve-se:
1. retira-lo do conjunto de dados
2. identifica-lo
3. dar razões para sua rejeição ou
retenção, p. ex., por um teste Q.
Quando um conjunto de dados contem
um resultado marginal que difere
excessivamente da média, a decisão que
deve ser tomada é rejeitar ou reter o dado.
A escolha do critério para rejeitar um
resultado suspeito tem seus perigos. Se
estabelece uma norma rigorosa que torna
a rejeição difícil, corre-se o risco de reter
resultados que são espúrios e tem um
efeito indevido na média. Se estabelecem
limites indulgentes na precisão e torna fácil
a rejeição, provavelmente se jogará fora
medições que certamente pertencem ao
conjunto, introduzindo um erro sistemático
aos dados. Infelizmente, não existe uma
regra para definir a retenção ou rejeição do
dado.



Fig. 2.9. Pontos suspeitos ou outliers
Estatística da Medição

50
8.2. Teste Q
No teste Q, o valor absoluto (sem
considerar o sinal) da diferença entre o
resultado questionável e seu vizinho mais
próximo é dividido pela largura de
espalhamento do conjunto inteiro dá a
quantidade Qexp

Q
x x
w
q n
exp
=



Se Qexp > Qcrit, rejeite o dado
questionável.
Se Qexp < Qcrit, retenha o dado
questionável.
8.3. Teste do χ
2
(qui quadrado)
O teste de χ
2
(lê-se qui quadrado) é
usado para verificar se um fenômeno
observado se comporta como um modelo
esperado ou teórico. Por exemplo, ele
pode ser usado para comparar o
desempenho de máquinas ou outros itens.
A vida útil de lâmpadas, localizações da
linha de centro de furos em placas,
localizações de tiros de artilharia e missões
de bombardeio seguem a distribuição χ
2.

Quando se obtém um conjunto de
medições, assume-se que as medições
são uma amostra de alguma distribuição
conhecida, por exemplo, a normal. Para
comparar as diferentes partes da
distribuição observada, subdividem-se os
dados em um número de n classes e
determina-se a freqüência observada em
cada classe. Depois, estima-se a
freqüência esperada de cada classe,
assumindo que a distribuição está de
conformidade com a distribuição original,
por exemplo, a normal, através dos
seguintes passos:
1. calcule o valor médio e o desvio
padrão,
2. para cada intervalo da classe,
assuma uma variável normal padrão z
h
e
z
l
para os limites superior e inferior,
respectivamente,
3. da tabela da distribuição normal,
determine as probabilidades da função
entre (0 e z
h
) e (0 e z
l
).Os valores
dependem se é tomado apenas um lado ou
os dois lados da curva.
4. a soma dos valores acima dá a
probabilidade no dado intervalo, se o limite
superior estiver entre (0 e +∞) e o limite
inferior estiver entre (0 e -∞) e vice-versa.
A diferença dos valores acima dá a
probabilidade se os dois limites cairem ou
entre (0 e +∞) ou (0 e -∞),
5. multiplique a probabilidade da
distribuição em um dado intervalo de
classe pelo número total de observações
para obter a freqüência esperada de
ocorrências da variável neste intervalo,
6. como a soma das freqüências
esperadas em todas as classes não é
necessariamente igual ao numero total de
observações, pois os arredondamentos
devidos à interpolação na tabela das
probabilidades provocam pequenas
diferenças, usa-se um fator de correção
para fazer a soma das freqüências
esperadas igual ao número de
observações.
7. a partir das freqüências esperadas
em várias classes, determina-se o
parâmetro χ
2
pela equação

χ
ν (n-m)
2
=

=

( ) f f
f
e o
ei i
n
1 1
2
1


onde
n é o número de valores que são
somados para produzir o valor de χ
2

m é o número de constantes usadas no
cálculo das freqüências esperadas
(n - m) é o grau de liberdade, com
índice ν.
f
e1
, f
e2
, ...f
en
são as n freqüências
esperadas,
f
o1
, f
o2
, ...f
on
são as n freqüências
observadas
Pode também se falar de uma
distribuição χ
2
, definida como:

( )
O E
E
i i
i

¸

(
¸
(
(

2


onde
O
i
é a freqüência da ocorrência
observada no i
o
intervalo de classe
E
i
é a freqüência da ocorrência
esperada no i
o
intervalo de classe ,
baseada em uma hipótese ou distribuição.
Estatística da Medição

51
O objetivo é determinar se as
freqüências observadas e esperadas estão
próximas o suficiente para se concluir se
elas são provenientes de mesma
distribuição de probabilidade.
O numerador da expressão de χ
2

representa os quadrados dos desvios entre
as freqüências esperadas e observadas
nas n classes e é sempre positivo. Estes
valores são normalizados em cada classe,
dividindo-os pela respectiva freqüência
esperada de cada classe.
A mesma ordem de desvio nas
freqüências esperadas e observadas
causa relativamente maior contribuição no
parâmetro χ
2
nas extremidades da curva
dos dados normalmente distribuídos, em
comparação com os valores próximos do
valor médio da curva. Isto é explicado pelo
fato de os valores relativamente grandes
das freqüências esperadas próximas do
valor médio dos dados estarem no
denominador de χ
2
.

Para evitar que as contribuições
anormalmente grandes no parâmetro χ2
quando as freqüências esperadas forem
pequenas, deve-se reagrupar as várias
classes, de modo que a freqüência
esperada em cada classe não seja menor
que 5.
Se a distribuição da amostra está de
conformidade com a distribuição teórica
assumida, deve-se ter χ
2
= 0
.
Quanto
maior o valor de χ
2
, maior é a discordância
entre a distribuição esperada e os valores
observados. Quanto maior o valor de χ
2
,
menor é a probabilidade que a distribuição
observada satisfaça a distribuição
observada. Deste modo, o parâmetro χ
2
é
muito útil na análise estatística dos dados,
para avaliar a validade dos dados.
Para a aplicação do teste do χ
2
,
1. determine o valor de χ
2
para os
dados disponíveis
2. determine os valores dos graus de
liberdade F que é igual a (n - m),
3. determine a probabilidade de a
medição real estar de conformidade com a
distribuição esperada a partir das tabelas
de χ
2
ou do diagrama χ
2
- F.
Exemplo
Os coeficientes de atrito entre o vidro e
a madeira foram medidos no laboratório
com uma técnica livre de erros
sistemáticos. Os dados obtidos são:


Tab. 2.13 - Coeficientes e freqüência
Coeficiente Freqüência observada
0,44-0,46 3
0,46-0,48 10
0,48-0,50 12
0,50-0,52 16
0,52-0,54 10
0,54-0,56 6
0,56-0,58 3


Determinar se os valores dos
coeficientes de atrito seguem a distribuição
normal ou não. Os valores do teste χ
2
até
o nível de 10%.
Solução
1. Determinação do valor médio e do
desvio padrão:
x = 0,51
s = 0,03062
2. Usando a tabela da Distribuição
Normal, determinam-se as probabilidades
entre os intervalos das diferentes classes.

Tab. 2.14 - Tabela de freqüências
# Classe f
oi
z
l
z
h
P(z
l
) P(z
h
) P(∆z) f
ei
1 0,44-0,46 3 -2,178 -1,525 0,485 0,4364 0,0489 2,99
2 0,46-0,48 10 -1,525 -0,872 0,436 0,3084 0,1280 7,83
3 0,48-0,50 12 -0,872 -0,219 0,308 0,0864 0,2217 13,57
4 0,50-0,52 16 -0,219 0,434 0,086 0,1678 0,2545 15,57
5 0,52-0,54 10 0,434 1,088 0,167 0,3617 0,1939 11,87
6 0,54-0,56 6 1,088 1,741 0,361 0,4592 0,0975 5,97
7 0,56-0,58 3 1,741 2,394 0,459 0,4952 0,0360 2,20


Na tabela acima, as freqüências
esperadas da primeira e última classe são
menores que 5 e por isso elas devem ser
combinadas com as classes adjacentes
para fazê-las maiores que 5 e obtém os
seguintes cálculos:

Tab. 2.15 - Freqüências
# f
oi
f
ei
f
oi
-f
ei
(f
oi
-f
ei
)
2
/f
ei

1 13 10,82 2,18 0,439
2 12 13,57 -1,57 0,182
3 16 15,57 0,43 0,012
4 10 11,87 -1,87 0,295
5 9 8,17 8,83 0,084
Total: 1,012


Obtém-se χ
2
= 1,012
O número de grau de liberdade F é
(n-m).
Estatística da Medição

52
No problema, o número de termos que
são somados para dar χ
2
é n = 5. O
número m é igual ao número de
quantidades obtidas das observações que
são usadas no cálculos das freqüências
esperadas. No problema, m = 3, porque há
três quantidades: número total de
observações, o valor médio e o desvio
padrão dos dados que são usados no
cálculo das freqüências esperadas, então
F = 5 - 3 = 2
Para 2 graus de liberdade, o valor de χ
2

ao nível de 10% de probabilidade do χ
2
, da
tabela, tem-se 4,605. Como o valor de χ
2
=
1,012 não é muito grande e como a
probabilidade P(χ
2
) = 0,62 (obtida da curva
onde χ
2
=1,012 e F = 2) está entre 0,1 e
0,9, resulta que os dados devem ser
aceitos ou que os dados estão conforme a
distribuição normal.
8.4. Teste de Chauvenet
O teste de Chauvenet estabelece que
uma leitura pode ser rejeitada se a
probabilidade de se obter um desvio
particular da média é menor que 1/2n,
onde n é o número de observações. A
tabela dá o valor do desvio do ponto para
média que deve ser excedido para rejeitar
este ponto. Assim que todos os pontos
espúrios são rejeitados, calcula-se uma
nova média e um novo desvio padrão para
a amostra.

Tab. 2.16. Rejeição de espúrios pelo
critério de Chauvenet
Observações d
max

2 1,15
3 1,38
4 1,54
5 1,65
6 1,73
7 1,80
10 1,96
15 2,13
25 2,33
50 2,57
100 2,81
d
max
é o desvio máximo aceitável
σ desvio padrão da população
8.5. Outros Testes
Existem vários outros testes estatísticos
para fornecer critérios para rejeição ou
retenção de outliers. Como o teste Q, estes
outros também assumem que a
distribuição dos dados da população seja
normal. Infelizmente, esta condição não
pode ser aprovada ou reprovada para
amostras que tenham muito menos que 50
resultados. As regras estatísticas que são
confiáveis para distribuição normal de
dados devem ser usados com extremo
cuidado, quando aplicadas a amostras com
poucos dados.
A aplicação cega de testes estatísticos
para determinar a rejeição ou retenção de
uma medição suspeita em um pequeno
conjunto de dados não é provavelmente
mais confiável do que uma decisão
arbitrária. A aplicação de bom julgamento
baseado na experiência e conhecimento
do processo envolvido é um enfoque
válido. Enfim, a única razão válida para
rejeitar um resultado de um pequeno
conjunto de dados é a certeza que foi
cometido um erro no processo da medição.
Deve-se ter cautela para rejeitar um dado,
por qualquer razão.
Estatística da Medição

53
8.6. Conformidade (goodness of fit)
Os critérios estatísticos para verificar se
um conjunto de dados está de
conformidade com as distribuições teóricas
assumidas são:
1. se os valores de probabilidade no
teste χ
2
caem entre 0,1 e 0,9, então
a distribuição observada segue a
distribuição assumida, ou seja, não
há razão de duvidar da hipótese. Em
certos casos, o limite inferior da
probabilidade χ
2
, chamado de nível
de significância, pode ser reduzido
para 0,05.
2. se o valor da probabilidade no teste χ
2
está abaixo do limite inferior
prescrito, então o resultado é
significante e os dados da amostra
são considerados inteiramente
diferentes da distribuição assumida.
Neste caso, o parâmetro χ
2
é muito
grande.
3. Se o valor de χ
2
é muito pequeno e
próximo de zero, então a
probabilidade pode exceder o limite
superior de 0,9. Embora isso seja
difícil de se encontrar, na prática,
quando ocorrer, os dados são
considerados suspeitosamente bons.
8.7. Não-Conformidades
As recomendações para o tratamento
de um pequeno conjunto de resultados que
contem um valor suspeito são:
1. Reexaminar cuidadosamente todos
os dados relacionados com o outlier
para ver se um erro grosseiro afetou
seu valor.
2. Se possível, estimar a precisão que
pode ser razoavelmente esperada
para estar seguro que o resultado
suspeito realmente é questionável.
3. Repetir a análise, se for possível. A
concordância ou discordância entre o
dado novo e o original suspeito serve
para manter ou rejeitar o dado
suspeito.
4. Se não se tem nenhum dado
adicional, aplicar o teste Q ao
conjunto existente para ver se o
resultado duvidoso deve ser retido ou
rejeitado em base estatística.
5. Se o teste estatístico indicar a
retenção, considerar a mediana no
lugar da média do conjunto. A
mediana tem a grande virtude de
permitir a inclusão de todos os dados
em um conjunto sem influência
indevida de um valor suspeito.

Apostilas\Metrologia 2Estatística.DOC 24 SET 98 (Substitui 01 ABR 98)


54
3
Quantidades Medidas

Objetivos de Ensino
1. Conceituar as quantidades físicas quanto a energia e propriedades: intensivas ou
extensivas, variáveis ou constantes, continuas ou discretas, mecânicas ou
elétricas, dependentes ou independentes.
2. Apresentar os conceitos e notação da função e da correlação. Mostrar a função
linear.
3. Listar as sete quantidades físicas de base e as duas complementares, mostrando
seus conceitos, unidades e padrões.
4. Listar as quantidades físicas derivadas mais comumente encontrada na
Engenharia, de natureza mecânica, elétrica, química e de instrumentação,
mostrando seus conceitos, unidades, padrões e realização física.


1. Quantidade Física
1.1. Conceito
Quantidade é qualquer coisa que possa
ser expressa por um valor numérico e uma
unidade de engenharia. Como exemplos,
1. massa é uma quantidade física
expressa em kilogramas;
2. velocidade é uma quantidade física
expressa em metros por segundo e
3. densidade relativa é uma quantidade
física adimensional.
O círculo não é uma quantidade física,
pois é caracterizado por uma certa forma
geométrica que não pode ser expressa
por números. O círculo é uma figura
geométrica. Porem, a sua área é uma
quantidade física que pode ser expressa
por um valor numérico (p. ex., π, 5) e uma
unidade (p. ex., metro quadrado).
Muitas noções que antes eram
consideradas somente sob o aspecto
qualitativo foram recentemente transferidas
para a classe de quantidade, como
eficiência, informação e probabilidade.
1.2. Valor da quantidade
O valor é uma característica da
quantidade que pode ser definida
quantitativamente. O valor é também
chamado de dimensão, amplitude,
tamanho. Para descrever satisfatoriamente
uma quantidade para um determinado
objetivo, os valores de interesse devem ser
identificados e representados
numericamente. Cada valor é medido e
expresso em unidades. A unidade tem um
tamanho relativo e subdivisões que são
diferentes entre os diversos sistemas de
medição.
Pode-se somar ou subtrair somente
quantidades de mesma dimensão e
unidade, sendo a unidade do resultado
igual à unidade das parcelas. Pode-se
multiplicar ou dividir quantidades de
quaisquer dimensões e a dimensão do
resultado é o produto ou divisão das
parcelas envolvidas.
É possível se ter quantidades
adimensionais ou sem dimensão.
Geralmente são definidas como a divisão
ou relação de duas quantidades com
Quantidades Medidas

55
mesma dimensão; o resultado é sem
dimensão ou adimensional. Uma
quantidade adimensional é caracterizada
completamente por seu valor numérico.
Exemplo de quantidade adimensional é a
densidade relativa, definida como a divisão
da densidade de um fluido pela densidade
da água (líquidos) ou do ar (gases). Em
instrumentação há vários números
adimensionais úteis como número de
Reynolds, Mach, Weber, Froude. O valor
numérico da quantidade, associado à
unidade também é adimensional. Por
exemplo, no comprimento 10 metros (10
m), 10 é um número adimensional e
metros é a unidade de comprimento usada,
cujo símbolo é m.
1.3. Classificação das Quantidades
As quantidades possuem características
comuns que permitem agrupá-las em
diferentes classes, sob diferentes
aspectos.
Quanto aos valores assumidos, as
quantidades podem ser variáveis ou
constantes, contínuas ou discretas.
Sob o ponto de vista termodinâmico, as
variáveis podem ser intensivas ou
extensivas. Em outras palavras, elas
podem ser variáveis de quantidade ou de
qualidade.
Com relação ao fluxo de energia
manipulada, as variáveis podem ser
pervariáveis ou transvariáveis.
Sob o ponto de vista de função, as
variáveis podem ser independentes ou
dependentes.
Obviamente, estas classificações se
superpõem; por exemplo, a temperatura é
uma quantidade variável contínua de
energia intensiva, transvariável; a corrente
elétrica é uma variável continua de
quantidade, extensiva e pervariável.
Para se medir corretamente uma
quantidade é fundamental conhecer todas
as suas características. A colocação e a
ligação incorretas do medidor podem
provocar grandes erros de medição e até
danificar perigosamente o medidor.
Na elaboração de listas de quantidades
do processo que impactam a qualidade do
produto final é também necessário o
conhecimento total das características da
quantidade.
Energia e Propriedade
As variáveis de quantidade e de taxa de
variação se relacionam diretamente com
as massas e os volumes dos materiais
armazenados ou transferidos no processo.
As variáveis extensivas independem das
propriedades das substâncias. Elas
determinam a eficiência e a operação em
si do processo. As variáveis de quantidade
incluem volume, energia, vazão, nível,
peso e velocidade de maquinas de
processamento.
As variáveis de energia se relacionam
com a energia contida no fluido ou no
equipamento do processo. Elas podem
determinar indiretamente as propriedades
finais do produto e podem estar
relacionadas com a qualidade do produto.
Elas deixam de ser importantes assim que
os produtos são feitos. Elas independem
da quantidade do produto e por isso são
intensivas. As variáveis de energia
incluem temperatura e pressão.
As variáveis das propriedades das
substâncias são especificas e
características das substâncias. Todas as
grandezas especificas são intensivas. Por
definição, o valor especifico é o valor da
variável por unidade de massa. Por
exemplo, energia especifica, calor
especifico e peso especifico. As principais
variáveis de propriedade são: a densidade,
viscosidade, pH, condutividade elétrica ou
térmica, calor especifico, umidade absoluta
ou relativa, conteúdo de água, composição
química, explosividade, inflamabilidade,
cor, opacidade e turbidez.
Extensivas e Intensivas
O valor da variável extensiva depende
da quantidade da substância. Quanto
maior a quantidade da substância, maior é
o valor da variável extensiva. Exemplos de
variáveis extensivas: peso, massa, volume,
área, energia.
O valor da variável intensiva independe
da quantidade da substância. Em um
sistema com volume finito, os valores
intensivos podem variar de ponto a ponto.
Sob o ponto de vista termodinâmico, as
variáveis de energia e das propriedades
das substâncias são intensivas, porque
independem da quantidade da substância.
Exemplos de variáveis intensivas: pressão,
Quantidades Medidas

56
temperatura, viscosidade, densidade e
tensão superficial.
Pervariáveis e Transvariáveis
Uma pervariável ou variável através
(through) é aquela que percorre o
elemento de um lado a outro. Uma
perváriável pode ser medida ou
especificada em um ponto no espaço.
Exemplos: força, momento, corrente
elétrica e carga elétrica.
Uma transvariável ou variável entre dois
pontos (across) é aquela que existe entre
dois pontos do elemento. Para medir ou
especificar uma transvariável são
necessários dois pontos no espaço,
usualmente um ponto é a referência.
Exemplos: deslocamento, velocidade,
temperatura e voltagem.
Todos os objetos em um sistema
dinâmico envolvem uma relação medida ou
definida entre uma transvariável e uma
pervariável. Por exemplo, o capacitor,
resistor e indutor elétricos podem ser
definidos em termos da relação entre a
transvariável voltagem e a pervariável
corrente.
Variáveis e Constantes
A variável de processo é uma grandeza
que altera seu valor em função de outras
variáveis, sob observação ao longo de um
tempo. Constante ou variável constante é
aquela cujos valores permanecem
inalterados durante o tempo de observação
e dentro de certos limites de precisão.
Por exemplo, seja um tanque cheio de
água. A pressão que a coluna de água
exerce em diferentes pontos verticais é
variável e depende da altura. Porem, ao
mesmo tempo, a densidade da água pode
ser considerada constante, com um
determinado grau de precisão, em
qualquer ponto do tanque. Diz-se, então,
que a pressão da água é uma quantidade
variável em função da altura liquida e a
densidade da água é uma quantidade
constante em função da altura liquida e do
tempo.
Pode-se considerar incoerente chamar
uma constante de variável. Porem, uma
quantidade constante é um caso especial
de uma quantidade variável. A constante é
a variável que assume somente um valor
fixo durante todo o tempo. Como, na
prática sempre há uma variabilidade
natural em qualquer grandeza, deve-se
estabelecer os limites de tolerância, dentro
dos quais a grandeza se mantém
constante.
Em instrumentação, raramente se mede
continuamente uma constante. Como ela é
constante, basta medi-la uma única vez e
considerar este valor em cálculos ou
compensações. Por exemplo, a diferença
de altura do elemento sensor e do
instrumento receptor influi na pressão
exercida pela coluna líquida do tubo
capilar. Esta altura é definida pelo projeto,
mantida na instalação e considerada na
calibração. Ela não é medida
continuamente, porem, quando há
alteração de montagem, o novo valor da
altura é considerado na calibração do
instrumento.
O objetivo do controle de processo é o
de manter constante uma variável ou
deixá-la variar dentro de certos limites.
Parâmetro é uma quantidade constante
em cada etapa da experiência, mas que
assume valores diferentes em outras
etapas. Deve-se escolher os parâmetros
mais significativos entre as várias
características do processo. Por exemplo,
quando se faz uma experiência para
estudar o comportamento da pressão de
líquidos em um tanque, usando-se líquidos
com densidades diferentes entre si, a
densidade, constante para cada liquido e
diferente entre os líquidos, é chamada de
parâmetro.
Contínuas e Discretas
Variável contínua é aquela que assume
todos os infinitos valores numéricos entre
os seus valores mínimo e máximo. Na
natureza, a maioria absoluta das variáveis
é continua; a natureza não dá saltos. Uma
variável contínua é medida. Exemplo de
uma variável contínua: a temperatura de
um processo que varia continuamente
entre 80 e 125
o
C.
Variável discreta é aquela que assume
somente certos valores separados. Na
prática, as variáveis discretas estão
associadas a eventos ou condições. Uma
variável discreta é contada. Por exemplo,
uma chave só pode estar ligada ou
desligada. O número de peças fabricadas
é um exemplo de variável discreta.
Quantidades Medidas

57
Mecânicas e Elétricas
As quantidades mecânicas são as
derivadas do comprimento, massa, tempo
e temperatura. São exemplos de
quantidades mecânicas:
1. área e volume que dependem
apenas do comprimento.
2. velocidade e aceleração que
envolvem comprimento e tempo.
3. força, energia e potência que
envolvem massa, comprimento e
tempo
4. freqüência que depende apenas do
tempo.
A produção contínua de eletricidade se
tornou realidade com a invenção da pilha
por Volta, em 1800. A análise dos circuitos
elétricos começou em 1827, quando
George Simon Ohm descobriu a relação
entre voltagem, corrente e resistência.
Nesta época as unidades destas
grandezas ainda não eram estabelecidas.
Os valores de corrente eram medidos com
um arranjo de agulha compasso e bobina.
Os valores da tensão elétrica eram
estabelecidos em termos de potencial de
uma pilha voltaica específica. Os valores
de resistência eram estabelecidos em
termos da resistência de um comprimento
particular de fio de ferro com um diâmetro
específico.
Era evidente a necessidade de um
sistema universal de unidades no campo
elétrico, relacionadas com as unidades
mecânicas já estabelecidas, como
comprimento massa e tempo. Em 1832,
Karl Friedrich Gauss mediu a intensidade
do campo magnético da terra em termos
de comprimento, massa e tempo. Em
1849, Wilhelm Kohlraush mediu a
resistência em termos destas unidades.
Wilhelm Weber, em 1851, introduziu um
sistema completo de unidades elétricas
baseado em unidades mecânicas. Estes
princípios de Weber formam a base do
sistema atual de medições elétricas. Em
1861, a Associação Britânica para o
Avanço da Ciência introduziu o ohm
padrão, baseado no fio de liga platina-
prata.
As unidades elétricas SI derivadas
podem ser definidas em função de
quantidades mecânicas.
O volt (V), unidade de diferença de
potencial e força eletromotriz, é a diferença
de potencial entre dois pontos de um fio
condutor percorrido por uma corrente
constante de 1 A, quando a potência
dissipada entre estes pontos é igual a 1 W.
O ohm (Ω), unidade de resistência
elétrica, é a resistência elétrica entre dois
pontos de um condutor quando uma
diferença de potencial constante de 1 V
aplicada a estes pontos produz no
condutor uma corrente de 1 A, o condutor
não sendo fonte de qualquer força
eletromotriz.
O coulomb (C), unidade de quantidade
de eletricidade, é a quantidade de
eletricidade transportada em 1 s por uma
corrente de 1 A.
O farad (F), unidade de capacitância, é
a capacitância entre as placas do capacitor
onde aparece uma diferença de potencial
de 1 V quando é carregado por uma
quantidade de eletricidade de 1 C.
O henry (H), unidade de indutância
elétrica, é a indutância de um circuito
fechado em que uma força eletromotriz de
1 V é produzida quando a corrente elétrica
varia uniformemente à taxa de 1 A/s.
O weber (Wb), unidade de fluxo
magnético, é o fluxo que, ligando um
circuito de uma volta produz nele uma
força eletromotriz de 1 V se for reduzido a
zero em uma taxa uniforme de 1 s.
O tesla (T) é a densidade de fluxo de 1
Wb/m
2
.
As principais variáveis envolvidas na
indústria de processo são quatro:
temperatura (grandeza de base), pressão
(mecânica), vazão volumétrica ou mássica
(mecânica) e nível (mecânica). Em menor
freqüência, são também medidas a
densidade (mecânica), viscosidade
(mecânica) e composição (química).
Porem, na instrumentação, são
manipulados os sinais pneumático (20 a
100 kPa) e eletrônico (4 a 20 mA cc). Por
causa da instrumentação eletrônica, as
quantidades elétricas como voltagem,
resistência, capacitância e indutância se
tornaram muito importantes, pois elas
estão ligadas naturalmente aos
instrumentos eletrônicos de medição e
controle de processo e de teste e
calibração destes instrumentos.
Quantidades Medidas

58
1.4. Faixa das Variáveis
Faixa e Largura de Faixa
Os limites mínimo e máximo definem a
faixa (range) de operação do sistema. A
faixa de operação da entrada é definido
como estendendo de x
min
até x
max
. Esta
faixa define sua largura de faixa de entrada
(span), expressa como a diferença entre os
limites da faixa

r
i
= x
max
- x
min

De modo análogo, a faixa de operação
da saída é especificada de y
mix
para y
max
. A
largura de faixa da saída ou fundo de
escala de operação é expressa como:

r
o
= y
max
- y
min


Por exemplo, a faixa de temperatura de
um ambiente pode ser de 15 a 30
o
C. A
largura de faixa vale 15
o
C; (30 - 15
o
C =
15
o
C). A faixa de temperatura de -15 a 30
o
C tem largura de faixa de 45
o
C; [30 - (-
15)
o
C = 45
o
C].
A faixa de medição sempre vai de 0 a
100%, porem o 0% pode ser igual ou
diferente de zero. A terminologia das faixas
é a seguinte:
0 a 100
o
C - faixa normal
10 a 100
o
C - faixa com zero suprimido
-10 a 100
o
C - faixa com zero elevado
O conceito de faixa com zero elevado
ou suprimido é particularmente importante
na calibração de transmissores de nível.
Limites de Faixa
É importante evitar extrapolação além
da faixa da calibração conhecida durante a
medição pois o comportamento do sistema
de medição não é registrado nesta região.
A faixa de calibração deve ser
cuidadosamente escolhida e deve ser
consistente com a faixa de operação do
sistema de medição.
Na prática, uma variável pode ter limites
de operação normal e limites de operação
anormal. Os limites de operação normal
são aqueles assumidos pela variável
quando não há problemas no controle
automático do processo. Quando há falhas
no controle automático e estes limites são
atingidos, geralmente existem alarmes que
chamam a atenção do operador para
assumir o controle manual do processo. O
operador deve levar os valores da variável
novamente para dentro dos limites de
operação normal, atuando manualmente
nos instrumentos e equipamentos do
processo. Quando, por motivos de falha
em algum equipamento ou instrumento da
malha de controle automático, a variável
continua se afastando dos limites de
operação normal, geralmente são
estabelecidos outros limites de
desligamento (trip ou shut down). Quando
a variável atinge os valores de
desligamento, todo o processo é desligado,
para proteger o operador ou os
equipamentos envolvidos.
Há variáveis que podem assumir
valores negativos e positivos, em função
do processo e da unidade usada. Por
exemplo, a pressão manométrica pode ter
valores positivos e negativos (vácuo).
Porem, a pressão absoluta só pode
assumir valores positivos. A temperatura
na escala Celsius pode assumir valores
negativos ou positivos; porem, a
temperatura absoluta ou termodinâmica só
pode assumir valores positivos, em kelvin.
Faixa e Desempenho do Instrumento
Em Metrologia, é importante se
conhecer a faixa calibrada do instrumento
e o seu ponto de trabalho, pois
tipicamente, a precisão do instrumento é
expressa ou em percentagem do fundo de
escala ou em percentagem do valor
medido.
O instrumento com erro de zero e de
largura de faixa possui precisão expressa
em percentagem do fundo de escala. Por
exemplo, a medição de vazão com placa
de orifício tem incerteza expressa em
percentagem da vazão máxima medida ou
do fundo de escala.
Instrumento com erro devido apenas à
largura de faixa possui precisão expressa
em percentagem do valor medido. Por
exemplo, transmissor inteligente de
pressão diferencial, turbina medidora de
vazão.
Quantidades Medidas

59
1.5. Função Matemática
Conceito
A função é uma regra ou lei de acordo
com a qual os valores da variável
independente correspondem aos valores
da variável dependente. A função é a lei de
correspondência entre os valores das
variáveis. A função é uma relação causal.
Podem existir regras para determinar o
valor da variável dependente para cada
valor do argumento sem relação
matemática conhecida. Por exemplo, a
temperatura ambiente varia ao longo de
um dia ou de um ano, de modo aleatório e
imprevisível.
As variáveis podem ser independentes
ou dependentes de outras variáveis. As
variáveis independentes podem se alterar
arbitrariamente e são também chamadas
de argumentos. Variáveis dependentes
tem valores determinados pelos valores de
outras variáveis independentes e são
também chamadas de funções.
Por exemplo, a área do círculo S

S = π r
2


r é a variável independente ou
argumento
S é a variável dependente ou função.
As funções podem depender de um
único argumento (área do círculo em
função do raio) ou de dois ou mais
argumentos. Por exemplo, a pressão de
gás com massa constante, p

p = RT/V

depende da temperatura (T) e do volume
do gás (V) e R é uma constante física.
Notação
Quando y é função genérica de x, tem-
se:

y = f(x)

onde x pode assumir certos valores
particulares.
Quando a função é conhecida, pode-se
ter:

y = ax + b (linear)

onde a e b são parâmetros constantes
arbitrários.
Uma função matemática pode ser
representada por:
1. fórmula analítica
2. tabela de valores
3. gráfico.
Domínio ou definição da função é a
totalidade dos valores que a variável
independente pode assumir.
A função pode ser contínua ou discreta.
A função é continua quando a variação
gradual do argumento resulta em variação
gradual da função, sem pulos. A função é
discreta quando ela possui pontos de
descontinuidade. A função pode ser
periódica, quando se repete em intervalos
definidos. A função pode ser constante,
quando assume um único valor. A função
pode assumir valores múltiplos e ser
sempre crescente ou decrescente.
Função Linear
Na prática, a função linear é muito
interessante e comum. A forma geral de
uma função linear é:
y = ax + b
onde
y é a função
x é o argumento
a e b são parâmetros constantes.
A representação gráfica de uma função
linear é uma linha reta, onde
a é a inclinação da reta
b é o ponto onde a reta corta o eixo y
-b/a é o ponto onde a reta corta o eixo x
A linearidade é um dos parâmetros da
precisão do instrumento. Ser linear é
conveniente pois,
1. dois pontos (ou um ponto e uma
inclinação) são suficientes para
determinar uma reta e como
conseqüência, bastaria calibrar dois
únicos pontos de uma reta de
calibração,
2. é fácil se fazer interpolação e
extrapolação de pontos.
Quando se tem uma relação não-linear
é comum e conveniente linearizá-la,
através da função matemática inversa. Por
exemplo, na medição da vazão com placa
de orifício, onde a pressão diferencial
gerada pela placa é proporcional ao
quadrado da vazão que se quer medir,
usa-se o extrator de raiz quadrada para
Quantidades Medidas

60
tornar linear a relação entre a pressão
diferencial e a vazão.
O incremento de uma função linear é
diretamente proporcional ao incremento do
argumento:
∆y = k ∆x

Esta propriedade do incremento é a
base da interpolação linear. Suponha que
se conheçam os valores de uma função y =
f(x) para
x = x
o
e x = (x
o
+ h):

f(x
o
) = y
o

(fx
o
+ h) = y
1


mas os valores para a função y para x
entre x
0
e (x
0
+ h) sejam
desconhecidos. A função pode ser
substituída por um segmento de reta que
1. assuma mesmos valores para x
0
e
(x
0
+ h)
2. substitua a função por uma linha reta
entre x
0
e (x
0
+ h)

y y
y y
h
x x
o
o
o
= +


1
( )
Tal substituição é possível e válida no
caso da função f(x) diferir levemente da
função linear no intervalo entre x
o
e (x
o
+
h). A interpolação é usada, na prática, em
tabelas com pequenos intervalos e quando
os sucessivos valores da função diferem
levemente entre si. A extrapolação linear
se processa de modo semelhante.
Correlação
Correlação é a relação entre duas
variáveis aleatórias que não é função
determinística. Por exemplo, a relação
entre o peso e a altura das pessoas é uma
correlação. O peso não depende
unicamente da altura da pessoa. Se o peso
fosse função apenas da altura, todas as
pessoas mais altas seriam mais pesadas
que as mais baixas. Mas, na realidade,
pessoas de mesma altura tem pesos
diferentes e pessoas com alturas
diferentes podem ter pesos iguais. Mesmo
com tantas exceções, há uma correlação
entre a altura e o peso das pessoas, e de
um modo geral, as pessoas mais altas
pesam mais que as pessoas mais baixas.
Outro exemplo, é a correlação entre o
ato de fumar e a duração da vida das
pessoas. Quando se diz que o fumo reduz
a duração da vida de uma pessoa, também
há um correlação ou dependência
correlativa, porque, embora haja muitas
exceções, experimentalmente se verifica
que a vida média dos não fumantes é
maior do que a dos fumantes, quando se
considera a distribuição da probabilidade
da duração da vida.
Define-se como coeficiente de
correlação a medida da interdependência
entre duas variáveis. O coeficiente varia
continuamente entre +1 e -1, passando
pelo valor zero intermediário. Quando o
coeficiente é zero, não há correlação entre
as duas variáveis e elas são totalmente
independentes. O coeficiente de correlação
+1 indica uma correlação positiva perfeita,
quando uma variável é linear e diretamente
proporcional a outra; quando uma aumenta
a outra também aumenta. O coeficiente de
correlação -1 indica uma correlação
negativa perfeita, onde uma variável é
inversamente proporcional a outra; quando
uma aumenta a outra diminui linearmente.
Deve-se distinguir claramente entre a
relação determinística (função
matemática), onde não há exceção alguma
e a dependência correlativa (correlação),
onde há muitas exceções que contradizem
a relação, mas que não afetam a validade
geral da inferência de probabilidade.
2. Quantidades de Base do SI
As unidades SI são divididas em três
classes:
1. unidades de base
2. unidades suplementares
3. unidades derivadas
As sete grandezas de base possuem os
seguintes nomes (unidades), dimensão:
1. comprimento (metro), L
2. massa (kilograma), M
3. tempo (segundo), T
4. temperatura (kelvin), Θ
5. corrente elétrica (ampere), I
6. quantidade de matéria (mol), N
7. intensidade luminosa (candela), J.
As grandezas de base eram
anteriormente chamadas de grandezas
fundamentais. As sete unidades base
foram selecionadas pela CGPM ao longo
do tempo e para atender as necessidades
dos cientistas em suas áreas de trabalho.
Quantidades Medidas

61
As primeiras quantidades definidas eram
de natureza mecânica. Depois se definiu a
grandeza elétrica (corrente), a
termodinâmica (temperatura), luminosa
(intensidade luminosa) e a química
(quantidade de matéria).
Há três quantidades totalmente
independentes: massa, comprimento,
tempo. Somente a massa tem um padrão
material. Hoje, pesquisa-se para se reduzir
as unidades a duas independentes: massa
e tempo. As unidades de base são bem
definidas e independentes
dimensionalmente.
As duas unidades suplementares foram
adicionadas na 11
a
CGPM (1960).
1. ângulo plano (radiano)
2. ângulo sólido (esterradiano).
Como a CGPM deixou de chamá-las de
base ou derivadas, elas são consideradas
suplementares. Foram levantadas
questões acerca da razão destas unidades
não serem adotadas como de base. Por
analogia, elas poderiam ser consideradas
como de base.


Tab. 3.1 - Grandezas e Unidades de Base SI

Quantidade Física Unidade Símbolo
Comprimento metro m
Massa kilograma kg
Tempo segundo s
Temperatura kelvin K
Corrente elétrica ampere A
Intensidade luminosa candela cd
Quantidade de substância mol mol


Em 1980, a CIPM decidiu, para manter
a coerência interna do SI, considerar as
unidades radiano e esterradiano como
unidades derivadas sem dimensão.
As unidades derivadas são aquelas
formadas pelas relações algébricas entre
as unidades de base, suplementares e
outras derivadas.
A classificação das unidades SI em três
classes é arbitrária e não é realmente
importante para usar e entender o sistema.
As três classes de unidades formam um
sistema de medição coerente, pois o
produto ou quociente de qualquer
quantidade com múltiplas unidades é a
unidade da quantidade resultante.
2.1. Comprimento
Introdução
O comprimento é uma grandeza de
base cujo símbolo é L. Na prática, o
comprimento vem em outros parâmetros,
como variação relativa (m/m), área (m
2
),
volume (m
3
), ângulo (m/m), velocidade
(ms
-1
) e aceleração (ms
-2
).
A medição de comprimento pode ser de
valor absoluto e relativo. A medição do
comprimento absoluto requer um padrão
definido; para medir comprimento relativo o
padrão não é fundamental. É diferente
medir o comprimento de uma estrutura em
termos absolutos e medir a variação da
estrutura provocada por uma tensão
mecânica.
Experimentalmente se percebe que o
espaço pode ser descrito em termos de
três parâmetros de comprimento (x, y, z).
Três coordenadas são suficientes para
descrever a posição de um ponto no
espaço. Restringindo-se o grau de
liberdade mecânica, define-se a posição.
Para medir a posição ao longo de uma reta
definida, basta um comprimento. Para
plotar a posição em um plano definido são
necessários dois sensores. Estes
conceitos são muito importantes em
robótica, pois um robô é um controlador de
posição.
Unidades
A unidade SI de comprimento é o
metro, com símbolo m.
A etimologia da palavra metro é metron,
grego, que significa medir e este termo foi
usado pela primeira vez em 1670, pelo
padre matemático Gabriel Mouton (1618-
1694), que definiu 1 metro como 1/10 000
000 da distância entre o Equador e o Polo
Norte da Terra.
Em 1790, Laplace definiu o metro pelo
mesmo procedimento, porem usou
múltiplos de 10, dividindo o ângulo reto em
100 graus (em vez de 90) e o grau em 100
minutos (em vez de 60) e 1000 metros
eram a distância de 1 minuto deste grau na
superfície da Terra. Usando o mesmo
procedimento, porem, com o ângulo reto
de 90 graus e o grau com 60 minutos,
1000 metros seriam equivalentes a uma
milha náutica, ou seja, o metro valeria
1,853 184 metros atuais. Posteriormente, o
Quantidades Medidas

62
metro foi definido de modo a ser igual a
1/10 000 000 da distância do Polo Norte ao
Equador, ao longo do meridiano da terra
passando por Dunquerque, França e
Barcelona, Espanha, duas cidades ao nível
do mar e no paralelo 45
o
. Desse modo, a
circunferência da terra tem
aproximadamente 40 000 000 m. O metro
atual é aproximadamente igual ao wand,
unidade padrão de comprimento criada no
Egito em 3500 A.C., para medir a variação
do nível do Rio Nilo, para fins de coleta de
água e irrigação.
Na 1
a
CGPM (1889) o metro foi definido
como o padrão físico constituído de uma
barra de platina (90%) e irídio (10%), que
era considerado o Metro Protótipo
Internacional.



Fig. 3.1. Corte da barra do Metro Protótipo
Internacional


A 7
a
CGPM (1927) definiu o metro
como a distância entre dois traços
gravados sobre a barra de platina iridiada,
apoiada sobre dois rolos de, no mínimo, 10
mm de diâmetro, situados simetricamente
num mesmo plano horizontal à distância de
571 mm um do outro, a 0
o
C e à pressão
atmosférica normal . Pela comparação
física das linhas desta barra com um
protótipo secundário se consegue uma
exatidão dentro de 2 partes em 10
7

A 11
a
CGPM (1960) substituiu o padrão
físico do metro por padrão de receita. O
metro foi definido como o comprimento
igual a
1 650 763,73 vezes o comprimento de
onda da radiação de transição entre as
linhas laranja vermelha, níveis 2p
10
e 5d
5
do espetro do átomo de Kr-86, no vácuo.
Esta definição tem problemas, o principal é
que este número somente é conseguido
por extrapolação, pois não é possível
estender uma quantidade exata de ondas
alem de alguns 20 centímetros. Para se
obter o número requerido de comprimentos
de onda para um metro, várias medições
individuais eram feitas por sucessão e
adicionadas. Este procedimento de
medição, por sua natureza, aumenta a
probabilidade de erro. Mas, a despeito
destas limitações, a exatidão está dentro
de 2 partes em 10
8
.
A 17
a
CGPM (1983) redefiniu o metro
como a distância percorrida pela luz,
durante a fração de 1/299 792 458 de um
segundo, no vácuo. Esta nova definição dá
uma exatidão 10 vezes melhor que a da
técnica com Kr-86, cerca de 2 partes em
10
-9
.
Na prática industrial, raramente se exige
este grau de exatidão, porem deve-se ter
uma margem adequada para compensar a
perda de incerteza toda vez que os
padrões são transferidos para um aparato
mais conveniente. O valor da velocidade
da luz, c, igual a 299 792 458 ms
-1
é o
resultado de padrões numéricos escolhidos
para o tempo e comprimento. Assim, o
valor da velocidade da luz não é uma
constante fundamental. Os padrões de
tempo (com incerteza de 10
-14
) são mais
reprodutíveis em termos de incerteza que
os de comprimento (incerteza de 10
-8
), de
modo que, se a velocidade da luz é
definida como um número fixo, então, em
princípio, o padrão tempo servirá como um
padrão de comprimento, desde que exista
um aparato conveniente para converter
tempo para comprimento através da
velocidade da luz.
A realização do metro recomendada
pela 17
a
CGPM (1983) é obtida por um
dos seguintes métodos:
1. através do comprimento L do trajeto
percorrido por uma onda
eletromagnética plana, no vácuo,
durante um intervalo de tempo t (L =
ct) ou
2. através do comprimento de onda no
vácuo de uma onda eletromagnética
de freqüência f (L = c/f).
A realização mais prática do metro é
pela medição do comprimento da radiação
630 nm do laser hélio neon estabilizado
por iodo, que dá uma precisão de 3 partes
em 10
11
. Os padrões secundários são
calibrados por interferometria, com
precisão de 10
-9
.
Quantidades Medidas

63
As outras unidades de comprimento
usadas incluem o milímetro, centímetro,
kilômetro e micrômetro. Estes múltiplos e
submúltiplos servem para selecionar
prefixos que sejam múltiplos de 1000.
O uso do milímetro (mm) é comum em
desenhos mecânicos. Os valores
expressos em milímetros devem ser
números inteiros, a não ser que a precisão
requeira dígitos depois da vírgula.
O centímetro é usado apenas em
medidas não técnicas e em produtos de
consumo. Também é usado em unidades
derivadas, como pressão (kgf/cm
2
),
condutividade (S/cm).



Fig. 3.2. Régua metálica para medição de
comprimentos com pequena precisão









Fig. 3.3. Paquímetro para medir pequenas
dimensões













Fig. 3.4. Micrômetro para medir pequenas
dimensões com maior precisão que o paquímetro



Em grandes distâncias, usa-se o
kilômetro, onde não se usam mais que três
dígitos depois da vírgula. Em pequenas
distâncias, como em acabamento
mecânico e física, pode-se usar o
micrômetro (µm) e o nanometro (nm) para
números mais exatos.
Padrões e Calibração
O padrão de comprimento era uma
barra de platina irídio preservada em
Sèvres, França. Atualmente o metro é
redefinido em termos de receita.
Na prática laboratorial, o interferômetro
a laser é usado, com incerteza de 10
-8
. O
interferômetro óptico é fácil de usar e é
preciso, mas muito caro.
Na prática industrial, a medição de
peças é feita através de paquímetros e
micrômetros, que são calibrados com
blocos padrão (gage block). Os blocos são
de aço dimensionalmente estável e duro e
formam um conjunto que fornece
dimensões precisas em uma grande faixa
em pequenos degraus. Os blocos são os
padrões de comprimento da indústria. As
oficinas mecânicas devem ter conjuntos de
blocos, que devem ser periodicamente
enviados a um laboratório externo para fins
de calibração e certificação.
Para comprimentos da ordem de
metros, fitas flexíveis são usadas, por
causa do baixo custo e grande facilidade
de manuseio. Elas devem ser calibradas
contra interferômetros a laser, com
incertezas de 10
-6
. Para aplicações
industriais, é fácil calibrar os medidores de
comprimento. O problema mais sério da
calibração é o grande tempo envolvido,
pois o padrão deve ser observado por um
período longo para garantir que ele seja
estável durante a calibração.





Fig. 3.5.. Apalpadores - padrão de comprimento




Quantidades Medidas

64


Fig. 3.6. Conjunto de blocos padrão
2.2. Massa
Unidade
O kilograma
*
é a unidade SI de massa
com símbolo é kg.
O kilograma tem as seguintes
características:
1. única unidade de base com prefixo
(kilo = mil),
2. única unidade de base definida por
um artefato (padrão físico),
3. escolhido em 1889 e praticamente
sua definição não sofreu nenhuma
modificação ou revisão.
O kilograma padrão protótipo é um
cilindro de platina (90%)-irídio (10%)
mantido no Bureau de Pesos e Medidas
em Sèvres, França. O protótipo possui
diâmetro e altura iguais a 39 mm. Esta
forma é uma aproximação da esfera, que
tem a propriedade de apresentar a menor
razão entre a superfície e o volume. 63
duplicações deste cilindro estão
distribuídas nos vários laboratórios
nacionais de normas e servem como
padrão de massa para estes países. A
precisão é 1 parte em 10
9
, ou seja, 1 µg
em 1 kg. No Brasil, o kilograma padrão
está preservado no INMETRO, em Xerém,
RJ.
A unidade SI de massa já foi o grama
(na prática, o mais usada é a grama)
definido como a massa de um centímetro
cúbico (cubo com lado igual a 1/100 de
metro) de água em sua temperatura de
máxima densidade (4
o
C).


*
O correto em português é escrever quilograma, porém no presente
trabalho será usada a palavra kilograma. Por coerência de grafia,
kg não pode ser símbolo de quilograma.



Fig. 3.7. O kilograma padrão

Padrões
O padrão primário da unidade de massa
é o protótipo internacional do kilograma do
BIPM. A massa de padrões secundários de
1 kg em liga de platina irídio ou em aço
inoxidável é comparada à massa do
protótipo por meio de balanças cuja
precisão pode ser da ordem de 10
-8
,
fazendo-se a correção do empuxo do ar.
Como visto, o peso é uma força. Os
objetos são pesados, pela comparação do
peso desconhecido com um peso
conhecido. O equipamento usado para
pesar coisas é a balança. A etimologia de
balança é latina: bi-lancis ou dois pratos. A
palavra balança ainda é usada, mesmo
quando se tem dois pratos para a
pesagem. No lugar do segundo prato, onde
se colocaria o peso conhecido, são usados
mola, pesos calibrados embutidos ou um
servomotor.
Há quatro classes de balanças, cada
uma baseada no número de intervalos
usados dentro da capacidade da escala.
Por exemplo, se uma balança de
laboratório tem uma capacidade de 200,00
gramas e ela lê dois decimais, ela deve ter
20 000 intervalos na escala. A OIML
(Organization International de Metrologie
Legal) classifica as balanças em 4 classes
(Tab. 3.2).

Quantidades Medidas

65

Tab.3.2 - Classificação de Balanças

Classe Nome da Classe Intervalos da escala
I Especial
(Fina)
50 000 < n
a

II Alta exatidão
(Precisão)
5 000 <n < 100
000
III Média exatidão
(Comercial)
500 < n < 10 000
IV Exatidão ordinária
(Grosseira)
100 < n < 1 000

a
n - número de intervalos da escala
Balança
A balança é um instrumento para a
comparação de massas e pesos. A
balança analítica é um instrumento de
pesagem com uma capacidade máxima
que varia de uma grama a alguns
kilogramas com uma precisão mínima de
10
-5
, na capacidade máxima. A balança
mecânica se baseia no princípio da
alavanca de primeira classe (o ponto de
apoio está entre as duas forças). As
balanças mecânicas analíticas podem ser
do tipo de braços iguais e do tipo de
substituição. Atualmente, são disponíveis
balanças eletrônicas, com detetor de nulo,
malha de realimentação para controlar a
força de balanço e indicação digital com
precisão típica de 10
-6
. O sensor da
balança é o strain-gage.
No uso de balanças de precisão são
requeridos alguns cuidados para minimizar
as incertezas, como:
1. qualquer balança deve ser colocada
em um suporte sólido, de mármore
ou concreto e distante de fontes de
calor, vibração e corrente de vento,
2. nivelar a balança,
3. não colocar objetos além da
capacidade nominal da balança,
3. a balança deve ser limpa após o uso,
4. não usar ou colocar material
corrosivo próximo da balança,
5. o braço de suporte da balança deve
estar sempre engajado. Quando não
em uso, todos os pesos devem ser
voltados para a posição zero e os
pratos colocados na posição suporte,
6. estudar o manual da balança
fornecido pelo fabricante,
7. calibrar periodicamente a balança e
os pesos associados.
Na indústria são usados pesos padrão
para calibrar e determinar a exatidão das
balanças. O peso padrão é um objeto com
massa conhecida, feito de material
resistente à corrosão (bronze, ouro, prata,
platina, aço inoxidável, ligas nobres). Os
laboratórios nacionais estabelecem classes
de pesos, com limites de tolerância
aceitáveis e especificações para materiais
e construção. Por exemplo, em uma
oficina, os pesos de Classe S são usados
para calibração de rotina e para aferição
de balanças analíticas.

















Fig. 3.8. Balança eletrônica analítica. (Toledo)


Massa e Peso (Força)
Massa é uma medida invariante da
quantidade de matéria de um objeto. Peso
é a força de atração entre um objeto e a
Terra e varia com a posição geográfica. O
peso P de um corpo com massa m, em um
local com aceleração da gravidade g, vale:
P = mg
Há confusão entre força e massa,
principalmente por que já foi usada a
unidade base de kilograma força para
força. Atualmente, no SI há uma unidade
base para massa (kilograma) e outra
unidade derivada para força (newton). O
peso é uma força, resultante da gravidade
da Terra e como tal, sua unidade é
também o newton. Porém, o peso também
é expresso como kilograma força. Por
preguiça, expressa-se o peso em unidade
Quantidades Medidas

66
de kilograma, criando a confusão: peso é
massa ou força? O peso é uma força.
A unidade SI de força é o newton, onde:

1 N = 1 kg . 1 m/s
2


Outra unidade usada de força, não-SI, é
o kilograma força, onde:

1 kgf = 1 kg x aceleração da gravidade

Ao nível do mar, tem-se 1 kgf = 9,806
65 N
O peso descreve como a massa de um
objeto é atraída pela Terra. O peso não é
constante e varia principalmente com a
altitude do local. A massa é constante e
independe do local. Por exemplo, na Terra,
um homem pesa 100 kgf, mas na Lua, ele
pesa somente 17,5 kgf. Sua massa na
Terra e na Lua é a mesma e igual a 100
kg.
A balanças mede peso, porém, tem
escala para indicar a massa. Por exemplo,
quando uma balança indica 70 kg, ela
sente o peso correspondente à massa de
70 kg e indica 70 kg.
Deve-se evitar o uso da unidade
kilograma força, pelo menos por quatro
motivos justos:
1. não é uma unidade SI
2. perpetua a confusão entre força,
peso e massa.
3. a unidade possui um prefixo
4. a unidade depende da altitude do
local.
Em resumo, tem-se:
1. A unidade SI para massa é o
kilograma, kg
2. A unidade SI para força é o newton
(N). Não use kilograma força.
3. A gravidade não é essencial no SI.
4. Deve-se usar e medir a massa,
evitando o uso do peso. Em vez de
dizer: ele pesa, dizer sua massa é
igual a.














Fig. 3.9. Conceito de massa e peso

Quantidades Medidas

67
2.3. Tempo
Introdução
O tempo é a variável mais presente na
vida das pessoas embora seja também a
menos entendida. Percebe-se que o tempo
envolvido tem o valor alterado com a
passagem de eventos mas não se tem o
conceito de tempo absoluto. O que pode e
realmente é medido é a noção de intervalo
de tempo, duração de seqüências e de
eventos. Assim, o tempo é definido como o
intervalo entre dois eventos e as medições
deste intervalo são feitas pela comparação
com algum evento reprodutível. Por
exemplo, o tempo requerido para a Terra
orbitar em torno do sol (um ano) e o tempo
requerido para a Terra rodar em torno de
seu próprio eixo (um dia). O tempo de
efeméride é baseado nas medições
astronômicas do tempo requerido pela
Terra para orbitar o Sol. O tempo sideral é
o tempo de rotação da Terra relacionada
com as estrelas distantes e é usado em
astronomia. O tempo solar é o tempo da
rotação da Terra com relação ao Sol e é
usado na vida diária.
Há 4000 anos (intervalo de tempo), os
egípcios mediam o tempo através da
sombra de uma vara. Os romanos e
gregos melhoraram o princípio da sombra
com o relógio solar. Algumas sociedades
ainda marcam o tempo com ampulhetas
cheias de areia ou líquidos, gotejamento
de água e queima de velas. No século XV,
na Europa, foi inventado o mecanismo do
relógio. No século XVI apareceu o relógio
de bolso. Estes relógios eram puramente
mecânicos e se baseavam em molas,
engrenagens e alavancas. Depois foi
criado o relógio eletrônico, alimentado com
bateria e com um pequeno diapasão que
mantinha uma freqüência natural de 360
Hz ou aproximadamente a freqüência da
nota musical Dó. Atualmente são usados
relógios eletrônicos com circuitos
integrados e com cristais piezoelétricos
(quartzo) para geração de freqüências
constantes.
Definições
O tempo é uma grandeza atípica, pois é
a única cuja unidade não pode ser
colocada lado a lado para aumentar ou
diminuir uma escala.
Qual é a duração de um segundo e
como é possível armazenar esta medição?
As tentativas da medição do tempo através
do movimento do pêndulo se mostraram
inexatas por causa da dificuldade de medir
exatamente as posições do pêndulo móvel.
O segundo foi inicialmente definido
como a fração de 1/86 400 do dia solar
médio (período médio da revolução da
Terra sobre seu eixo) Como o dia solar não
é constante mas varia com a velocidade de
rotação da Terra, cerca de 3 segundos por
ano, foi selecionado um novo padrão mais
exato e reprodutível.
A 11
a
CGPM (1960) redefiniu o
segundo baseando-se no ano trópico. Por
esta definição sugerida pela União
Astronômica Internacional e para uso
científico, o segundo vale
1/31 556 925,974 7 do ano tropical no
tempo de 12 h das efemérides de 0 janeiro
1900. O tempo de efeméride é uma
medida uniforme do tempo definido pelo
movimento orbital dos planetas. Uma falha
grave desta definição é que não se pode
medir um intervalo de tempo pela
comparação direta com o intervalo de
tempo definindo o segundo. A medição
astronômica do tempo resulta em erro
provável estimado de 10
-9
que é muito
grande em comparação com a definição do
segundo.











Fig. 3. 10 Definição do segundo
Quantidades Medidas

68
O átomo exibe transições de nível de
energia hiperfina muito regulares e é
possível contar estes ciclos de energia. A
13
a
CGPM (1967) redefiniu o segundo
como a duração de 9 192 631 770
períodos da radiação correspondente à
transição entre os dois níveis hiperfinos do
estado básico do átomo de Ce
133
. O
segundo é realizado por um relógio de
césio, com precisão de 2 partes em 10
11
.
Pode-se obter precisão de 1 parte em
10
12
. O relógio atômico não atrasa ou
adianta um segundo em 6 000 anos.
Unidades
A unidade base SI do tempo é o
segundo, com o símbolo s.
Além do segundo, outras unidades
continuam sendo usadas, principalmente
os ciclos do calendário, como ano, dia e os
múltiplos do segundo, como minuto e hora.
Exemplos destes usos são: velocidade em
kilômetro por hora (km/h) e velocidade
rotacional de máquina em rotações por
minuto (r/min) ou RPM. Os ciclos do
calendário, como dia, semana, mês e ano,
devem ser evitadas pois há muitas
interpretações diferentes. Quando usados,
os ciclos do calendário devem ser
definidos; por exemplo, um mês pode ser
1/12 do ano ou 30 dias.
Excepcionalmente, as unidades de
tempo não estão relacionadas em
potências de 10; tem-se:
60 segundos equivalem a 1 minuto
60 minutos equivalem a 1 hora
24 horas equivalem a 1 dia
A ISO propôs uma nova seqüência de
dígitos para indicar datas. A nova
seqüência sugerida é do tipo YMD (ano,
mês e dia). Por exemplo 27 de maio de
1943 deve ser escrito como 1943-05-27.
Este formato mostra a seqüência lógica em
que os dados devem ser cronologicamente
armazenados.
O tempo do dia também pode ser
expresso em quatro dígitos, baseados nas
24 horas do dia. Por exemplo, 12:34 (doze
horas e trinta e quatro minutos). A hora do
dia pode ser expressa em base de 24
horas por dia ou em 12 horas antes do
meio dia e 12 horas depois do meio dia. É
o sistema americano AM (anti meridien) e
PM (pos meridien).
Realização
Diversos laboratórios credenciados
possuem aparelhos para produzir
oscilações elétricas com a freqüência de
vibração do átomo de Ce-133. Os padrões
de tempo de césio são disponíveis
comercialmente, com incertezas da ordem
de 10
-13
e 10
-14
.
Os sinais horários difundidos por ondas
de rádio são dados na escala do Tempo
Universal Coordenado (UTC), cujo
emprego foi recomendado pela 15
a
CGPM
(1975). O UTC difere do Tempo Atômico
Internacional (TAI) de um número inteiro
de segundos. A diferença UTC-TAI foi
fixada em -10 s no dia 1
o
janeiro de 1972 e
tornou-se igual a -22 s em 1
o
de janeiro de
1985. Periodicamente há correções no
UTC, preferivelmente em fim de dezembro
ou de junho (solstícios) ou fim de março
ou de setembro (equinócios), de modo que
o UTC permaneça próximo do tempo
definido pela rotação da Terra com
aproximação menor que 0,9 s. Os tempos
legais dos países estão defasados de um
número inteiro de horas (fusos horários) de
acordo com o UTC e a cidade de
Greenwich (Inglaterra) é a hora de
referência.
A exatidão da medição do tempo pode
requerer correções da relatividade,
principalmente quando os relógios de
comparação estão distantes.
O TAI é definido como a escala de
tempo coordenada estabelecida por um
sinal de referência geocêntrica como a
unidade da escala de segundo do SI, tal
que ela seja realizada pelo geoide em
rotação. Para os relógios fixos em relação
à Terra e ao nível do mar, o segundo do
TAI é igual ao segundo realizado
localmente. A 2000 m de altitude ele se
mostra mais longo (+2,2 x 10
-13
s).
Padrões
Na indústria, são usados contadores
eletrônicos, que são instrumentos
multitarefa baseados em circuitos digitais
para medir tempo e outras quantidades
correlatas, como freqüência, totalização,
período, relação de períodos, intervalo de
tempo e média. O componentes usados
nestes instrumentos incluem um relógio
interno, portas lógicas, comparadores,
escalonadores e contadores.
Quantidades Medidas

69
O relógio interno, que fornece a base de
tempo para o contador eletrônico digital, é
o sensor de tempo. O relógio é um
oscilador a cristal que gera um trem de
pulsos. O circuito oscilador incorpora um
cristal piezoelétrico (quartzo) para dar
estabilidade ao circuito. O oscilador é
acionado na freqüência natural do cristal e
a realimentação do cristal mantém a
freqüência do oscilador igual à freqüência
natural durante longos períodos de tempo.
A estabilidade a longo prazo da freqüência
varia em função da qualidade do oscilador,
de uma parte em 10
5
a uma parte em 10
8
.
A estabilidade a curto prazo, medida em
horas, é de uma parte em 10
9
. Pequenas
variações de freqüência ocorrem devidas
ao envelhecimento do cristal e são da
ordem de 1 a 10 ppm (parte por milhão)
por ano.
Um contador eletrônico comercial típico,
de uso geral, de preço moderado tem uma
resposta de freqüência de 10 MHz e possui
display de 8 dígitos.
Na indústria, se usa também o UTC
através dos serviços telefônicos de Hora
Certa (ramal 130) das concessionárias.

















Fig. 3.11. Ampulheta para medir tempo

2.4. Temperatura
Conceito
A temperatura é uma quantidade
fundamental, conceitualmente diferente na
natureza do comprimento, tempo e massa.
Quando dois corpos de mesmo
comprimento são combinados, tem-se o
comprimento total igual ao dobro do
original. O mesmo vale para dois intervalos
de tempo ou para duas massas. Assim, os
padrões de massa, comprimento e tempo
podem ser indefinidamente divididos e
multiplicados para gerar tamanhos
arbitrários. O comprimento, massa e tempo
são grandezas extensivas. A temperatura é
uma grandeza intensiva. A combinação de
dois corpos à mesma temperatura resulta
exatamente na mesma temperatura.
A maioria das grandezas mecânicas,
como massa, comprimento, volume e
peso, pode ser medida diretamente. A
temperatura é uma propriedade da energia
e a energia não pode ser medida
diretamente. A temperatura pode ser
medida através dos efeitos da energia
calorífica em um corpo. Infelizmente estes
efeitos são diferentes nos diferentes
materiais. Por exemplo, a expansão termal
dos materiais depende do tipo do material.
Porém, é possível obter a mesma
temperatura de dois materiais diferentes,
se eles forem calibrados. Esta calibração
consiste em se tomar dois materiais
diferentes e aquecê-los a uma determinada
temperatura, que possa ser repetida.
Coloca-se uma marca em algum material
de referência que não tenha se expandido
ou contraído. Depois, aqueça os materiais
em outra temperatura determinada e
repetível e coloque uma nova marca, como
antes. Agora, se iguais divisões são feitas
entre estes dois pontos, a leitura da
temperatura determinada ao longo da
região calibrada deve ser igual, mesmo se
as divisões reais nos comprimentos dos
materiais sejam diferentes.
Um aspecto interessante da medição de
temperatura é que a calibração é
consistente através de diferentes tipos de
fenômenos físicos. Assim, uma vez se
tenha calibrado dois ou mais pontos
determinados para temperaturas
específicas, os vários fenômenos físicos de
expansão, resistência elétrica, força
Quantidades Medidas

70
eletromotriz e outras propriedades físicas
termais, irá dar a mesma leitura da
temperatura.














Fig. 3.12. Conceito de frio e quente
relacionado com a temperatura


A lei zero da termodinâmica estabelece
que dois corpos tendo a mesma
temperatura devem estar em equilíbrio
termal. Quando há comunicação termal
entre eles, não há troca de coordenadas
termodinâmicas entre eles. A mesma lei
ainda estabelece que dois corpos em
equilíbrio termal com um terceiro corpo,
estão em equilíbrio termal entre si. Por
definição, os três corpos estão à mesma
temperatura. Assim, pode-se construir um
meio reprodutível de estabelecer uma faixa
de temperaturas, onde temperaturas
desconhecidas de outros corpos podem
ser comparadas com o padrão, colocando-
se qualquer tipo de termômetro
sucessivamente no padrão e nas
temperaturas desconhecidas e permitindo
a ocorrência do equilíbrio em cada caso.
Isto é, o termômetro é calibrado contra um
padrão e depois pode ser usado para ler
temperaturas desconhecidas. Não se quer
dizer que todas estas técnicas de medição
de temperatura sejam lineares mas que
conhecidas as variações, elas podem ser
consideradas e calibradas.
Escolhendo-se os meios de definir a
escala padrão de temperatura, pode-se
empregar qualquer uma das muitas
propriedades físicas dos materiais que
variam de modo reprodutível com a
temperatura. Por exemplo, o comprimento
de uma barra metálica, a resistência
elétrica de um fio fino, a milivoltagem
gerada por uma junção com dois materiais
distintos, a temperatura de fusão do sólido
e de vaporização do liquido.
Escalas
Para definir numericamente uma escala
de temperatura, deve-se escolher uma
temperatura de referência e estabelecer
uma regra para definir a diferença entre a
referência e outras temperaturas. As
medições de massa, comprimento e tempo
não requerem concordância universal de
um ponto de referência em que cada
quantidade é assumida ter um valor
numérico particular. Cada milímetro em um
metro, por exemplo, é o mesmo que
qualquer outro milímetro. Escalas de
temperatura baseadas em pontos notáveis
de propriedades de substâncias dependem
da substância escolhida. Ou seja, a
dilatação termal do cobre é diferente da
dilatação da prata. A dependência da
resistência elétrica com a temperatura do
cobre é diferente da prata.
Assim, é desejável que a escala de
temperatura seja independente de
qualquer substância. A escala
termodinâmica proposta pelo barão Kelvin,
em 1848, fornece uma base teórica para a
escala de temperatura independente de
qualquer propriedade de material e se
baseia no ciclo de Carnot.
Escala Prática Internacional de
Temperatura
O estabelecimento ou fixação de pontos
para as escalas de temperatura é feito
para que qualquer pessoa, em qualquer
lugar ou tempo possa replicar uma
temperatura específica para criar ou
verificar um termômetro. Os pontos
específicos de temperatura se tornam
efetivamente nos protótipos internacionais
de calor. A Conferência Geral de Pesos e
Medidas aceitou esta EPIT, em 1948,
emendou-a em 1960, e estabeleceu uma
nova em 1968 (com 13 pontos) e em 1990
(com 17 pontos).
A Escala Prática Internacional de
Temperatura (EPIT) foi estabelecida para
ficar de conformidade, de modo
aproximado e prático, com a escala
termodinâmica. No ponto tríplice da água,
as duas escalas coincidem exatamente,
por definição. A EPIT é baseada em
Quantidades Medidas

71
pontos fixos, que cobrem a faixa de
temperatura de -270,15 a 1084,62 oC.
Muitos destes pontos correspondem ao
estado de equilíbrio durante a
transformação de fase de determinado
material. Os pontos fixos associados com o
ponto de solidificação ou fusão dos
material são determinados à pressão de
uma atmosfera padrão (101,325 Pa)





















Fig. 3.13 - A unidade SI da temperatura termodinâmica
é o kelvin, K, que é definido como a 1/273,16 da
temperatura termodinâmica do ponto tríplice da água .


Além destes pontos de referência
primários, foram estabelecidos outros
pontos secundários de referência, que são
mais facilmente obtidos e usados, pois
requerem menos equipamentos. Porém,
alguns pontos secundários da EPIT 1968
se tornaram primários na EPIT 1990.
Há dois motivos para se ter tantos
pontos para fixar uma escala de
temperatura:
1. poucos materiais afetados pelo calor
mudam o comprimento linearmente
ou uniformemente. Tendo-se vários
pontos, a escala pode ser calibrada
em faixas estreitas, onde os efeitos
não linearidade podem ser
desprezados.
2. nenhum termômetro pode ler todas
as temperaturas. Muitos pontos fixos
permite um sistema robusto de
calibração.


Tab. 3.3 - Pontos Fixos da Escala
Prática Internacional de Temperatura
(1990)
Ponto Material Estado Temperatura
1 He Vapor -270,15 a -268,15
2 e-H2
a
Ponto triplo
b
-259,346 7
3 e-H2 Vapor ~-256,16
4 e-H2 Vapor ~-252,85
5 Ne Ponto triplo -248,593 9
6 O2 Ponto triplo -218,791 6
7 Ar Ponto triplo -189,344 2
8 Hg Ponto triplo -38,834 4
9 H
2
0 Ponto triplo 0,01
10 Ga Fusão 27,764 6
11 In Fusão 156,598 5
12 Sn Fusão 231,928
13 Zn Fusão 419,527
14 Al Fusão 660,323
15 Ag Fusão 961,78
16 Au Fusão 1064,18
17 Cu Fusão 1084,62
Notas:
a
- eH2 hidrogênio em concentração de
equilíbrio das formas ortomolecular e
paramolecular,
b
- Ponto triplo: temperatura em que as
fases sólida, líquida e gasosa estão em
equilíbrio.


Entre os pontos fixos selecionados, a
temperatura é definida pela resposta de
sensores específicos com equações
experimentais para fornecer a interpolação
da temperatura. Várias definições
diferentes são fornecidas, na EPIT de 1990
para temperaturas muito baixas, próximas
do zero absoluto. Nestas temperaturas,
usa-se um termômetro de gás He para
medir a pressão e a temperatura é inferida
desta pressão. Na faixa de 13,8033 K e
961,78
o
C a temperatura é definida por um
termômetro de resistência de platina, que é
calibrado em conjuntos específicos de
pontos fixos com equações de interpolação
cuidadosamente definidas.
Acima de 1064,18
o
C, a temperatura é
definida por pirômetro óptico de radiação,
onde a lei de Planck relaciona esta
radiação com a temperatura.
A EPIT é continuamente revista e uma
nova versão pode estender a faixa para o
32
0
0
o
C (K)
o
F (
o
R)
212 100
O
C = (
o
F - 32)/1,8
F=1,8C+32
escala
sensor
18 10
Quantidades Medidas

72
extremo inferior de 0,5 K, substituindo o
instrumento de interpolação a termopar
com uma resistência de platina especial e
atribuir valores com proximidade
termodinâmica para os pontos fixos.
Atualmente o mínimo valor definido na
EPIT é 13,81 K.













Fig.3.14. Calibrador de temperatura



A calibração de um dado instrumento
medidor de temperatura é geralmente feita
submetendo-o a algum ponto fixo
estabelecido ou comparando suas leituras
com outros padrões secundários mais
precisos, que tenham sido rastreados com
padrões primários. A calibração com outro
instrumento padrão é feita através do
seguinte procedimento:
1. colocam-se os sensores dos
dois instrumentos em contato
íntimo, ambos em um banho de
temperatura,
2. varia a temperatura do banho na
faixa desejada,
3. permite que haja equilíbrio em
cada ponto e
4. determinam-se as correções
necessárias.
Termômetros com sensores de
resistência de platina e termopares
geralmente são usados como padrões
secundários.
Unidades
A 9
a
CGPM (1948) escolheu o ponto
tríplice da água como ponto fixo de
referência, em lugar do ponto de gelo
usado anteriormente, atribuindo-lhe a
temperatura termodinâmica de 273,16 K.
Foi escolhido o grau kelvin (posteriormente
passaria para kelvin) como unidade base
SI de temperatura e se permitiu o uso do
grau Celsius (
o
C), escolhido entre as
opções de grau centígrado, grau
centesimal e grau Celsius para expressar
intervalos e diferenças de temperatura e
também para indicar temperaturas em uso
prático.
Em 1960, houve pequenas alterações
na escala Celsius, quando foram
estabelecidos dois novos pontos de
referência: zero absoluto e ponto tríplice da
água substituindo os pontos de
congelamento e ebulição da água.
A 13
a
CGPM (1967) adotou o kelvin no
lugar do grau kelvin e decidiu que o kelvin
fosse usado para expressar intervalo e
diferença de temperaturas.
Atualmente, kelvin é a unidade SI base
da temperatura termodinâmica e o seu
símbolo é K. O correto é falar
simplesmente kelvin e não, grau kelvin. O
kelvin é a fração de 1/273,16 da
temperatura termodinâmica do ponto
tríplice da água.
Na prática, usa-se o grau Celsius e o
kelvin é limitado ao uso científico ou a
cálculos que envolvam a temperatura
absoluta. Um grau Celsius é igual a um
kelvin, porem as escalas estão defasadas
de 273,15. A temperatura Celsius (T
c
)
está relacionada com a temperatura kelvin
(T
k
) pela equação:

T
c
= T
k
- 273,15

A constante numérica na equação
(273,15) representa o ponto tríplice da
água 273,16 menos 0,01. O ponto de 0
o
C
tem um desvio de 0,01 da escala Kelvin,
ou seja, o ponto tríplice da água ocorre a
0,01
o
C ou a 0,00 K.
Os intervalos de temperatura das duas
escalas são iguais, isto é, 1
o
C é
exatamente igual a 1 K.
O símbolo do grau Celsius é
o
C. A letra
maiúscula do grau Celsius é, às vezes,
questionada como uma violação da lei de
estilo para unidades com nomes de
pessoas. A justificativa para usar letra
maiúscula é que a unidade é o grau e
Celsius (C) é o modificador.
A temperatura pode ser realizada
através do uso de células de ponto tríplice
da água, com precisão de 1 parte em 10
4
.
Quantidades Medidas

73
Medições práticas tem precisão de 2
partes em 10
3
. A escala e os pontos fixos
são definidos em convenções
internacionais que ocorrem
periodicamente.














Fig. 3.15. Pirômetro de radiação


Medição da Temperatura
A medição pode ser medida por
sensores mecânicos e elétricos. Os
principais sensores mecânicos são o
bimetal e o sistema de enchimento termal.
Os principais sensores elétricos são o
termopar e o detector de temperatura e
resistência (RTD).
O sensor bimetal funciona baseando-se
na dilatação diferente para metais
diferentes. A variação da temperatura
medida causa variação no comprimento e
no formato da barra bimetal, que pode ser
usada para posicionar o ponteiro na escala
de indicação de temperatura.
O sistema de enchimento termal é
formado por um bulbo sensível, um sensor
de pressão, um tubo capilar de interligação
e um fluido de enchimento. O fluido pode
ser gás (tipicamente nitrogênio), fluido não
volátil (glicerina ou óleo de silicone) ou um
fluido volátil (éter etílico). A temperatura é
medida através da variação da pressão do
gás ou da pressão de dilatação do fluido
não volátil ou da pressão de vapor do
fluido volátil.
A medição de temperatura por termopar
se baseia na militensão gerada pela
diferença de temperatura entre as duas
junções de dois metais diferentes.
A medição de temperatura por
resistência elétrica se baseia na variação
da resistência elétrica de metais ou
termistores depender da variação da
temperatura medida.
Calibração do termômetro
Geral
A calibração de um termômetro envolve
a determinação de sua indicação de
temperatura em um número de
temperaturas conhecidas. Estas
temperaturas podem ser conhecidas
1. pelo estabelecimento de uma
condição altamente reprodutível,
como os pontos de mudança de
estados de substancias puras (ponto
de fusão ou solidificação, ponto de
ebulição ou liquefação, ponto triplo)
2. pelo fornecimento de um ambiente
isolado termicamente, cuja
temperatura é medida precisamente
por um termômetro padrão.
Para se ter calibrações exatas, a
condição de referência de temperatura
deve ser mantida constante, dentro dos
limites de precisão, durante períodos
longos de tempo comparados com as
constantes de tempo dos termômetros.
A interpolação entra na calibração de
dois modos:
1. a escala de temperatura (IPTS-90) é
definida em 11 pontos de referência
primários e 27 secundários. Apenas
15 destes pontos caem entre 0 e
1000
o
C. Não é prático reproduzir
mais do que umas poucas destas
condições definidas na calibração
prática de um termômetro, de modo
que deve-se usar a interpolação
para determinar a temperatura de
outros condições.
2. usando condições de ponto fixo ou
um termômetro de referência
padrão, a calibração pode ser
praticamente feita somente em um
número limitado de temperaturas
dentro da faixa de aplicação do
termômetro a ser calibrado. Uma
interpolação da calibração do
termômetro entre os pontos de
calibração deve ser feita para
fornecer uma tabela de calibração
de trabalho.
Termômetro com resistência de platina
padrão é empregado para fornecer
Quantidades Medidas

74
temperaturas de referência entre os pontos
fixos de 0 e 650
o
C na IPTS-91.O
termômetro pode ser usado para medir a
temperatura de banhos de temperatura
com precisão de ±0,01
o
C.
A precisão de instrumentos de
interpolação e das calibrações de
termômetros resultantes diminui na
proporção que se afasta dos pontos fixos
definidos ou pontos de calibração e a
situação piora mais ainda quando se
extrapola para pontos fora da faixa de
temperatura (abaixo do mínimo e acima do
máximo). A calibração de termômetros
deve sempre incluir, no mínimo, um ponto
abaixo e um acima dos limites da faixa de
temperatura.
Aplicando temperaturas de calibração
muito acima de sua faixa máxima pode
diminuir a exatidão resultante do
termômetro e até mesmo danificar o
sensor.
Pontos fixos de calibração
As calibrações dos termômetros podem
ser feitas em vários pontos fixos de
temperatura que são realizáveis
praticamente em um laboratório. Os
principais pontos são:
1. Ponto de gelo = 273,15 K ou 0
o
C,
que pode ser realizada com
exatidão reprodutível de 0,05
o
C .
2. Ponto de triplo d'água = 273,16 K ou
0,01
o
C, que pode ser realizada com
exatidão reprodutível de 0,01
o
C,
usando equipamento disponível
comercialmente .
3. Ponto de ebulição d'água = 373,15
K ou 100,0
o
C, que pode ser
realizada com exatidão reprodutível
de 0,1
o
C, @ pressão atmosférica de
760 mm Hg. A variação de 1 mm Hg
causa uma variação de temperatura
de 0,0037
o
C.
4. Ponto de fusão do chumbo =
505,1181 K ou 321,9681
o
C, que
pode ser realizada com exatidão
reprodutível de 0,05
o
C , usando
banhos comerciais com tempos de
repouso de, no mínimo, 10 minutos.
5. Ponto de fusão do zinco = 692,73 K
ou 419,58
o
C, que pode ser
realizada com exatidão reprodutível
de 0,05
o
C ,
6. Ponto de fusão do alumínio = 933,52
K ou 660,37 0,1
o
C, que pode ser
realizada com exatidão reprodutível
de 0,1
o
C.
Outros pontos de fusão são definidos
pela IPTS 90 como temperaturas primarias
ou secundarias e podem ser usados para
calibração de sensor até o ponto do ouro,
1227,58 K ou 1064,43
o
C, porém, eles são
difíceis de implementar, na prática.
Ambientes de temperatura controlados
ou variáveis comumente usados na
calibração de termômetros são banhos
agitados de água, óleo, mistura de sais,
câmara fluidizada de sólidos granulares e
blocos metálicos equalizados em fornalhas
aquecidas eletricamente. Quando se usa
ambientes isotermais, é necessário se ter
um termômetro padrão para determinar a
temperatura de calibração verdadeira.
Tradicionalmente, o sensor padrão
usado é o de platina padrão, com invólucro
de quartzo ou pyrex ou termopar tipo S (Pt
– 10% RH/90% Pt).
Para fazer a calibração,
1. define-se a faixa calibração do
termômetro
2. seleciona-se o número de pontos
fixos ou um banho de temperatura
com termômetro padrão
3. obtém-se um conjunto de pares de
temperatura (indicada pelo
instrumento e pelo padrão)
4. faz-se uma curva ou uma função
matemática que descreva a relação
indicação x temperatura
5. aplica-se algum método de encaixe
de pontos, para avaliar as incertezas
envolvidas
produz-se uma tabela de calibração
para o termômetro particular.
Calibração de Termômetros
A calibração de qualquer termômetro
requer um meio cuja temperatura seja
conhecida com precisão. Uma escolha
óbvia seria usar o meio em que a
temperatura seja conhecida através de leis
da natureza. Por exemplo, o ponto triplo da
água, o ponto de fusão do zinco e outros
pontos de mudança de estado de
substâncias puras. Como estes meios
requerem um esforço complicado para sua
produção e manutenção, eles são usados
principalmente para a calibração de
Quantidades Medidas

75
termômetros padrão. Para os termômetros
industriais, usa-se um método mais rápido,
simples e prático, envolvendo um meio
simples como banho de gelo ou um banho
de óleo cuja temperatura seja medida com
um termômetro padrão de precisão. A
precisão ou o termômetro padrão é
chamado de termômetro de referência.
A indicação de um termômetro sob
calibração é comparada com a do
termômetro de referência em vários pontos
diferentes de temperatura cobrindo toda a
faixa desejada. Este método é chamado de
calibração por comparação, diferente da
calibração em pontos fixos que envolve o
uso dos pontos notáveis de mudança de
estado. Um arranjo típico para a calibração
de comparação de temperatura envolve
um banho de calibração (banho de gelo ou
de óleo), um termômetro de referência e
um meio para medir a leitura dos
termômetros de referência e sob
calibração.
A precisão de uma calibração por
comparação é determinada pela precisão
dos equipamentos e pelo procedimento de
calibração. Usam-se vários componentes
na calibração por comparação.
Precisão do termômetro de referência.
Ela depende da precisão inicial do
termômetro de referência e seu desvio.
Valores típicos para a precisão inicial de
um termômetro de referência são 0,001 a
0,1
o
C, dependendo do tipo do termômetro
e seu método de calibração. A melhor
precisão seria conseguida com um
termômetro com resistência de platina
padrão calibrado no NIST, com a precisão
de alguns milésimos de
o
C.
Desvio do termômetro de referência.
O desvio possível do termômetro de
referência deve ser considerado para o
estabelecimento da precisão da calibração.
Em caso de um termômetro recentemente
calibrado que é conhecido ser estável de
sua historia passada, o desvio pode ser
desprezado. Caso contrário, o desvio deve
ser incluído no calculo da precisão total.
Valores típicos de desvio são 0,005 a 0,05
o
C por ano, dependendo da qualidade e da
manipulação do termômetro de referência.
Precisão do equipamento de medição.
O equipamento de medição, como
pontes, galvanômetros e multímetros
digitais são usados para medir a saída do
termômetro de referência. O arranjo mais
preciso seria um termômetro com
resistência de platina como referência e
um ponto de relação. Neste caso, a
precisão resultante em termos de
temperatura seria equivalente a alguns
milésimos de
o
C.
Desvio do equipamento de medição.
A não ser que o equipamento de
medição tenha sido calibrado
recentemente, deve-se incluir um valor de
desvio à precisão total da calibração. A
faixa equivalente para a temperatura seria
0,01 a 0,1
o
C por ano.
Estes quatro componentes devem ser
considerados para a determinação da
precisão com que se pode medir a
temperatura do meio ou banho de
calibração. Deve-se considerar também a
precisão em que se pode medir a saída do
termômetro sendo calibrado, que depende
da precisão inicial e do desvio do
equipamento de medição.
Considerações do Procedimento
Além dos limites de precisão associados
com o termômetro de referência e o
equipamento de medição, deve-se
considerar o procedimento. Os
componentes envolvidos aqui incluem a
estabilidade e uniformidade do banho. A
uniformidade do banho deve ser expressa
em termos da máxima diferença de
temperatura devida à distribuição espacial
da temperatura que pode existir entre a
temperatura do termômetro de referência e
o termômetro sendo calibrado.
Um bloco equalizador feito de alumínio
ou cobre ajuda a se manter o erro de
uniformidade o mínimo possível e pode
melhorar a estabilidade. O erro devido a
instabilidade do banho pode também ser
reduzido fazendo-se medições múltiplas
dos dois termômetros e fazendo-se a
media das medições. A contribuição da
estabilidade do banho para a precisão da
calibração pode ser expressa em termos
do desvio padrão das medições. O impacto
negativo da uniformidade e estabilidade do
banho na precisão final da calibração pode
Quantidades Medidas

76
ser ainda minimizada fazendo-se o
seguinte:
1. fazer a medição uma ou duas horas
depois que a temperatura do banho tenha
sido estabilizada em um dado ponto de
calibração. Isto reduz o erro de
uniformidade do banho.
2. fazer medições simultâneas da saída
do termômetro de referência e do
termômetro sendo calibrado. Isto minimiza
o erro de estabilidade.
As medições anteriores podem ser
realizadas em um arranjo controlado por
computador. Para máxima precisão e
eficiência, o computador pode ser
programado para
1. monitorar e controlar o banho,
2. monitorar a estabilidade do banho,
3. fazer medidores e
4. processar os dados de calibração.
O sistema pode incluir uma unidade de
chaveamento para permitir a varredura de
vários termômetros calibrados
simultaneamente.
O computador pode estabelecer a
temperatura do banho para um ponto de
calibração desejado, monitorar a
temperatura até que ela fique estável de
acordo critérios predeterminados de
estabilidade, fazer as medições, coletar os
dados e processar os dados para fornecer
a carta de calibração do termômetro. Com
tal arranjo, os erros de estabilidade e
uniformidade pode ser minimizados.
Agora, deve-se estimar a melhor
precisão que pode ser obtida em um ponto
de calibração. Tipicamente, tem-se
incertezas entre 0,04 a 0,55
o
C em um
ponto de calibração. Isto estabelece a faixa
para a precisão que pode ser obtida em
um dado ponto de calibração dentro de
uma faixa moderada de temperatura. Os
termômetros devem ser calibrados em
mais de um ponto. Os pontos adicionais de
calibração elevam os erros acima dos
limites de 0,04 e 0,55
o
C.
Os fatores adicionais que introduzem
erros na calibração incluem o auto-
aquecimento em RTDs, erros de imersão
durante a calibração em RTDs e
termômetros, erros de resistência de
isolação, erros associados com redução de
dados de calibração. Estas considerações
indicam que a melhor precisão conseguida
para um termômetro industrial não pode
ser melhor do que 0,1
o
C, mesmo para um
sensor novo que tenha sido calibrado
recentemente. Uma vez que o termômetro
é instalado no processo, a precisão pode
começar a se deteriorar quando o sensor
envelhece. A taxa desta deterioração
depende da qualidade do termômetro, sua
instalação, condições de processo e outros
fatores.
As limitações de como um termômetro
industrial pode ser bem calibrado e manter
sua calibração indicam que a faixa de ±0,1
a ±1,0
o
C é a melhor precisão que se pode
conseguir com um termômetro industrial
usado em faixa moderada de temperatura
em uma instalação típica industrial.
obviamente, o termômetro pode indicar a
temperatura verdadeira do processo mas o
usuário não pode estar certo de que se
está medindo a temperatura melhor do que
±0,1 a ±1,0
o
C. O afastamento da
temperatura medida do valor verdadeiro
depende de vários fatores:
1. tipo do termômetro sendo usado,
2. faixa de temperatura sendo medida,
3. condições do processo e do ambiente
onde o termômetro está exposto.
Geralmente, RTDs oferecem melhor
precisão do que os termopares. Também,
em faixas moderadas de temperatura, uma
melhor precisão é conseguida no inicio da
faixa do que na extremidade superior da
faixa. Por exemplo, é muito mais simples
medir com precisão a temperatura
ambiente da sala do que a temperatura de
300
o
C no processo industrial.
Termômetros de vidro
Mesmo um termômetro de haste de
vidro deve ser calibrado periodicamente,
onde se inspecionam visualmente e
verificam as dimensões, permanência do
pigmento, estabilidade do bulbo e precisão
da escala. Depois da calibração, podem
ser feitas correções, aplicados fatores de
correção ou o termômetro pode ser
descartado.
Para maiores detalhes, deve se
consultar a norma ASTM E 77 – 92:
Standard Test Method for Inspeciton and
Verification of Thermometers. Várias
normas ASTM cobrem os termômetros
clínicos.
Quantidades Medidas

77
Termômetros a bimetal
O termômetro a bimetal possui todos os
componentes de medição – sensor,
condicionador e indicador – em um único
invólucro. O sensor a bimetal integral ao
instrumento não pode ser calibrado
isoladamente mas somente pode ser
inspecionado visualmente, para verificar
corrosão ou danos físicos evidentes.
O que se faz é calibrar o sistema de
indicação, colocando-se o termômetro em
um banho de temperatura e comparando
as indicações do termômetro com as
indicações de um termômetro padrão
colocado junto. O termômetro a bimetal
pode ser calibrado e, se necessário,
ajustado nos pontos de zero e de largura
de faixa.
Termopares
Os termopares transformam calor em
eletricidade. As duas extremidades de dois
fios de metais diferentes, como ferro e
constantant®, são trançadas juntas para
formar duas junções: uma de medição e
outra de referência. Um voltímetro ligado
em serie irá mostrar uma voltagem
termelétrica gerada pelo calor. Esta
voltagem é função da
1. diferença de temperatura entre a
junção de medição e a junção de
referência.
2. tipo do termopar usado
3. homogeneidade dos metais
O mesmo resultado é obtido se as
extremidades de referência de dois fios
são ligadas diretamente aos terminais do
voltímetro; estes terminais formam agora a
junção de referência.
Como a homogeneidade dos fios
componentes do termopar pode se
modificar, o termopar e os fios de extensão
de termopar devem ser periodicamente
calibrados. A calibração consiste em
verificar se as suas características se
afastaram dentro da tolerância (termopar
bom) ou além da tolerância (termopar deve
ser descartado).
As técnicas de calibração do termopar
tem sido melhoradas constantemente em
velocidade e confiabilidade, por causa do
uso do microprocessador. A técnica antiga
consistia em ligar o instrumento receptor
do termopar aos terminais de um
potenciômetro portátil de militensão, medir
a temperatura destes terminais com um
termômetro padrão, ajustar a saída do
potenciômetro para dar a indicação teórica
no receptor e anotar o ajuste do
potenciômetro. Finalmente, se procurava a
temperatura correspondente em tabelas
padrão. Este processo consumia muito
tempo e era susceptível a erros potenciais.
A medição de temperatura nos terminais
é necessária porque um termopar contem
inerentemente duas junções de metais
diferentes e não apenas uma. A saída de
voltagem deste sistema de termopar é
afetada pelas temperaturas de ambas as
junções. A medição da temperatura da
junção de medição, deste modo, requer o
conhecimento da temperatura da junção de
referência. Em muitos instrumentos, a
junção de referência ocorre nos terminais
de ligação neste instrumento receptor.

Quantidades Medidas

78
Tab. 3. 5. Incertezas de calibração em termopares calibrados pelo método de
comparação
A


Incerteza Tipo Faixa,
o
C Pontos de calibração
Pontos
observados
Valores interpolados
0 a 870
C
cada 100 0,5 1
0 a 870
C
300, 600 e 870 0,5 2
0 a 350
D
cada 100 0,1 0,5
E
-160 a 0
D
cada 50 0,1 0,5
0 a 760
C
100, 300, 500 e 750 0,5 1 J
0 a 350
D
cada 100 0,1 0,5
0 a 1250
C
cada 100 0,5 1
0 a 1250
C
300, 600, 900 e 1200 0,5 2
0 a 350
D
cada 100 0,1 0,5
K
-160 a 0
D
cada 50 0,1 0,5
0 a 1450
C
cada 100 0,3 0,5 a 1100 e 2 a 1450 R e S
0 a 1450
C
600 e 1200 0,3 1 a 1100 e 3 a 1450
0 a 1700
C
cada 100 0,3 0,5 a 1100 e 3 a 1700 B
0 a 1700
C
600 e 1200 0,3 1 a 1100 e 5 a 1700
0 a 370
D
cada 100 0,1 0,2
0 a 100
D
50 e 100 0,05 0,1
T
-160 a 0
D
cada 60 0,1 0,2


A
Valores foram extraídos da Circular 590 do National Bureau of Standards (hoje NIST)
C
Em fornos tubulares, por comparação com um termopar tipo S calibrado
D
Em banhos líquidos agitados, por comparação com um RTD de platina calibrado




Quantidades Medidas

79
O microprocessador simplificou muito a
calibração do termopar. Sua memória pode
conter as curvas de temperatura (voltagem
x temperatura) para os diferentes
termopares. Estas curvas são geradas
usando-se equações publicadas pelo
National Institute of Standards and
Technology. Um instrumento a
microprocessador também faz a medição
da temperatura da junção de referência,
incorporando-a em um resultado
compensado corretamente. Quando a
calibração do instrumento baseado em
microprocessador recebe uma voltagem,
ele imediatamente translada para a
unidade de temperatura (
o
C), de acordo
com tabelas contidas na sua memória e
indica digitalmente estes valores.
Para calibrar instrumentos com
termopar, a técnica básica é fornecer um
sinal conhecido para o instrumento
receptor para garantir que ele está dando
uma indicação precisa e exata. O
calibrador fornece este sinal de uma fonte
estável e monitora, ao mesmo tempo, o
sinal com o sistema de medição do próprio
calibrador. A curva temperatura vs
voltagem armazenada no sistema do
microprocessador do calibrador é o ponto
de referência para gerar uma saída
correta. Assim, o calibrador simula o
termopar, gerando uma tensão
correspondente à temperatura e indicando
temperatura (e não tensão).
Além de calibrar e ajustar o instrumento
receptor (registrador, indicador,
controlador), deve-se calibrar o sensor em
si. O sensor pode ser substituído por um
sensor novo calibrado ou pode ser
removido e calibrado em um laboratório de
temperatura. Ele também pode ser
calibrado no local se um sensor padrão de
referência puder ser instalado
temporariamente próximo do termopar de
trabalho. Este caso nem sempre é
possível, mas quando possível, ele deve
ser preferido. Sua vantagem é que o
sensor instalado é aferido em sua condição
real de operação. Um calibrador tendo dois
canais de entrada torna este método
prático.
Vantagens da Calibração Inteligente
Os calibradores a microprocessador
melhoram muito a precisão. Sem esta
ajuda, o técnico começa com algum erro
pelo fato de usar um termômetro separado
na junção de referência que não está
colocado na junção de referência. A
conversão manual de tabelas pode levar a
erros humanos de operação. Usando a
técnica de microprocessador, consegue-se
precisão de até 0,02%.
Os calibradores digitais podem ter
outras funções, oferecendo uma faixa de
características para medir todos os tipos
de termopares e fontes de militensões e
para calibrar registradores, indicadores,
controladores e outros tipos de circuitos
potenciométricos e pirométricos. Os
calibradores são portáteis e leves, com
baterias recarregáveis e autocontidas.
Os instrumentos a microprocessador
podem medir e simular os sete tipos de
termopares definidos pela ISA e outros
padrões internacionais e adaptados para a
maioria das aplicações. Cada termopar
tem suas próprias ligas metálicas, faixas
de temperatura e códigos de cores. Estes
termopares são do tipo: B, E, J, K, R, S e
T. Um oitavo tipo, N, foi definido e está
sendo padronizado. As curvas destes
termopares, disponíveis na literatura
técnica, mostram tensão (mV) versus
temperatura (
o
C) e podem ser
armazenadas na memória do calibrador.
A calibração com instrumento a
microprocessador permite a calibração
mais rápida, mais direta e mais precisa.

Há ainda tabelas gerais, tais como:
1. Tolerâncias nos valores iniciais de
fem versus temperatura para
termopares
2. Limites superiores sugeridos para
termopares protegidos
3. Coeficientes polinomiais para
termopares gerando fem como
função de temperatura
4. Coeficientes de polinômios inversos
para computação da temperatura
aproximada como função de fem de
termopares

Quantidades Medidas

80
2.5. Corrente Elétrica
Conceito
A 9
a
CGPM (1948) adotou a definição
de ampere, baseando-se em unidades
mecânicas existentes, como a corrente
constante que, se mantida em dois
condutores retos paralelos de comprimento
infinito, de seção circular desprezível e
colocados em uma distância de 1 m, no
vácuo, produzem entre estes condutores
uma força igual a 2 x 10
-7
N por metro de
comprimento.
Outra definição mais prática e realizável
estabelece que 1 ampere é a corrente
elétrica que deposita 1,118 mg de prata em
1 s de uma solução saturada de óxido de
prata.
Atualmente, há pesquisas e estudos no
SI para mudar a unidade padrão elétrica
corrente elétrica para tensão elétrica, que é
mais fácil de se manipular.





Fig. 3. 16 - O ampere e sua definição SI


Unidade
O ampere é a unidade SI base de
corrente elétrica e o seu símbolo é A.
Realização da Unidade Base SI
A corrente elétrica pode ser realizada
pela balança de corrente de Ayrton-Jones,
com precisão de 2 partes em 10
6
. A
resistência elétrica pode ser medida com
precisão de 5 partes em 10
8
pelo capacitor
calculável de Thompson-Lampard e o volt
pode ser medido com 3 partes em 10
8

usando os efeitos Josephson, que são
insatisfatórios.
Padrões
Como a precisão da realização do
ampere pela balança de corrente é muito
pobre quando comparada com a precisão
de intercomparação de células padrão e
resistores, e também por causa da
dificuldade de armazenar o valor realizado
do ampere, os Laboratórios Nacionais de
Padrão usam bancos de células padrão e
resistores como padrões primários
mantidos.
















Fig. 3.17 Instrumento multímetro,
portátil, que mede corrente, tensão,
resistência e freqüência













Fig. 3.18. Instrumento multímetro de oficina






Quantidades Medidas

81
2.6. Quantidade de Matéria
Conceito
O nome desta grandeza é quantidade
de matéria, tendo como base o nome
francês quantité de matière, porém é
usado também o nome quantidade de
substancia, por causa da influencia do
inglês amount of substance. Este nome
recorda o latim quantitas materiae,
utilizado para designar a grandeza que
hoje se chama massa. Deve-se esquecer
este significado pois a massa e a
quantidade de matéria são grandezas
diferentes.
Mol é a unidade de quantidade de
matéria, criada para os químicos, em 1971.
O mol é definido no SI como a quantidade
de matéria de um sistema que contem um
número de unidades elementares igual ao
número de unidades contidas nos átomos
de C-12 em exatamente 0,012 kilograma.
A unidade elementar deve ser especificada
e pode ser átomo, molécula, íon, elétron ou
grupo específico destas entidades.
Um mol contem a mesma quantidade de
átomos que 0,012 kilograma de carbono C-
12. Anteriormente, o oxigênio (O
2
-16) era
usado como referência, porem, por
desavenças entre físicos e químicos e por
causa da existência de três isótopos do
oxigênio (16, 17 e 18), em 1960 houve um
acordo entre eles para se usar o isótopo 12
do carbono.
A lei de Avogrado estabelece que iguais
volumes de gases ideais, à mesma
temperatura e pressão, contem o mesmo
número de moléculas. O número de moles
pode ser expresso como o número de
unidades elementares dividido pelo
número de Avogadro (6,02 x 10
23
). A
unidade elementar pode ser átomo,
molécula, íon, elétron, fóton ou um grupo
especifico de tais unidades, porém a
entidade usada deve ser especificada.
O mol é numericamente igual à massa
molecular em gramas, erroneamente
chamada de peso molecular. O mol não é
uma unidade de massa mas deve ser
considerada como tendo uma dimensão
própria. As vezes se pensa que a
existência da massa tornaria
desnecessária a quantidade de matéria.
Há situações na química e física onde é
desejável basear as medições das
propriedades em um componente
fundamental da matéria, como a molécula
e o átomo. As massas expressas em
unidades de kilograma são muito
pequenas e com exatidões inadequadas.
Como é bem estabelecido que o mesmo
número de moléculas e átomos tem a
mesma massa e propriedades, é
conveniente definir uma quantidade base
de quantidade de matéria - o mol.
Para aumentar a precisão das
quantidades envolvidas, o mol é definido
indiretamente pela comparação do número
de entidades relacionadas com as que
constituem 0,012 kg de C-12. Uma
contagem direta destes itens em um mol
substitui a referência das medições de
massas, levando a uma precisão maior em
termos de mol.
A massa molecular ou atômica tendo o
kilograma por mol como unidade deve
substituir o peso molecular ou o peso
atômico. A palavra molar colocada depois
de uma quantidade indica que ela se refere
à unidade de quantidade de matéria (mol),
ou seja, por mol de matéria. O termo
especifico corresponde a uma quantidade
sendo referida à unidade de massa (kg).
Por exemplo, a massa molar do metano é
0,016 043 kg/mol e para o bióxido de
carbono é 0,044 010 kg/mol. Estas duas
massas tem exatamente o mesmo número
de moléculas.
Unidades
O mol é a unidade de base SI de
quantidade de matéria e o seu símbolo é
mol. Não se deve dizer que n é o número
de moles, mas que n é a quantidade de
matéria.
O volume molar de um gás ideal nas
condições normais de temperatura e
pressão (0
o
C e 1 atmosfera) é igual a 22,4
litros. Volumes iguais de gases contem
números iguais de partículas. Um mol de
qualquer gás contem 6,02 x 10
23

moléculas.

Quantidades Medidas

82
2.7. Intensidade Luminosa
As unidades de intensidade luminosa se
baseavam em padrões de chama ou
lâmpadas de filamento incandescente. A
9
a
CGPM (1948) substituiu o nome de vela
nova por candela, que correspondia à
luminância do emissor de radiação de
Planck (corpo negro) à temperatura de
fusão da platina, por sugestão da
Comissão Internacional de Iluminação.
A 13
a
CGPM (1967) redefiniu a unidade
candela, como a intensidade de luz
incidindo na direção perpendicular a uma
superfície de 1/600 000 metro quadrado
de um corpo negro radiador perfeito, à
temperatura de liquefação da platina (2024
K), à pressão padrão (101 325 pascals).
A 16
a
CGPM (1979) redefiniu
novamente a candela, por causa da
dificuldade prática e realizar o irradiador de
Planck em alta temperatura e das novas
facilidades da radiometria. Atualmente, a
candela é a intensidade luminosa, numa
dada direção de uma fonte que emite uma
radiação monocromática de freqüência
540 x 10
12
Hz e com intensidade
energética nesta direção de 1/683 W/sr.
Candela é a unidade base SI de
intensidade luminosa, com símbolo de cd.
(Candela, em latim significa vela).
A realização da candela é conforme a
definição, o que é difícil e impreciso. A
precisão obtida é de 5 partes em 10
6
. Por
exemplo, uma lâmpada incandescente de
100 watts tem aproximadamente
intensidade luminosa de 135 candelas (135
cd).





Fig. 3. 19. Conceito de intensidade luminosa
2.8. Quantidades Suplementares
Há duas grandezas suplementares:
1. ângulo plano, unidade radiano (rad)
2. ângulo sólido, unidade esterradiano (sr)
Embora estas grandezas tenham sido
apresentadas como suplementares elas
são análogas às grandezas de base.
Ângulo plano e ângulo sólido podem ser
considerados adimensionais, ou seja, suas
unidades podem ser radiano e
esterradiano ou nenhuma dimensão.
Ângulo Plano
O radiano é a unidade de ângulo plano.
Um radiano é o ângulo plano com seu
vértice no centro de um círculo
compreendido por um arco com
comprimento igual ao do raio. O radiano é
adimensional. O símbolo do radiano é rad.
1 radiano é igual a 57,2958
o
.
O círculo possui 2 π radianos
(aproximadamente 6,2832 rad).
Na prática, usa-se mais o grau que o
radiano para expressar os ângulos planos.
O radiano é mais usado em equações
científicas e de engenharia.
Ângulo Sólido
O esterradiano é a unidade de ângulo
sólido. Um esterradiano é o ângulo sólido
com o vértice no centro de uma esfera
compreendido por uma área de superfície
esférica igual a de um quadrado tendo
lados iguais ao comprimento do raio. O
símbolo do esterradiano é sr.
A esfera possui 4 π esterradianos
(12,566 sr).




Fig. 3.20 - Definições SI de radiano e esterradiano.

APOSTILA\METROLOG 4QuantBas.DOC 22 SET 98 (Substitui 01 ABR 98)


83
4
Instrumentos de Medição

Objetivos de Ensino
1. Relacionar as necessidades e aplicações das medições das variáveis, em controle,
monitoração e alarme de processos industriais.
2. Apresentar as principais funções da medição e controle: detecção da variável,
condicionamento do sinal, apresentação dos dados e atuação no processo.
3. Mostrar os principais tipos de instrumentos, pelo princípio de funcionamento,
atuação, alimentação, natureza do sinal.
4. Apresentar o conceito de elemento sensor, terminologia e princípios básicos de
funcionamento.
5. Apresentar os principais condicionadores de sinal: transmissor, filtro, amplificador,
linearizador, conversor A/D e D/A.
6. Conceituar e especificar os principais instrumentos de display: indicador, visor,
registrador, contador-totalizador e controlador.
7. Conceituar as características estáticas e dinâmicas dos instrumentos, como
exatidão e precisão.
8. Apresentar os parâmetros da precisão, como linearidade, repetitividade,
reprodutibilidade, sensitividade, zona morta, velocidade de resposta e
confiabilidade.
9. Diferenciar as expressões de precisão, em percentagem de fundo de escala e do
valor medido.
10. Mostrar a filosofia para escolher e especificar a precisão necessária do instrumento.
11. Conceituar rangeabilidade.
12. Conceituar erro e apresentar os diferentes tipos e causas de erros, grosseiros,
aleatórios e sistemáticos.
13. Apresentar os tipos de erros em função do tempo, origem.
14. Mostrar as fontes do erro sistemático: inerente ao instrumento, influência,
modificação e carga do instrumento.
15. Apresentar a filosofia para determinação do erro resultante.



Instrumentos de Medição

84
1. Medição
1.1. Metrologia
Metrologia é a ciência das medições. A
palavra metrologia é derivada de duas
palavras gregas: metro que significa
medição e logia que significa ciência. O
termo é usado em um sentido mais restrito
para significar a porção da ciência da
medição usada para fornecer, manter e
disseminar um conjunto consistente de
unidades, para fornecer suporte para o
cumprimento de igualdade no comércio por
leis de pesos e medidas ou para fornecer
dados para controlar qualidade em
processos.
Uma medição é uma série de
manipulações de objetos ou sistemas
físicos de acordo com um protocolo
definido que resulta em um número. O
número é reportado para representar
unicamente a magnitude ou intensidade de
alguma satisfação de que depende as
propriedades do objeto sob teste. Este
número é desenvolvido para formar a base
de uma decisão afetando algum objetivo
humano ou satisfazendo alguma
necessidade humana, a satisfação de que
depende das propriedades do objetivo sob
teste.
Estas necessidades podem ser vistas
de modo útil como requerendo três classes
gerais de medição:
1. Técnicas
2. Legais
3. Científicas
Técnicas
Esta classe inclui as medições feitas
para garantir a compatibilidade
dimensional, conformação a
especificações de projeto necessárias para
uma função apropriada ou em geral, todas
as medições feitas para garantir
adequação para uso pretendido de algum
objeto.
Legal
Esta classe inclui as medições feitas
para garantir cumprimento da lei ou
regulação. Esta classe se refere a
instituições de pesos e medidas,
inspetores e aqueles que devem fazer
cumprir as leis. As medições são idênticas
em espécie às da metrologia técnica mas
são revestidas de uma estrutura mais
formal.
Científica
Esta classe inclui as medições feitas
para validar teorias da natureza do
universo ou para sugerir novas teorias.
Estas medições, que podem ser chamadas
de metrologia científica apresentam
problemas especiais.
1.2. Resultado da Medição
Nenhum ramo da ciência ou da técnica,
da indústria ou do comércio pode se
organizar sem a existência de medições
que determinem as dimensões ou
características do produto.
O resultado de qualquer medição de
uma grandeza física resulta sempre em
três fatores:
1. o valor numérico da grandeza
2. a unidade da grandeza.
3. a incerteza da medição, associada a
uma
4. probabilidade de que o valor medido
caia nos intervalos da incerteza.
A importância da incerteza ou erro da
medição é que ela obscurece a habilidade
de se obter a informação que se quer: o
valor verdadeiro da variável medida. Por
causa dos erros, a exatidão de uma
medição nunca é certa. A estatística
mostra que o valor verdadeiro conseguido
em um conjunto de medições é dado por
sua média aritmética e a incerteza neste
valor é:

x x u
x
= ± (P%)
onde
x = valor medido
x = média das medições da amostra
u
x
= incerteza da medição
P = probabilidade que a medição esteja
dentro do intervalo (x - u
x
) e (x + u
x
)
O resultado da medição do
comprimento de uma peça pode ser, por
exemplo,

(8,0 ± 0,2) m
onde
8,0 é o valor provável do comprimento
Instrumentos de Medição

85
0,2 é a incerteza da medição, feita por
um instrumento real e há uma
probabilidade de 95% que o valor 8,0
medido esteja entre o intervalo 7,8 e 8,2
(esta informação deve ser dada pelo
fabricante do instrumento e informada no
catálogo do instrumento que fez a medição
do comprimento)
m é o símbolo da unidade de
comprimento metro.
Afirmar simplesmente que o resultado é
8 não tem nenhum significado, a não ser
que se complete a informação com a
unidade metro, a incerteza 0,2 e a
probabilidade associada com esta
incerteza.
Há grandezas sem unidades, como
densidade relativa, índice de refração,
coeficiente de atrito, número de Reynolds.
1.3. Aplicações da Medição
Os principais usos da medição em
processos industriais e operações são:
1. controle
2. monitoração
3. alarme.
Controle
Controlar uma variável de processo é
mantê-la constante e igual a um valor
desejado ou variando dentro de limites
estreitos. Só se controla uma variável. Não
se pode ou não há interesse em controlar
grandeza que seja constante. O controle é
tão bom quanto a medição da variável
controlada.
O controle pode ser obtido
manualmente, quando o operador atua no
processo baseando-se nas medições e
indicações de grandezas do sistema. O
controle manual é de malha aberta e é
matematicamente estável.
Há várias técnicas e teorias para se
obter o controle automático de processos
industriais. A técnica básica e a mais
usada é através da malha fechada com
realimentação negativa (feedback), onde
1. se mede a variável controlada na
saída do processo,
2. compara-a com um valor de
referência e
3. atua na entrada do processo,
4. de modo a manter a variável
controlada igual ao valor desejado ou
variando em torno deste valor.
O controle automático com
realimentação negativa pode se tornar
mais complexo, envolvendo muitas
variáveis de processo simultaneamente.
São casos particulares de controle a
realimentação negativa multivariável:
cascata, faixa dividida (split range) e auto-
seletor.
Outra técnica alternativa é o controle de
malha fechada preditivo antecipatório
(feedforward). Esta estratégia envolve
1. a medição de todos os distúrbios que
afetam a variável controlada,
2. um modelo matemático do processo
sob controle,
3. a atuação em uma variável
manipulada,
4. no momento em que há previsão de
variação na variável controlada e
antecipando-se ao aparecimento do
erro.
5. para manter a variável controlada
constante e igual ao valor desejado,
Um caso particular e elementar de
controle preditivo antecipatório é o controle
de relação de vazões.



Fig. 4.1. Instrumentos de leitura e cegos (Foxboro)

Instrumentos de Medição

86
Monitoração
Monitorar é supervisionar um sistema,
processo ou operação de máquina, para
verificar se ele opera corretamente durante
sua operação. Em instrumentação, é
comum usar instrumentos para medir
continuamente ou em intervalos uma
condição que deve ser mantida dentro de
limites predeterminados. São exemplos
clássicos de monitoração:
1. radioatividade em algum ponto de
uma planta nuclear,
2. deslocamento axial ou vibração radial
de eixos de grandes máquinas rotativas,
3. reação química em reatores através
da análise de composição dos seus
produtos.
Um sistema de monitoração é diferente
de um sistema de controle automático
porque não há atuação automática no
sistema, ou por incapacidade física de
atuação ou por causa dos grandes atrasos
entre as amostragens, medições e
atuações. No sistema de monitoração,
todas as indicações e registros são
avaliados continuamente, analisam-se as
condições do processo e, em caso
extremo, pode-se desligar o sistema, de
modo automático ou manual, quando os
limites críticos de segurança são atingidos.
Alarme
Em sistemas de controle e de
monitoração é comum se ter alarmes. Um
sistema de alarme opera dispositivos de
aviso (luminoso, sonoro) após a ocorrência
de uma condição indesejável ou perigosa
no processo. O sistema de alarme é usado
para chamar a atenção do operador para
condições anormais do processo, através
de displays visuais e dispositivos sonoros.
Os displays visuais geralmente piscam
lâmpadas piloto para indicar condições
anormais do processo e são codificados
por cores para distinguir condições de
alarme (tipicamente branca) e de
desligamento (tipicamente vermelha).
Diferentes tons audíveis também podem
ser usados para diferenciar condições de
alarme e de desligamento.
Um sistema de alarme possui vários
pontos de alarme que são alimentados por
uma única fonte de alimentação. O
anunciador de alarme apresenta a
informação operando em seqüência. A
seqüência descreve a ordem dos eventos,
incluindo as ações das chaves de alarme,
lógica do anunciador, sinal sonoro, display
visual e ação do operador.
Tipicamente, cada seqüência tem
quatro objetivos:
1. alertar o operador para uma condição
anormal,
2. indicar a natureza da condição
anormal (alarme ou desligamento),
3. requerer a ação de conhecimento
pelo operador
4. indicar quando o sistema retorna à
condição normal.
1.4. Tipos de Medição
Os três tipos principais de medição são:
1. medição direta
2. comparação
3. substituição
Medição direta
Como o nome sugere, esta é a forma
mais simples de medição. Por exemplo, se
mede a voltagem escolhendo um medidor
com a faixa correta de voltagem, ligando-o
nos terminais apropriados e lendo a
voltagem diretamente da posição do
ponteiro na escala ou nos dígitos do
display.



Fig. 4.2. Medição direta

Instrumentos de Medição

87
O método direto de pesagem toma uma
balança com mola, com a faixa correta,
coloca nela o peso desconhecido e lê o
deslocamento na escala calibrada.
O método direto de medição baseia no
comportamento de algum sistema físico
(sensor e processador do sinal) para
converter a quantidade medida (sinal de
entrada) em uma quantidade observável
(sinal de saída). Para o voltímetro, o
processo físico é a rotação da bobina
móvel quando a corrente passa por ela. A
balança de mola se baseia no
deslocamento causado pela força da
gravidade no peso. Para os dois
instrumentos, é necessária uma calibração
inicial da posição do ponteiro, como uma
função da magnitude do sinal de entrada.
Isto é feito somente em uma posição,
tipicamente na deflexão de fundo de escala
e a precisão da leitura em outros pontos
depende da linearidade da resposta do
sistema. A precisão contínua do
instrumento entre as calibrações depende
do valor pelo qual a resposta do sistema
pode variar, devido ao envelhecimento e
outros efeitos. A precisão da medição
direta depende fundamentalmente do
sistema físico escolhido como transdutor e
processador do sinal, do número de vezes
de calibração do sistema e da qualidade do
equipamento usado.
Medição comparativa - balanço de nulo
O método comparativo de pesagem
deve ser muito familiar a todos. Usam-se
dois pratos da balança para comparar os
pesos da massa desconhecida e da massa
conhecida. Quando eles forem iguais, não
haverá deflexão do ponteiro. Quando um
for maior que o outro, haverá uma deflexão
para algum dos lados da balança. Tudo se
resume a uma questão de se ter pesos
calibrados conhecidos para que se tenha a
pesagem exata de qualquer massa
desconhecida.
Não há necessidade de calibração. Em
cada medição, a quantidade desconhecida
é comparada diretamente com uma
quantidade conhecida.



Fig. 4.3.Medição por comparação

Uma situação similar pode ocorrer na
medição elétrica. Pode-se produzir uma
voltagem conhecida e então compará-la
com uma voltagem desconhecida. A
comparação real é feita usando-se um
galvanômetro que detecta se há passagem
ou não de corrente por ele. Quando as
tensões forem diferentes, haverá
passagem de corrente em alguns dos dois
sentidos, dependendo do valor relativo das
tensões. Quando elas forem iguais não
haverá corrente pelo galvanômetro.
Quando se obtém a posição zero (nulo),
garante-se que as tensões são exatamente
iguais. Este método, chamado de balanço
de nulo, é extremamente preciso porque
ele não se baseia em qualquer outro
sistema físico para se obter o valor da
quantidade sendo medida.
Outro circuito eletrônico baseado em
detector de nulo é a ponte de Wheatstone,
que consiste em 4 resistências, uma fonte
de polarização e um galvanômetro detector
de zero. A ponte de Wheatstone é usada
para medir valores de resistência elétrica e
pequenas tensões.









Fig. 4.4. Ponte de Wheatstone


E
D A
B
R
1
R
2

R
4

R
3
Instrumentos de Medição

88
O sistema de medição é usado apenas
para indicar quando se obtém o balanço do
nulo. O sistema necessita apenas da
medição para dar a leitura do zero; ele não
precisa ser calibrado nem precisa dar uma
resposta linear. O sistema de medição
deve ser calibrado somente quando as
leituras forem tomadas fora do equilíbrio.
Medição por substituição
Como já visto, o método comparativo de
medição é fundamentalmente mais preciso
do que o método correspondente de
medição direta, por que se elimina o
sistema de medição como meio de
interpretar o sinal de entrada sendo
medido. Foi visto também que uma forma
limitada de sistema de medição era usar o
registro da posição do balanço do nulo. Um
método mais preciso ainda de medição
elimina qualquer efeito do sistema de
medição.
Como exemplo, seja a balança química
com dois pratos, que fica balançada
exatamente quando há a massa de 200 g
em cada prato. Agora, se estes pesos
forem removidos e um peso de apenas 1 g
for colocado em cada prato, haverá ainda
um balanço perfeito? Espera-se que sim.
Porém, entre a primeira e a segunda
medições foram removidas 398 g do
sistema e isto afetará as tensões e
resistências presentes nos braços,
suportes e ponteiro. É bem possível que
haja uma pequena variação no
comportamento do sistema, dando um erro
na medição da 1 g. Em uma balança mais
precisa deveria haver uma garantia que o
peso total no sistema não variasse, mesmo
se forem medidos pesos de diferentes
valores. Isto pode ser feito pelo método da
substituição.



Fig. 4.5. Medição por substituição


Uma balança perfeita é obtida com os
pesos calibrados de 200 g no prato B. Um
peso desconhecido M é colocado no prato
A. Para se consiga um novo balanço,
agora é necessário remover pesos do
prato B.
O peso removido de B é igual ao peso
desconhecido colocado no prato A, de
modo que este peso foi medido. Porém, o
que é significativo neste novo sistema é
que o peso total na balança não foi
alterado. Tudo que aconteceu foi a
substituição de um peso desconhecido por
um peso conhecido e as condições do
sistema de medição (balança) não foram
alteradas. Assim, a medição por
substituição envolve a recolocação de algo
de valor desconhecido por algo de valor
conhecido, sem alterar as condições de
medição.
Por exemplo, seja a resistência de valor
desconhecido em um circuito. Se ela é
substituída por uma resistência de valor
conhecido, R, de modo que a voltagem e a
corrente no circuito continuem exatamente
as mesmas, então o valor da resistência
desconhecida é também igual a R.
Instrumentos de Medição

89
2. Instrumentos da Medição
Os instrumentos podem ser
classificados de acordo com sua aplicação,
modo de operação, método de conversão
de energia, natureza do sinal de saída.
Todas estas classificações usualmente
resultam em superposição. Porém, os
instrumentos usados na prática podem ser
divididos nas seguintes categorias:
1. manual e automático
2. contato e não-contato
3. auto-alimentado e com fonte externa
4. analógico e digital
2.1. Manual e Automático
A medição mais simples é feita
manualmente, com a interferência direta de
um operador. A medição manual
geralmente é feita por um instrumento
portátil. Exemplos de medição manual:
medição de um comprimento por uma
régua, medição de uma resistência elétrica
através de um ohmímetro, medição de
uma voltagem com um voltímetro. As
medições feitas manualmente geralmente
são anotadas pelo operador, para uso
posterior.
A medição pode ser feita de modo
automático e continuo. O instrumento fica
ligado diretamente ao processo, sentido a
variável e indicando continuamente o seu
valor instantâneo. Quando o operador
quiser saber o valor medido, ele se
aproxima adequadamente do instrumento
e faz a leitura. Também neste caso, ele
pode anotar a leitura feita para uso
posterior.
Quando se necessita do registro
continuo da variável, usa-se um
registrador, que opera continuamente.
Atualmente é possível, num sistema de
aquisição de dados, a medição continua de
muitas variáveis e a emissão de relatórios
de medição através de impressoras de
computador.
2.2. Contato e Não-Contato
Outro critério importante no estudo dos
instrumentos de medição é sua colocação
e interação com o processo medido. A
medição pode ser feita com e sem contato
físico.
Há medições realizadas com o contato
físico do instrumento com o processo. Por
exemplo, a medição de temperatura com
um termômetro clinico, o bulbo do
termômetro entra em contato físico com o
corpo do qual se quer medir a temperatura.
A condução do calor, depois de algum
tempo, iguala a temperatura do sensor
com a do corpo e o termômetro indica a
temperatura medida. Dependendo do
tamanho, massa e temperatura do
termômetro, ele pode alterar a temperatura
medida.
Outro exemplo clássico de medição com
contato físico é a medição de vazão com
placa de orifício. A placa de orifício é uma
restrição que é colocada em uma
tubulação. Quando a vazão passa por esta
restrição, a velocidade do fluido aumenta e
como conseqüência, a pressão estática da
tubulação diminui. Pela medição desta
diferença de pressão, antes e depois da
placa de orifício, pode-se medir com
precisão a vazão volumétrica do fluido. A
placa de orifício, elemento sensor de
vazão, provoca uma queda de pressão na
tubulação e afeta a vazão medida.
Um terceiro exemplo de medição com
contato é a medição de corrente elétrica
com um amperímetro. O amperímetro
usado para medir a corrente é colocado
fisicamente no circuito de medição. A
resistência interna do amperímetro pode
afetar a medição feita.
Na maioria das medições feitas há
contato físico entre o elemento sensor e o
processo. As vezes, usam-se selos e
poços para isolar o sensor do processo,
mas mesmo nestas aplicações, há contato
entre o instrumento de medição com o
processo. A principal desvantagem do
medidores diretos e com contato é a
possibilidade do sensor alterar o valor da
variável medida.
Medição sem Contato
É possível fazer medição sem o contato
físico entre o instrumento e o processo.
Por exemplo, há muito tempo os
astrônomos sabem com relativa precisão a
temperatura da superfície dos planetas, da
Lua e do Sol. E eles nunca foram a estes
lugares, exceto, uma única rápida vez, à
Lua.
Instrumentos de Medição

90
Exemplos clássicos de medição sem
contato:
1. Medição de temperatura com
sensores de radiação de
infravermelho. A temperatura é
medida à distância, através de
computação da energia captada pelo
medidor. Estes sensores ópticos de
temperatura apresentam precisão
aceitável e podem medir
temperaturas baixa (muitas pessoas
acham que eles só podem ser
aplicados em medições de alta
temperatura. Quem mede o mais
difícil, também mede o mais fácil).
2. Medição da corrente e tenso elétricas
através de amperímetro alicate. No
amperímetro alicate, os fios por onde
circula a corrente que se quer medir
são enrolados externamente à ponta
de prova do amperímetro. O
amperímetro mede a corrente que
circula pelo fio, sem interromper o
circuito e sem fazer parte física do
circuito.
3. Analogamente, é possível medir
vazões de fluidos com medidores
ultra-sônicos, que são não-intrusivos
e externos à tubulação.
A principal justificativa do uso de
medidores sem contato, embora menos
precisos que os de contato, é a sua
facilidade de aplicação, sem interferência
na operação do processo e principalmente,
sem alteração da variável medida.
2.3. Alimentação dos Instrumentos
A energia está associada aos
instrumentos de dois modos: através da
alimentação e do método de transdução.
Qualquer instrumento para funcionar
necessita de uma fonte de energia. Esta
fonte de energia pode ser externa e
explícita, quando o instrumento é
alimentado. As duas fontes clássicas de
alimentação de instrumentos são a
eletrônica e a pneumática.
Instrumentos eletrônicos são
alimentados por uma fonte externa de
voltagem, típica de 24 V cc. Esta
alimentação pode ser feita por um par de
fios diferente do par de fios que conduz a
informação ou pode ser feita pelo mesmo
par de fios que conduz a informação.
Geralmente a alimentação é fornecida por
um instrumento montado na sala de
controle. Por questão econômica e de
segurança, raramente se usa um
instrumento de medição alimentado com
uma bateria integral (colocado no seu
interior). O sinal padrão de transmissão de
corrente é de 4 a 20 mA cc.
Instrumentos pneumáticos são
alimentados por uma fonte externa de ar
comprimido, típica de 140 kPa (20 psi).
Cada instrumento pneumático montado no
campo é alimentado individualmente
através de um conjunto filtro-regulador
ajustável ou fixo. O filtro elimina, num
estágio final, as impurezas, umidade e óleo
contaminantes do ar comprimido. O
regulador, ajustável ou fixo, geralmente
abaixa a pressão mais elevada de
distribuição para o valor típico de 140 kPa.
O sinal padrão de transmissão pneumática
é de 20 a 100 kPa.
Existe ainda instrumentos de montagem
local que não necessitam de nenhuma
alimentação externa para seu
funcionamento. Eles são chamados de
auto-alimentados. Eles utilizam a própria
energia do processo para seu
funcionamento. Exemplos de indicadores e
registradores que não necessitam de
alimentação externa são:
1. indicador local de pressão, com
elemento sensor tipo bourdon C,
helicoidal, espiral, helicoidal ou fole.
2. indicador local de temperatura com
elemento sensor tipo bimetal.
3. indicador ou registrador local de
vazão com elemento sensor de
pressão diferencial (diafragma).
Idealmente, variações da alimentação
do instrumento não deveriam afetar o
desempenho dos instrumento e por isso,
não deveriam provocar erros de medição.
Na prática, quando a alimentação excede
os limites inferior e superior da
alimentação, há erros de medição.
Geralmente, os fabricantes informam tais
limites de alimentação, que não devem ser
excedidos, sob pena de provocar grandes
erros de medição.
Instrumentos de Medição

91
2.4. Analógico e Digital
O conceito de analógico e digital se
refere a
1. sinal
2. função matemática
3. tecnologia
4. display
Sinal
Sinal é uma indicação visual, audível ou
de outra forma que contem informação.
Sinal analógico é aquele que vária de
modo continuo, suave, sem saltos em
degrau. O parâmetro fundamental do sinal
analógico é sua amplitude. Medir um sinal
analógico é determinar o valor de sua
amplitude. São exemplos de sinal
analógico:
1. Sinal padrão pneumático de 20-100
kPa, onde o 20 kPa corresponde a
0% e 100 kPa a 100%.
2. Sinal padrão eletrônico de 4-20 mA
cc, onde o 4 mA cc corresponde a
0% e 20 mA a 100%.
3. As variáveis de processo são
analógicas. Uma temperatura pode
variar de 20 a 50
o
C, assumindo
todos os infinitos valores
intermediários. Uma pressão de
processo pode variar de 20 a 100
kPa, de modo continuo.
Sinal digital ou discreto é aquele que só
pode assumir valores descontínuos. O
sinal digital é constituído de pulsos ou de
bits. Pulsos só podem ser contados; bits
podem ser manipulados.
São exemplos de sinais digitais:
1. Saída de pulsos da turbina medidora
de vazão, onde cada pulso
escalonada pode corresponder, por
exemplo, a 1 litro/segundo de vazão.
2. palavra de 4 bits, 1101.
Função Matemática
Há funções ou tarefas que são
tipicamente analógicas, como registro e
controle de processo. Só é possível
registrar um sinal analógico. Por exemplo,
quando se quer registrar a vazão, tendo-se
uma turbina medidora com saída de
pulsos, deve-se converter o sinal de pulsos
em analógico. O controle é também uma
função analógica. O seu algoritmo
fundamental, PID, é matematicamente
analógico e continuo. O controle liga-
desliga é um caso particular, com uma
saída discreta (digital). Um controlador
digital envolve uma tecnologia digital para
executar a função analógica de controle.
Funções tipicamente digitais são
alarme, contagem de eventos e totalização
de vazão. Quando se totalizam pulsos
escalonados de medição de vazão, basta
contá-los. Quando se totaliza um sinal
analógico proporcional à vazão, é
necessário converter o sinal para digital e
depois contar os pulsos correspondentes.
A indicação pode ser indistintamente
analógica ou digital.



Fig. 4.6. Instrumento com display analógico e
digital


Um exemplo relacionando todos estes
conceitos é a medição do tempo pelo
relógio. O tempo é uma grandeza
analógica. O tempo pode ser medido por
um relógio mecânico, com tecnologia
analógica e mostrador analógico. Tem-se
engrenagens, molas, pinos acionando um
ponteiro que percorre uma escala circular
graduada. O ponteiro se move
continuamente. Este mesmo tempo pode
ser medido por um relógio eletrônico, com
tecnologia digital mas com mostrador
analógico. A tecnologia do relógio é digital
pois tem um microprocessador e um cristal
oscilante. A indicação é analógica, pois é
constituída de escala e ponteiro. Porém, o
ponteiro se move com pequenos saltos,
mostrando que está sendo acionado por
pulsos. Finalmente, o tempo pode ser
indicado por um relógio digital. A
Instrumentos de Medição

92
tecnologia do relógio é digital e o indicador
é também digital. O display são números
que variam discretamente. Resumindo: a
variável analógica tempo pode ser indicada
através de relógio analógico (mecânico) ou
digital (eletrônico) com display analógico
(escala e ponteiro) ou digital (números).
Tecnologia
A tecnologia eletrônica pode ser
analógica ou digital.
A base dos circuitos analógicos é o
amplificador operacional, que manipula e
computada variáveis analógicas (corrente
e voltagem). Os componentes passivos
(resistência, capacitor e indutor) servem
para polarizar os circuitos. Os
componentes ativos (transistores,
amplificadores operacionais) operam na
região de amplificação linear.
Instrumento digital usa circuitos e
técnicas lógicas para fazer a medição ou
para processar os dados. Basicamente, um
instrumento digital pode ser visto como um
arranjo de portas lógicas que mudam os
estados em velocidades muito elevadas
para fazer a medição. A base dos circuitos
digitais são os circuitos integrados digitais,
constituídos de portas lógicas (AND, OR,
NAND, NOR, NOT), multivibradores (flip-
flop), contadores e temporizadores.
Atualmente, todos estes circuitos e lógicas
estão integradas no microprocessador. Os
circuitos digitais podem também executar
as tarefas analógicas de amplificar e filtrar.
Necessariamente, eles devem ter um
estágio de conversão analógico-digital e
eventualmente, de digital-analógico.
Display
O display ou readout é a apresentação
visual dos dados. Ele pode ser analógico
ou digital.
Display analógico é aquele constituído,
geralmente, de uma escala fixa e um
ponteiro móvel (pode haver escala móvel e
ponteiro fixo). O ponteiro se move
continuamente sobre a escala graduada,
possibilitando a leitura do valor medido.
Display digital é aquele constituído por
números ou dígitos. Os números variam de
modo discreto, descontinuo, possibilitando
a leitura do valor medido.
O fator mais importante favorecendo o
instrumento digital, quando comparado
com o analógico, é a facilidade de leitura.
Quando o operador lê um instrumento
analógico, ele deve se posicionar
corretamente, fazer interpolação, usar
espelho da escala, ou seja, ter um bom
olho. A leitura analógica é suscetível a
erro, subjetiva e demorada.


















Fig. 4.7. Instrumentos com display digital

Comparação Analógica Versus
Digital
Deve-se diferenciar um instrumento
digital e um instrumento com display
digital.
Instrumento digital é aquele em que o
circuito necessário para obter a medição é
de projeto digital. Um instrumento com
display digital é aquele que o circuito de
medição é de projeto analógico e somente
a indicação é de projeto digital.
Um instrumento analógico com leitura
digital é geralmente não mais preciso que
o mesmo instrumento analógico com
leitura analógica.
A principal vantagem do display digital é
a conveniência de leitura, quando não se
tem a preocupação de cometer erro de
paralaxe, quando se posiciona
erradamente em relação ao instrumento de
leitura. Os psicólogos garantem que se
cansa menos quando se fazem múltiplas
leituras digitais.
Porém, a leitura de instrumento
analógico é de mais rápida e fácil
Instrumentos de Medição

93
interpretação, principalmente quando se
tem comparações entre duas medições.
Por isso, mesmo a instrumentação
eletrônica sofisticada com tecnologia digital
possui medidores que simulam indicações
analógicas. Por exemplo, o controlador
single loop possui indicações da medição e
do ponto de ajuste feitas através de gráfico
de barras. Os relógios digitais foram muito
populares na década de 80, porque eles
eram novidade e mais baratos.
Atualmente, há o reaparecimento de
relógios com display analógico, com
ponteiros e escala, porque sua leitura é
mais rápida e fácil, pois se sabe o
significado de certas posições dos
ponteiros das horas e dos minutos.
A precisão é uma segunda vantagem do
instrumento digital sobre o analógico.
Embora a precisão dependa da qualidade
e do projeto do instrumento, em geral, o
instrumento digital é mais preciso que o
analógico de mesmo custo. Tipicamente, a
precisão do digital é de 0,1% e do
analógico é de 1%.




Fig.4.8. Display analógico de controlador (Foxboro)


A exatidão de qualquer instrumento está
relacionada com a calibração. Como a
precisão de um instrumento digital
depende da percentagem do valor medido
e de mais ou menos alguns dígitos menos
significativos (erro de quantização), o
instrumento digital requer calibrações mais
freqüentes que o instrumento analógico,
cuja precisão depende apenas da
percentagem do fundo de escala.
Os instrumentos digitais fornecem
melhor resolução que os analógicos. A
maior resolução dos instrumentos digitais
reduz o número de faixas necessárias para
cobrir a faixa de medição.
Erros do Contador Digital
O contador é o dispositivo de saída do
instrumento com display digital. Os
principais erros na medição com um
contador eletrônico são:
1. erro de ±1 contagem
2. erro da base de tempo
3. erro de gatilho
4. erro sistemático.
Quando uma medição é feita com um
contador eletrônico, existe uma incerteza
no digito menos significativo de ±1
contagem. Esta incerteza é resultado da
não-coerência entre o sinal de clock
interno e o sinal de entrada. O erro
causado por esta ambigüidade é em
termos absolutos de ±1 contagem para a
contagem total acumulada; o erro relativo
diminui quando a contagem total
acumulada cresce.
Qualquer erro que seja resultado da
diferença entre a freqüência mestre real do
clock e sua freqüência nominal é
diretamente transferida em um erro de
medição. Este erro é chamado de erro da
base de tempo e é geralmente dado por
um número adimensional expresso em
partes por milhão.
O erro de gatilho é um erro aleatório
causado pelo ruído no sinal de entrada e
dentro do contador. O principal efeito do
ruído é fazer o gatilho abrir em um período
de tempo incorreto.
O erro sistemático existe no instrumento
associado com sua calibração e depende
de sua qualidade e período de tempo
transcorrido depois da calibração.
Por exemplo, a precisão de um contador
eletrônico Hewlett-Packard é de ±1 digito ±
erro da base de tempo. Para medição de
intervalo de tempo, a precisão do contador
é de ± resolução ± erro da base de tempo
± erro do gatilho ± 2 ns. A precisão de um
multímetro digital da Fluke, de 4
1/2
dígitos
é de ±0,03% do valor medido + 2 dígitos
para a faixa de voltagem cc. A precisão
para voltagem ca depende da freqüência,
por exemplo, para o multímetro Fluke
Instrumentos de Medição

94
8050A: ±0,5% do valor medido + 10 dígitos
entre 45 Hz e 1 kHz em todas as faixas.
2.5. Instrumento Microprocessado
Função do Microprocessador
Atualmente, o microprocessador está
sendo usado em toda parte e ganhando
novas funções, abrindo novos caminhos
para seus usuários. Isto é principalmente
verdade na instrumentação. O instrumento
baseado no microprocessador é chamado
de inteligente. No instrumento
convencional, a informação deve ser
interpretada pelo operador inteligente; no
instrumento inteligente a informação já é
interpretada e fornecida num formato mais
amigável, de modo que até um operador
sem experiência pode entende-la (não
necessariamente o operador precisa ser
não inteligente).
O microprocessador revolucionou a
instrumentação eletrônica. O uso de
microprocessador em instrumentos
aumentou drasticamente sua exatidão,
expandiu suas capacidades, melhorou sua
confiabilidade e forneceu uma ferramenta
para desempenhar tarefas não imagináveis
até então.
O instrumento a microprocessador se
tornou extremamente versátil, onde os
procedimentos de medição se tornaram
mais facilmente administráveis, ajustes,
calibração e teste se tornaram automáticos
e o seu desempenho metrológico foi
melhorado. O microprocessador fornece
1. procedimentos computacionais mais
eficientes,
2. analise estatística dos resultados
3. resultados linearizados e corrigidos
4. funções programáveis.
Houve uma mudança radical na filosofia
do projeto do instrumento. Como o
microprocessador se tornou uma parte
integral do instrumento, os enfoques são
totalmente diferentes com relação à
estrutura, circuito e controle do
instrumento. As principais vantagens do
instrumento microprocessado são:
1. multi funcionalidade estendida e
expandida em programas flexíveis,
2. consumo de energia foi reduzido
drasticamente,
3. adaptação fácil a interfaces padrão
de bus para sistemas integrados de
medição
4. facilidade de controle por causa da
interface
5. operação e uso mais simples,
economizando tempo.
6. tamanho miniaturizado
7. confiabilidade maior, por ter poucos
componentes, componentes mais
confiáveis por causa do
encapsulamento que o torna imune à
umidade e temperatura.
Multifuncionalidade
A idéia de instrumento multifuncional
não é nova. Porém, sem o uso do
microprocessador, um instrumento
multifuncional era, na prática, a montagem
de várias sub-unidades funcionais em um
único invólucro. Em serviço, o usuário
escolhia sua função através de chaves
convenientes. Deste modo, ele montava as
várias sub-unidades em uma configuração
adaptada para medir a função escolhida. O
algoritmo de projeto do instrumento ficava
inalterado. O instrumento multifunção
convencional usava lógica fixa com todos
os circuitos e fios físicos soldados (hard-
wired). Esta forma de lógica contradiz a
multifuncionalidade e eficiência. Sempre
havia problemas para controlar e chavear
as várias funções do instrumento.
O microprocessador, como parte
integrante do instrumento, tornou a lógica
fixa do instrumento multifuncional em
programável. O programa que executa
suas múltiplas funções fica armazenado
em memórias eletrônicas (ROM ou
PROM). Por este motivo, o instrumento
microprocessador é também chamado de
programa armazenado. A lógica
armazenada torna o instrumento fácil de
ser programado e de ser atualizado, sem
mudanças significativas no circuito. A
lógica programável tornou o preço do
instrumento muito menor, por causa da
padronização e simplicidade dos
componentes.
Instrumentos de Medição

95
Exatidão melhorada
A exatidão do instrumento
microprocessado foi muito melhorada. Os
erros sistemáticos podem ser diminuídos
por vários motivos:
1. um ajuste de zero automático no
início de cada medição,
2. uma auto-calibração automática
3. auto-teste e auto-diagnose.
4. medição replicada do valor e a
computação estatística para dar o
resultado mais esperado.
5. apresentação do resultado em
display de modo que os resultados
estranhos são descartados.
Capacidades expandidas
O microprocessador estende e expande
as capacidades do instrumento, tornando-o
adaptável a várias formas de técnicas de
medição, como medição inferencial
(indireta) e acumulativa.
O instrumento microprocessado pode
fazer várias medições simultâneas e fazer
computações matemáticas complexas
destes sinais, para compensar, linearizar e
filtrar os resultados finais. Em resposta a
um simples comando entrado através de
seu teclado, o microprocessador pega a
técnica de medição certa, armazena os
resultados das várias medições diretas, faz
os cálculos e apresenta o resultado final
condicionado no display. A medição é
indireta, porém ela parece direta para o
operador.
Por exemplo, na medição da vazão de
gases, um computador de vazão
microprocessado recebe os sinais
correspondentes ao medidor de vazão
(transmissor associado à placa, turbina,
vortex), pressão, temperatura e
composição. Todos estes sinais são
computados internamente e o totalizador
pode apresentar o valor da vazão
instantânea compensada em massa ou
volume, o valor do volume ou massa
acumulado e a densidade do gás. Para o
operador, tudo parece como se o
computador estivesse fazendo a medição
diretamente da vazão mássica.
Em outro exemplo, seja a medição da
potência dissipada através de um resistor
por um voltímetro microprocessado. O
operador diz ao voltímetro para medir a
resistência do resistor, armazenar o
resultado e depois medir a voltagem
através do resistor e finalmente computar a
potência.
Controle simplificado
Inicialmente, se pensa que o
instrumento multifunção programável é
mais complicado. O instrumento inteligente
possui um conjunto de teclas (teclado)
externo e na sua parte frontal. Através das
teclas diretas ou combinação de teclas se
pode selecionar as funções, faixas e
modos de medição. Por exemplo, um
voltímetro digital tem um teclado com 17
teclas e pode fornecer um total de 44
combinações de funções, faixas e modos.
O instrumento ainda pode ter alarmes que
operam quando o operador faz
movimentos errados e aperta teclas
incompatíveis.
Operações matemáticas do resultado
É possível que o operador queira uma
função matemática de um resultado e não
somente no resultado em si. O instrumento
microprocessado pode fornecer várias
transformações funcionais, como:
1. multiplicar o resultado por um fator
constante
2. apresentar o erro absoluto da
medição
3. apresentar o erro percentual da
medição
4. subtrair uma constante do
resultado
5. dividir o resultado por uma
constante
6. apresentar o resultado em
unidades logarítmicas
7. linearizar resultados
Análise estatística
Os instrumentos microprocessados
podem gerar o valor médio, valor eficaz
(root mean square), a variância, o desvio
padrão de uma variável aleatória sendo
analisada e o coeficiente de correlação de
duas variáveis aleatórias. Há instrumentos
microprocessados projetados
especificamente para fazer a analise
estatística dos sinais.
Instrumentos de Medição

96
Melhoria do Desempenho Metrológico
As características metrológicas do
instrumento são aquelas diretamente
relacionados com seu desempenho, em
geral e com sua precisão, em particular.
Todo instrumento está sujeito a erros
sistemáticos, aleatórios e acidental. Todos
estes erros podem ser minimizado nos
instrumentos a microprocessador.
Geralmente, os erros sistemáticos são
provocados por desvio do zero, desvio do
fator de ganho do circuito condicionador de
sinal e não linearidades internas do
instrumento.
O microprocessador incorporado no
instrumento pode eliminar os erros
sistemáticos.
Ele elimina o erro de desvio de zero,
armazenando o valor correspondente ao
zero do instrumento e subtraindo
automaticamente este valor das leituras do
instrumento.
Ele elimina o erro de ganho do
instrumento, armazenando um número
quando o instrumento é desligado e que
corresponde a um valor definido da
voltagem de entrada. Quando o
instrumento é religado para fazer novas
medições, o instrumento microprocessado
faz comparações e usa um fator de
correção para aplicar nas novas medições.
O instrumento pode ainda fazer
correções para os erros devidos a variação
da freqüência do sinal (o ganho do
condicionador de sinal em uma dada
freqüência é diferente do ganho em sua
freqüência de referência.) O instrumento
armazena na memória a sua freqüência de
referência e corrige as medições para as
diferentes freqüências.
Os erros aleatórios não podem ser
antecipados e evitados. O máximo que o
operador pode fazer é minimizar seus
efeitos, fazendo um tratamento estatístico
de todas as medições replicadas. Deste
modo, o instrumento microprocessado
armazena os resultados das medições
repetidas e faz o seu processamento em
algoritmos apropriados para determinar
média, desvio padrão e erro aleatório
relativo. O instrumento pode, por exemplo,
determinar a média esperada, testar a
hipótese que as probabilidades do erro
aleatório são normalmente distribuídas e
computar os limites de erros aleatórios.
Compensação do ruído interno
Esta característica melhora a
sensitividade do instrumento e estende sua
faixa, possibilitando a medição de valores
muito pequenos. Para fazer isso, o
microprocessador acha o valor eficaz (rms)
do sinal e do ruído.
Vantagens
Um instrumento microprocessado é a
melhor solução quando:
1. o instrumento deve ser
multifuncional, programável e versátil
2. o sistema de medição deve ser
expandido acomodar várias funções
3. o sistema de medição deve ser
interfaceado com um sistema digital
4. os dados devem ser armazenados
em memória
5. um grande número de estados
lógicos devem ser mantidos na
memória
6. as medições feitas por técnicas
indiretas e cumulativas e o
procedimento deve ser automatizado
7. é especificado um alto desempenho
metrológico, impossível de ser obtido
por métodos convencionais
8. são essenciais a autocalibração e
autodiagnose
9. o processamento estatístico dos
dados deve ser parte do
procedimento de medição e feito
automaticamente
10. as incertezas das medições devem
ser determinadas e apresentadas no
display, em linha do processo
11. há necessidade de transformações
funcionais matemáticas, como
linearização, conversão de
resultados, compensação através de
cálculos complexos
Por causa de todas estas vantagens, o
microprocessador chegou e vai ficar por
muito tempo nos campos da medição e
instrumentação. Ele é a base do progresso
que a ciência e a tecnologia tiveram nos
últimos e próximos anos.
Instrumentos de Medição

97
Desvantagens
Há também várias razões para
questionar o uso do instrumento
microprocessado, algumas subjetivas e
outras objetivas. As mais importantes são:
Há a barreira psicológica, de algumas
pessoas que desconhecem o
microprocessador ainda duvidam e não
aceitam os benefícios transparentes do
microprocessador. Muitos acham que o
microprocessador é muito complicado e
economicamente não é atraente. Muitos
acham que não necessitam de toda a
capacidade do microprocessador e por
isso a sua aplicação seria ociosa e
exagerada. Outros acham que o
microprocessador está associado a um
programa (software) que é outro motivo de
repulsa, pois o seu custo é maior que o do
microprocessador.
Todas estas questões são facilmente
resolvidas. Embora internamente o
microprocessador tenha milhares (e até
milhões) de componentes, esta
complexidade não requer que o seu
usuário a entenda. Mesmo complexo, o
microprocessador é estável e confiável,
muito mais que qualquer circuito com
componentes discretos. Embora a maioria
utilize somente uma pequena parte da
capacidade total do microprocessador,
ainda assim a sua aplicação é
economicamente vantajosa. O software
associado ao microcomputador é também
complexo e pode ter os seus besouros
(bugs), porém o usuário não precisa
conhece-lo. Geralmente o software está
gravado em uma memória ROM (ou
PROM) e as eventuais modificações ou
melhorias são feitas pelo fabricante e os
benefícios são do usuário final.
3. Sistema de Medição
3.1. Conceito
Embora haja vários tipos de controle,
vários níveis de complexidade, vários
enfoques diferentes, há um parâmetro em
comum no controle, monitoração e alarme
do processo: a medição das variáveis e
grandezas do processo. A medição é
fundamental. A base de um controle
correto é a medição precisa da variável
controlada.
A instrumentação para fazer estas
medições é vital para a indústria. O uso de
instrumentação em sistemas como casa de
força, indústrias de processo, máquinas de
produção automática, com vários
dispositivos de controle, manipulação e
segurança revolucionou e substituiu velhos
conceitos. Os instrumentos tem produzido
uma grande economia de tempo e mão de
obra envolvida. Os sistemas de
instrumentos agem como extensões dos
sentidos humanos e facilitam o
armazenamento da informação de
situações complexas. Por isso, a
instrumentação se tornou um componente
importante das atividades rotineiras da
indústria e contribuiu significativamente
para o desenvolvimento da economia.
Um sistema completo de medição
consiste dos seguintes elementos básicos:
1. elemento sensor ou elemento
transdutor, que detecta e converte a
entrada desejada para uma forma
mais conveniente e prática a ser
manipulada pelo sistema de
medição. O elemento sensor é
também chamado de elemento
primário ou transdutor. Ele constitui a
interface do instrumento com o
processo.
2. elemento condicionador do sinal, que
manipula e processa a saída do
sensor de forma conveniente. As
principais funções do condicionador
de sinal são as de amplificar, filtrar,
integrar e converter sinal analógico-
digital e digital-analógico.
3. o elemento de apresentação do
dado, que dá a informação da
variável medida na forma
quantitativa. O elemento de
Instrumentos de Medição

98
apresentação de dado é também
chamado de display ou readout. Ele
constitui a interface do instrumento
com o operador do processo.
Os elementos auxiliares aparecem em
alguns instrumentos, dependendo do tipo e
da técnica envolvida. Eles são:
1. elemento de calibração para fornecer
uma facilidade extra de calibração
embutida no instrumento. Os
transmissores inteligentes possuem
esta capacidade de auto-calibração
incorporada ao seu circuito.
2. elemento de alimentação externa
para facilitar ou possibilitar a
operação do elemento sensor, do
condicionador de sinal ou do
elemento de display.
3. elemento de realimentação negativa
para controlar a variação da
quantidade física que está sendo
medida. Este elemento possibilita o
conjunto funcionar automaticamente,
sem a interferência do operador
externo.
Por exemplo, no indicador analógico de
pressão com bourdon C, o elemento
sensor é o tubo metálico em forma de C. A
pressão a ser medida é aplicada
diretamente no sensor que sofre uma
deformação elástica, produzindo um
pequeno movimento mecânico. A entrada
do sensor é a pressão e a saída é um
movimento mecânico. Este pequeno
movimento é mecanicamente amplificado
por meio de engrenagens e alavancas, que
constituem os elementos condicionadores
do sinal. Finalmente, um ponteiro é fixado
na engrenagem e executa uma excurso
angular sobre uma escala graduada em
unidade de pressão. O conjunto escala e
ponteiro constitui o elemento de
apresentação de dados. Este instrumento
é analógico e seu funcionamento é
mecânico. Ele não requer alimentação
externa, pois utiliza a própria energia da
pressão para funcionar.
Em outro exemplo, no indicador digital
de pressão com strain-gage, o strain-gage
é o elemento sensor que detecta a pressão
a ser medida. A pressão medida varia a
resistência elétrica do strain-gage. A
entrada do strain-gage é a pressão e a
saída é uma resistência elétrica. A
variação da resistência é linearmente
proporcional à pressão medida. A
resistência do strain-gage faz parte de um
circuito elétrico, chamado de ponte de
Wheatstone. A ponte de Wheatstone é um
condicionador de sinal. Através de uma
polarização externa e um balanço de nulo,
é possível determinar a variação da
resistência elétrica do strain-gage. O
circuito da ponte também processa o sinal
elétrica, amplificando-o, filtrando-o de
ruídos externos e, no caso, convertendo-o
para pulsos para dar uma indicação final
digital. Este instrumento é eletrônico e a
indicação é digital. A apresentação de
dados não é feita através do conjunto
escala e ponteiro, mas de um conjunto de
dígitos.
3.2. Sensor
O elemento sensor não é um
instrumento mas faz parte integrante da
maioria absoluta dos instrumentos. O
elemento sensor ou elemento transdutor é
o componente do instrumento que converte
a variável física de entrada para outra
forma mais usável.
Os nomes alternativos para o sensor
são: transdutor, elemento transdutor,
elemento primário, detetor, probe, pickup
ou pickoff. O nome correto e completo do
transdutor recomendado pela norma ISA
37.1 (1982) inclui:
1. o nome transdutor,
2. variável sendo medida,
3. modificadora restritiva da variável,
4. princípio de transdução,
5. faixa de medição,
7. unidade de engenharia.

Exemplos de elementos sensores:
1. Transdutor pressão diferencial,
potenciométrico, 0-100 kPa.
2. Transdutor pressão de som
capacitivo, 100-160 dB.
3. Transdutor de pressão absoluta a
strain-gage amplificador, 0-500 MPa.
4. 0-300
o
C, resistivo, superfície,
temperatura, transdutor.
Os elementos sensores podem ser
classificados conforme a natureza do sinal
de saída como:
1. mecânicos
2. eletrônicos
Instrumentos de Medição

99
As principais vantagens do sinal
eletrônico sobre o mecânico são:
1. não há efeitos de inércia e atrito,
2. a amplificação é mais fácil de ser
obtida
3. a indicação e o registro à distância
são mais fáceis.
A unidade dimensional da entrada
geralmente é diferente da unidade da
saída. Quando as unidades forem iguais, o
elemento funcional pode ser chamado de
transformador.
O elemento sensor depende
principalmente da variável sendo medida.
Terminologia
De um modo geral, transdutor é o
elemento, dispositivo ou instrumento que
recebe a informação na forma de uma
quantidade e a converte para informação
para esta mesma forma ou outra diferente.
Aplicando este definição, são transdutores:
elemento sensor, transmissor, transdutor
i/p e p/i, conversor eletrônico analógico-
digital. Para padronizar a linguagem foi
publicada a norma ISA 37.1 que
recomenda o seguinte:
1. elemento sensor ou elemento
transdutor para o dispositivo onde a
entrada e a saída são ambas não-
padronizadas e de naturezas iguais
ou diferentes.
2. transmissor para o instrumento onde
a entrada é não-padronizada e a
saída é padronizada e de naturezas
iguais ou diferentes.
3. transdutor ou transdutor de sinal para
o instrumento onde a entrada e a
saída são ambas padronizadas e de
naturezas diferentes.
4. conversor para o instrumento
eletrônico onde a entrada e a saída
são ambas de natureza elétrica mas
com características diferentes, como
o conversor A/D (analógico para
digital), D/A (digital para analógico) e
conversor I/F (corrente para
freqüência).
Sensores Mecânicos
O elemento sensor mecânico recebe na
entrada a variável de processo e gera na
saída uma grandeza mecânica, como
movimento, força ou deslocamento,
proporcional a esta variável.
O elemento sensor mecânico não
necessita de nenhuma fonte de
alimentação externa para funcionar; ele é
acionado pela própria energia do processo
ao qual está ligado.



Fig. 4.9. Sensores mecânicos de pressão


Exemplos de elementos sensores
mecânicos: tubo bourdon, para a medição
de pressão; bimetal, para a medição de
temperatura; conjunto placa de orifício-
sensor de pressão diferencial para a
medição de vazão.
Nem todas as variáveis de processo
podem ser medidas mecanicamente. Por
exemplo, a análise química, o pH, a
condutividade elétrica não podem ser
medidas por meios mecânicos.
Sensores Eletrônicos
O elemento sensor eletrônico recebe na
entrada a variável de processo e gera na
saída uma grandeza elétrica, como
voltagem, corrente elétrica, variação de
resistência, capacitância ou indutância,
proporcional a esta variável.
Há elementos sensores ativos e
passivos.
Os elementos ativos geram uma tenso
ou uma corrente na saída, sem
necessidade de alimentação externa.
Exemplo de elementos sensores
eletrônicos ativos: o cristal piezelétrico
para a medição da pressão; o termopar
para a medição da temperatura e os
eletrodos para a medição de pH. Os
circuitos que condicionam estes sinais
necessitam de alimentação externa.
Os elementos passivos necessitam de
uma polarização elétrica externa para
poder variar uma grandeza elétrica passiva
para medir a variável de processo. As
grandezas elétricas variáveis são: a
resistência, a capacitância e a indutância.
Exemplo de elementos sensores passivos
eletrônicos: a resistência detetora de
Instrumentos de Medição

100
temperatura, a célula de carga (strain
gage) para a medição de pressão e de
nível, a bobina detetora para a transdução
do sinal de corrente para o sinal padrão
pneumático.














Fig. 4.10. Sensores eletrônicos de temperatura
(termopar e RTD)


Os elementos sensores eletrônicos, por
sua vez, podem ser classificados de
acordo com o formato da sua saída como
analógicos e digitais.
Os elementos sensores eletrônicos
analógicos podem ser do tipo
potenciométrico, indutivo, capacitivo,
piezoelétrico, strain-gage e de ionização.
Os elementos sensores eletrônicos digitais
podem ser do tipo gerador de freqüência
ou codificador digital.
Praticamente, toda variável de processo
pode ser medida eletronicamente.
Características Desejáveis do Sensor
Em certos casos, o sensor do sinal de
entrada pode aparecer discretamente em
dois ou mais estágios, tendo-se o elemento
primário, secundário e terciário. Em outros
casos, o conjunto pode ser integrado em
um único elemento.
Algumas características desejáveis de
um elemento sensor que devem ser
consideradas em sua especificação e
seleção para uma determinada aplicação
são:
1. o elemento sensor deve reconhecer
e detectar somente o sinal da
variável a ser medida e deve ser
insensível aos outros sinais
presentes simultaneamente na
medição. Por exemplo, o sensor de
velocidade deve sentir a velocidade
instantânea e deve ser insensível a
pressão e temperatura locais.
2. o sensor não deve alterar a variável a
ser medida. Por exemplo, a
colocação da placa de orifício para
sentir a vazão, introduz uma
resistência à vazão, diminuindo-a. A
vazão diminui quando se coloca a
placa para medi-la.
3. o sinal de saída do sensor deve ser
facilmente modificado para ser
facilmente indicado, registrado,
transmitido e controlado. Por isso,
atualmente os sensores eletrônicos
são mais preferidos que os
mecânicos, pois são mais facilmente
indicados e manipulados.
4. o sensor deve ter boa exatidão.
5. o sensor deve ter boa precisão,
constituída de linearidade,
repetitividade e reprodutibilidade.
6. o sensor deve ter linearidade de
amplitude.
7. o sensor deve ter boa resposta
dinâmica, respondendo rapidamente
às variações da medição.
8. o sensor não deve induzir atraso
entre os sinais de entrada e de
saída, ou seja, não deve provocar
distorção de fase.
9. o sensor deve suportar o ambiente
hostil do processo sem se danificar e
sem perder suas características. O
sensor deve ser imune à corrosão,
erosão, pressão, temperatura e
umidade ambientes.
10. o sensor deve ser facilmente
disponível e de preço razoável.
Junção
medição
Bloco de referência
Cobre
Cobre
Registrador temperatura
Instrumentos de Medição

101
3.3. Condicionador do Sinal
A saída do elemento sensor geralmente
ainda não é conveniente para operar
diretamente um indicador, um registrador
ou um controlador. Assim, deve-se
adicionar um outro elemento para
processar, modificar e converter o sinal de
saída do sensor em outro sinal mais
adequado em forma e amplitude.
O sinal de saída do sensor pode ser
alimentado para a entrada do elemento
condicionador através de vários modos,
como:
1. link mecânico, como engrenagem,
alavanca, haste, eixo,
2. cabo elétrico,
3. fluido, como óleo (hidráulico), ar
comprimido (pneumático).
4. componente eletrônico, como
potenciômetro, capacitor e indutor.
A transmissão do sinal pode ser feita
fisicamente através de fios elétricos
(corrente ou voltagem) ou através de tubos
pneumáticos. O sinal pode também ser
transmitido por telemetria, usando-se
ondas de rádio ou linhas telefônicas.
As operações de condicionamento de
sinal mais comuns são:
1. amplificação
2. filtro
3. compensação
4. linearização
5. diferenciação, integração
6. conversão analógico-digital ou
digital-analógico
7. amostragem do sinal
8. computação matemática, como
soma, subtração, divisão,
multiplicação, extração de raiz
quadrada.
9. seleção de sinal, como o máximo,
mínimo ou médio.
Amplificador
Amplificar um sinal é aumentar sua
amplitude sem afetar sua forma de onda. O
fenômeno inverso é chamado de
atenuação, i.e., redução da amplitude do
sinal mantendo sua forma de onda original.
Pode-se dizer que atenuação é uma
amplificação com ganho menor que 1.
O sinal de saída do sensor precisa ser
amplificado para operar os mecanismos de
indicação ou registro. Por isso, um
elemento conveniente de amplificação
deve ser incorporado no elemento de
condicionamento de sinal, que pode ser
um dos seguintes, dependendo do tipo do
sinal do sensor:
1. elemento de amplificação mecânica,
como alavanca, engrenagem ou sua
combinação, projetado para ter um
efeito multiplicador no sinal mecânico de
saída do sensor.
2. elemento de amplificação pneumática,
empregando vários tipos de restrições,
foles, bicos e palhetas, para dar
variação significativa na pressão com
pequena variação nos parâmetros de
entrada. É clássico o conjunto bico-
palheta-relé pneumático para gerar o
sinal padrão pneumático de 3-15 psig.
3. elemento de amplificação óptica, em
que lentes, espelhos e lâmpadas podem
ser combinados para converter
pequenos deslocamentos de entrada
em maiores sinais de saída para uma
indicação conveniente.
4. elemento de amplificação elétrica,
empregando transistores, circuitos
integrados e elementos de polarização
para aumentar a amplitude do sinal do
transdutor. O amplificador eletrônico é o
mais versátil e conhecido. Ele pode
amplificar voltagem ou corrente
(potência).
Filtro
Filtrar um sinal é remover os sinais de
ruído indesejáveis que tendem a
obscurecer o sinal do sensor. O elemento
de filtro do sinal pode ser do seguinte tipo,
dependendo da natureza do sinal:
1. filtro mecânico, consistindo de
elementos mecânicos para proteger
o elemento sensor dos vários sinais
externos de interferência. Um fluido
viscoso no interior de um bourdon
amortece as oscilações do ponteiro
do manômetro.
2. filtro pneumático, consistindo de
restrições e capacitâncias.
Restrições na entrada dos
instrumentos pneumáticos eliminam
ruídos do sinal de 3-15 psig da
transmissão. Potes capacitivos
também são usados para amortecer
picos no sinal pneumático.
3. filtro elétrico, consistindo de
resistores, capacitores e indutores.
Instrumentos de Medição

102
Há filtros ativos, usando
amplificadores operacionais. Os
filtros servem para eliminar os picos
e ruídos devidos aos campos elétrico
e magnético.
Compensador
Compensar um sinal é eliminar
continuamente a interferência de outros
sinais. Por exemplo, a medição de vazão
volumétrica de gases é influenciada pela
temperatura e pressão do processo.
Quando a vazão é constante mas há
variação da pressão e da temperatura do
processo, aparece erro na indicação. Faz-
se a compensação da medição de vazão
de fluido compressível medindo-se
continuamente a vazão, a pressão e a
temperatura. Os três sinais entram em um
computador analógico que elimina os
efeitos da pressão e da temperatura.
Quando uma medição é influenciada por
um parâmetro fixo, faz-se a polarização da
medição. Polarizar um sinal é multiplicar o
sinal por uma constante. Por exemplo,
quando se projeta um medidor de vazão de
gás para uma determinada pressão e se
trabalha em outra pressão constante,
multiplica-se a medição por um fator
constante. Como a pressão do processo é
assumida constante, não é necessário
medi-la continuamente para fazer a
compensação; basta conhecer o seu valor
e usar um fator de multiplicação na
indicação. Compensar é tirar o efeito de
um valor variável; polarizar é tirar o efeito
de um valor constante.
Na medição das variáveis de processo é
importante definir as condições do
processo e do ambiente. O instrumento
pode apresentar grandes erros quando as
condições reais são diferentes das
condições especificadas.



















Fig. 4.11. Medição de vazão de gás com
compensação da pressão e da
temperatura


São disponíveis instrumentos chamados
computadores analógicos que realizam as
operações matemáticas de soma,
subtração, multiplicação, divisão, elevação
ao quadrado, extração de raiz quadrada,
úteis na compensação e linearização de
sinais. Com a instrumentação inteligente,
baseada em microprocessadores, esta
capacidade de computação matemática,
lógica, seqüencial e intertravamento está
integrada ao circuito.
Linearizador
Linearizar um sinal não-linear é torna-lo
linear. Só se lineariza sinais não-lineares,
aplicando-se a função matemática inversa.
Por exemplo, lineariza-se um sinal
quadrático extraindo-se sua raiz quadrada.
Lineariza-se um sinal exponencial
aplicando seu logaritmo.
A linearização de um sinal não-linear
pode ser feita de vários modos diferentes,
tais como:
1. escolha da porção linear da curva,
como na aplicação de medição de
temperatura por termopares. Cada
tipo de termopar apresenta uma
região linear para determinada faixa
de temperatura.
2. uso de uma escala não-linear, como
na aplicação de medição de vazão
por placa de orifício. Como a placa
FCV
FE
FT
TT
PT
FY
FY FIC
x/÷

multiplicador
- divisor
extrator raiz
quadrada
controlador
de vazão
sinal
quadrático
de vazão
sinal linear
de vazão
Instrumentos de Medição

103
gera um pressão diferencial
proporcional ao quadrado da vazão
volumétrica, usa-se uma escala raiz
quadrática (que a maioria das
pessoas insiste, erradamente, em
chamar de quadrática). Quando se
usam termopares para medição de
temperatura incluindo as regiões
não-lineares, deve-se usar a escala
especifica do termopar, como tipo K,
J, R, S, T, E e B.
3. uso de computadores analógicos
linearizadores (hardware), como o
instrumento extrator de raiz quadrado
do sinal de pressão diferencial
proporcional ao quadrado da vazão
volumétrica, gerado pela placa de
orifício.
4. uso de circuitos linearizadores
(hardware), incorporados no circuito
do transmissor ou do instrumento
receptor.
5. uso de pontos de curva de
linearização, armazenados em ROMs
ou PROMs (firmware), como no
sistema de linearização de baixa
vazão em turbinas medidoras.
6. uso de programas (software) de
linearização em sistemas digitais,
como nos computadores de vazão ou
sistemas digitais de aquisição de
dados. Durante a configuração do
sistema, tecla-se o tipo de não-
linearidade do sinal de entrada e o
sistema automaticamente lineariza o
sinal.
Conversor Analógico-Digital
As variáveis de processo são
analógicas, ou seja, variam continuamente
de 0% a 100% assumindo todos os
infinitos valores intermediários. A função
de totalização é matemática discreta ou
digital. Hoje, a maioria dos instrumentos
eletrônicos usa tecnologia digital. Assim, é
necessário um dispositivo para converter o
sinal analógico do mundo externo para um
sinal digital, para ser manipulado pelos
circuitos digitais.
Quando se usa controle com
realimentação negativa, há atuação no
processo analógico. Quando se usa
instrumentação digital, é também
necessário converter o sinal digital do
sistema para o sinal analógico de atuação
no processo. Tem-se, assim, o conversor
digital-analógico.
Em instrumentação, é também comum
um único indicador, registrador e
controlador ser compartilhado por centenas
ou milhares de sinais. Para fazer esta
operação, foi desenvolvido um circuito
eletrônico chamado de multiplexador. O
multiplexador possibilita o uso de um único
instrumento por vários sinais de entrada. O
circuito toma um sinal por vez, manipula-o
e passa para o seguinte, numa varredura
automática. Como a sua freqüência de
operação é muito maior que a freqüência
natural dos sinais manipulados, não há
problemas práticos quando o sinal fica no
ar. Este tempo de não-utilização do sinal é
tão pequeno que o sinal não percebe.
Também, há circuito de demultiplexação,
que converte um único sinal em muitos.
Estes circuitos de conversão analógico-
digital, digital-analógico, multiplexação,
demultiplexação podem ser incorporados
em um único instrumento, economizando
espaço e facilitando ligações. Por exemplo,
modem é um equipamento de modulação-
demodulação, que faz as funções de
multiplexação, conversão analógico-digital,
conversão digital-analógico e
demultiplexação.
Transmissor
A transmissão é uma função auxiliar,
opcional, pois nem toda malha de
indicação, registro ou controle necessita do
transmissor. Mesmo os instrumentos
montados no painel central não necessitam
obrigatoriamente do transmissor. Por
exemplo, as indicações locais de
temperatura com termopar ou resistência
elétrica podem ser sem transmissor.
Transmissor é o transdutor que
responde a uma variável medida por meio
de um elemento sensor e a converte para
um sinal de transmissão padrão que é
função somente da variável medida. O
transmissor sente a variável de processo e
gera na saída um sinal padrão,
proporcional ao valor desta variável.
O transmissor é aplicado para
1. enviar sinais para manipulação
remota,
2. padronizar sinais e
3. isolar sinais.
Os sinais padrão de transmissão são:
Instrumentos de Medição

104
1. pneumático, de 10 a 100 KPa (3 a 15
psig)
2. eletrônico, de 4 a 20 mA cc.
São pouco usados: 0 a 20 mA cc (não é
faixa detetora de erro), 10 a 50 mA cc
(nível elevado e perigoso), 1 a 5 V cc
(tensão não é conveniente para a
transmissão).
Na instrumentação, há uma resistência
de chamar o transmissor de vazão de
transmissor, preferindo-se, erradamente,
chamá-lo de conversor. Assim, o
instrumento que recebe o sinal de
militensão alternada do tubo magnético
deve ser chamado de transmissor de
vazão. Aliás, o tag deste instrumento é FT
e não FY.
O medidor de vazão tipo alvo (target)
possui um transmissor pneumático ou
eletrônico incorporado ao seu circuito.
Os transmissores pneumáticos se
baseiam no sistema bico-palheta e através
da realimentação negativa por equilíbrio de
forças ou de movimentos, converte o
movimento do elemento de medição
(pressão, temperatura, vazão, nível) no
sinal padrão de 20 a 100 kPa. São
alimentados com a pressão nominal de
120 a 140 kPa e possuem a precisão típica
de 0,5% do valor medido.



Fig. 4.12. Transmissor eletrônico (Rosemount)

Os transmissores eletrônicos se
baseiam no amplificador operacional e
através de detectores indutivos,
capacitivos ou resistivos, convertem o sinal
da variável (pressão, temperatura, vazão,
nível) no sinal padrão de corrente de 4 a
20 mA cc. São alimentados com a
voltagem nominal de 24 V cc, através de 2
(mais usado), 3 ou 4 fios e possuem a
precisão típica de 0,5% do fundo de
escala.
Em 1983, a Honeywell lançou no
mercado o primeiro transmissor que
incorporava o microprocessador em seu
circuito eletrônico, chamado de transmissor
inteligente (smart transmiter). Pelo fato de
ter um microprocessador, o transmissor
possui funções adicionais, tais como:
1. linearização do sinal dos elementos
sensores individuais, tais como
extrator de raiz quadrada,
linearização de sinais de termopares
específicos,
2. compensação adequada das
variações de temperatura e de
pressão estática do fluido que atuam
sobre o transmissor, substituindo os
computadores analógicos
3. auto-calibração, onde o próprio
transmissor faz as operações de
ajustes de zero e de fundo de escala,
a partir da sala de controle.
4. mudança da faixa calibrada,
possibilitando o aumento da
rangeabilidade da medição,
passando de 10:1 para 400:1
5. auto-diagnose de seus circuitos e
peças internas, informando ao
instrumentista a existência de
problema no circuito, o diagnóstico e
a natureza do problema.
6. fixação do valor da variável no último
valor alcançado, quando há
irregularidades na malha.
7. visualização do sinal de saída, dos
dados de configuração, da faixa
calibrada e de outros parâmetros,
através de um comunicador portátil,
que se liga em qualquer ponto da
linha de transmissão.
Vários transmissores inteligentes podem
ser ligados, através de uma conexão RS
232C, a computador pessoal, que pode
configurar os transmissores por meio de
um programa adequado.
O transmissor inteligente possui a saída
de 4 a 20 mA cc além da saída digital (a
partir de 1986), para que o sistema não
necessite do conversor A/D (para o
transmissor) e o D/A (para o instrumento
receptor).
A precisão típica do transmissor
inteligente é de 0,1% do fundo de escala.
Instrumentos de Medição

105
Transdutor
Genericamente, transdutor é qualquer
dispositivo que altera a natureza do sinal
recebido na entrada com o gerado na
saída. Deste ponto de vista, o elemento
sensor, o transmissor, o conversor são
considerados transdutores.
Em instrumentação, transdutor é o
instrumento que converte um sinal padrão
de transmissão em outro sinal padrão de
transmissão. Deste modo, tem-se o
transdutor p/i, que converte o sinal
pneumático no sinal padrão de corrente
eletrônica e o transdutor i/p, que converte o
sinal padrão de corrente elétrica em sinal
padrão pneumático.
O transdutor é aplicado para possibilitar
a utilização de instrumentos pneumáticos e
eletrônicos na mesma malha. Eles são
chamados incorretamente de conversores.
O transdutor serve de interface entre a
instrumentação pneumática e a eletrônica.
Como o elemento final de controle mais
usado é a válvula com atuador
pneumático, o transdutor I/P é usado
principalmente para casar a
instrumentação eletrônica de painel com a
válvula com atuador pneumático.
3.4. Apresentação do Sinal
O elemento de apresentação do sinal
recebe o sinal da saída do condicionador e
apresenta o mesmo para ser lido pelo
operador. Ele é também chamado de
display ou readout.
Este elemento pode ser do tipo display
visual (indicador ou visor), registro gráfico
(registrador) ou registro magnético em fita
ou disco (memória de massa de
computador).
O elemento de display deve ter
1. resposta mais rápida possível,
2. impor o menor arraste possível no
sistema,
3. ter a mínima inércia e atrito.
Indicador
Indicador é o instrumento de medição
que mostra o valor instantâneo da variável
no seu display. O display pode ser
analógico ou digital.
O indicador analógico tem uma escala
fixa com um ponteiro móvel ou uma escala
móvel e um ponteiro fixo. Quanto maior o
tamanho da escala, maior a resolução da
medição e maior o número de algarismos
significativos. A escala pode ser curva ou
reta, horizontal ou vertical.



Fig. 4.13. Erro de paralaxe. A primeira
leitura é correta; a segunda tem um erro de
paralaxe e a leitura é menor que a correta.


Na leitura de instrumentos analógicos
com escala e ponteiro deve-se olhar
perpendicularmente à escala, evitando o
erro de paralaxe. O erro de paralaxe é
cometido quando se observa o ponteiro
obliquamente e lê-se a maior em uma
escala crescente, quando se está à
esquerda do ponteiro e a menor, quando
se está à direita do ponteiro.
O indicador digital possui números para
apresentar o valor da variável medida.
Quanto maior a quantidade de dígitos,
maior é a resolução da medição e maior o
número de algarismos significativos
indicado. O número de algarismos
significativos, porém, deve ser consistente
com a precisão do resto do sistema de
medição.
Os indicadores digitais são classificados
de acordo com o número de dígitos totais
mostrados. Por exemplo, tem-se
indicadores com 3 ou 4 dígitos. Cada um
destes dígitos pode assumir valores entre
0 a 9. Tem-se também instrumento com
meio dígito. O meio dígito só pode assumir
valores de 0 ou 1. A vantagem de se usar
um instrumento com meio dígito são as
seguintes:
1. tem-se um instrumento pouco mais
caro que o de dígito inteiro, por
exemplo, um instrumento de 3 ½
dígitos tem aproximadamente o
mesmo custo que o de 3 dígitos,
2. pode-se estender a precisão de uma
faixa em 100%, ou seja, pode-se
medir com dois algarismos depois da
Instrumentos de Medição

106
vírgula até 19,99
(3 ½ dígitos e não apenas até 9,99
(3 dígitos).
Por exemplo, para se medir o valor de
10,024 V deve-se ter um instrumento com
5 dígitos. O de 4 dígitos faria a leitura de
10,02. Porém, o instrumento com 4 ½
dígitos pode fazer a leitura de 10,024 V,
mantendo leituras com 3 dígitos depois da
vírgula até 19,999. Diz-se, então que o
instrumento com 4 ½ dígitos possui um
overrange (sobrefaixa) de 100% em
relação ao de 4 dígitos, pois a relação de
leituras com três algarismos depois da
vírgula é de
19,999/9,999 = 100%
Do mesmo modo, tem-se instrumento
com 4 ¾ dígitos, com sobrefaixa de 200%
e onde o dígito de ¾ pode assumir valores
de 0, 1 e 2.



Fig. 4.14. Escalas analógicas de indicação


Na leitura do indicador digital não há
problema de erro de paralaxe. Porém, é
possível se cometer erros de leitura,
quando os LEDs de indicação do dígito
estão queimados. Por exemplo, o número
8 pode se transformar em 0, quando o LED
central estiver queimado; o dígito 7 pode
ser lido como 1, quando o LED superior
esquerdo se queimar.



Fig. 4.15. Indicador digital de pressão


Tem-se a tendência errada de
considerar qualquer indicador digital mais
preciso e exato que o analógico. Como
será visto, a precisão é um conceito
relacionado com a qualidade dos
componentes e construção de um
instrumento e a exatidão está relacionada
com a calibração. Assim, na prática, é
possível se ter indicador analógico mais
exato e preciso que um digital. Estudos
mostram que, psicologicamente, se cansa
menos e comete-se menos erros de
leituras quando se trabalha com
numerosas indicações digitais.
Visor
O visor é usado para medir diretamente
a vazão ou o nível. Os tags são FG e LG
respectivamente para vazão e nível.
O visor completo consiste da câmara,
vidro, gaxetas, tampas e parafusos.
O vidro é normalmente de borossilicato,
que pode agüentar até 230
o
C e possui
boa resistência mecânica e ao choque
termal. O vidro pode também ser de vidro
de silício ou quartzo, quando pode operar
com temperatura de até 530
o
C. A câmara
pode ser feita de vários materiais e pode
ter revestimentos de materiais compatíveis
com fluidos corrosivos. Os parafusos e as
tampas são metálicos, de materiais
compatíveis com o fluido, temperatura e
pressão.
Os visores de vazão oferecem um meio
simples e barato de ver o processo e
assegurar que o fluido esteja vazando,
além de poder notar características do
processo, como cor, turbidez ou outra
propriedade que possa indicar alterações
no processo ou estragos no equipamento.
Seu uso é limitado na indústria. É difícil
estimar o valor da vazão e cria-se um
perigo se o vidro se quebrar. Eles são
usados geralmente para indicação local no
processo industrial.
O visor de nível mede diretamente o
nível de liquido dentro de um tanque. Ele
possui uma parede transparente, com uma
escala graduada e a leitura quantitativa do
nível é feita pela leitura direta do menisco
do liquido na escala. Ele é semelhante ao
visor de vazão, quanto às características
físicas e materiais de construção.
Instrumentos de Medição

107
Registrador
O registrador é o instrumento que sente
uma variável de processo e imprime o
valor desta variável em um gráfico através
de uma pena. Quanto ao local de
montagem, registrador pode estar no
campo (local) ou na sala de controle
(remoto). Quanto ao modo do registro, o
registrador pode ser continuo, com 1 a 4
penas, ou multiponto, com o registro
descontinuo de 6 ou 12 ou 24 pontos. O
formato do gráfico pode ser circular ou em
tira. O gráfico de tira pode ser em rolo ou
sanfonado. O acionamento do gráfico pode
ser mecânico, elétrico e raramente
pneumático.



Fig. 4.16. Registrador de painel microprocessado,
gráfico de tira (Yokogawa)


O registro pode ser analógico ou digital
e pode ser visualmente indicado ou não.
Atualmente, o registrador está sendo
substituído, com vantagens, pelo
computador digital usado para a aquisição
de dados (data logger). O computador
digital utiliza suas vantagens inerentes de
alta velocidade, de grande capacidade de
armazenamento de dados, de
possibilidade de mostrar os gráficos em
telas de vídeo e de imprimir os dados em
formulários contínuos ou em plotadores.
A malha de registro é passiva e aberta.
A vazão pode também ser registrada no
local ou remotamente. O registro do gráfico
pode ser usado, posteriormente, para o
cálculo da totalização da vazão. Esta
totalização pode ser feita manualmente e
sem uso de outro instrumento ou pode se
utilizar o planímetro.











Fig.4. 17. Registro e controle de variáveis















Fig. 4.18. Contagem e totalização de variáveis

Medidor
analógico
Registro
ou
Controle
Medidor
digital
Registro
ou
Controle
Conversor
D/A
Medidor
digital

Contador
Medidor
analógico
Conversor
A/D

Contador
Totalizador
Instrumentos de Medição

108
Integrador-Totalizador
O integrador totaliza um sinal e a sua
indicação de saída é um contador. O
totalizador integra o sinal analógico, por
isso é chamado de integrador. Quando o
sinal é em pulsos, o totalizador conta os
pulsos e por isso é chamado erradamente
de contador. O contador é a saída do
totalizador.
O totalizador pode receber sinais
analógicos ou digitais. O contador só pode
receber pulsos. Funcionalmente, quando o
integrador recebe um sinal analógico, ele o
converte para sinais de pulsos e conta os
pulsos. Quando o integrador recebe
diretamente pulsos, ele os escalona e os
conta. Pulso escalonado é aquele que já
possui um significado quantitativo do
volume, ou seja, o contador basta contá-
los e o display é o volume correto
acumulado.
Em instrumentação eletrônica é possível
fazer a contagem de pulsos sem erro,
usando circuitos digitais e bits de paridade.
Mas isso não significa que a totalização é
isenta de erros, pois pode haver erros na
conversão do sinal analógico para pulsos.
O medidor digital que gera pulsos também
pode cometer erros na geração destes
pulsos. Por exemplo, uma turbina
medidora de vazão que tenha uma palheta
do rotor quebrada, vai gerar pulsos com
freqüência proporcional à vazão medida
com um grande erro. Se o número total de
palhetas for quatro e uma estiver
quebrada, o erro é de 25% do valor
medido.














(a) Totalização de sinal analógico











(b) Totalização de pulsos escalonados

Fig. 4.19. Sistema de totalização de vazão


0 1 3 5 0 4
FT
FI
FQ
FE
FT
FE
M
(constante K)
0 1 3 5 0 4
Instrumentos de Medição

109
4. Desempenho do Instrumento
4.1. Introdução
A medição é o processo experimental
de atribuir números para as propriedades
dos objetos ou eventos no mundo real, de
modo a descreve-los quantitativamente. A
medição é uma descrição das
propriedades do objeto, não a descrição do
objeto. A medição é a comparação de uma
quantidade desconhecida com um valor
padrão predeterminado adotado. O
resultado completo de uma medição inclui:
1. um número que mostra quantas
vezes a unidade padrão está contida na
quantidade medida e
2. a unidade de engenharia da
quantidade,
3. a tolerância da medição, expressa
por limites de erro ou de incerteza.
Mede-se uma variável de processo,
direta ou indiretamente. O valor da variável
medida deve ser apresentado na unidade
de engenharia e não em termos de
corrente elétrica, sinal pneumático ou
movimento mecânico. O processo que
inclui a variável medida possui outras
variáveis que podem influir e perturbar a
medição. Para se medir uma variável,
todas as outras variáveis que interferem
nela devem ser mantidas constantes para
não haver erro.
O instrumentista confia na folha de
especificação do fabricante onde estão
definidas a precisão e as características do
instrumento e deve proceder corretamente
para obter a medição confessável,
seguindo as instruções de operação e
entendendo corretamente os conceitos
básicos associados.
O elemento sensor primário produz uma
saída que é função da variável medida,
segundo uma lei matemática conhecida. A
saída do elemento sensor pode ser um
deslocamento mecânico ou uma variável
elétrica, como tensão, corrente,
resistência, capacitância. O elemento
sensor intrusivo sempre perturba a variável
medida, ou extraindo ou adicionando
energia. A quantidade medida é sempre
modificada pela medição, tornando
impossível a medição perfeita e sem erro.
O sensor é tanto melhor quanto menos
influenciar a variável medida.
Para o instrumento desempenhar sua
função de indicação, registro ou controle, é
necessário converter o sinal de saída em
outro mais manipulável e conveniente, mas
preservando a informação contida no sinal
original. O elemento de manipulação da
variável condiciona o sinal de saída do
elemento sensor para que o instrumento
desempenhe a sua função, preservando a
natureza física da variável medida.
O elemento de apresentação dos dados
depende da função do instrumento:
indicação pelo conjunto ponteiro escala ou
através de dígitos, registro pelo conjunto
pena gráfico, armazenamento em sistema
digital.
A leitura feita pelo observador no
elemento apresentador dos dados possui
erros inerentes aos equipamentos e ao
método da medição. Toda leitura
apresenta erro e possui uma precisão.
A metrologia é a ciência da medição e é
considerada monótona e desinteressante
por muitos técnicos. Porém, ela é
necessária e felizmente existem
metrologistas para definir e monitorar os
padrões.
4.2. Características do Instrumento
As características de desempenho do
instrumento são importantes pois elas
constituem a base para a escolha do
instrumento mais apropriado para a
aplicação especifica. O instrumento possui
características estáticas e dinâmicas.
Estático significa entradas e saídas
estacionárias e dinâmico quer dizer
entradas e saídas não estacionárias. Um
sistema é chamado de estático se sua
relação entrada/saída é independente da
velocidade de variação da entrada. Todos
sistemas físicos eventualmente violam esta
definição quando a velocidade de variação
da entrada aumenta. Assim, o termo
estático é usualmente acompanhado por
uma limitação que especifica a faixa para a
qual o sistema é estático, como a faixa de
freqüência estendendo de zero até algum
valor limite. Por exemplo, uma mola
mecânica opera com variação de entrada
lenta e relação força-deslocamento
constante. Em grandes variações da
Instrumentos de Medição

110
entrada, a massa da mola se torna um
fator importante e a mola não se comporta
mais como um dispositivo estático.
Um sistemas é chamado dinâmico se
sua relação entrada-saída depende da
taxa de variação da entrada. O sistema
dinâmico tem armazenagem de energia e
sua descrição requer mais de uma
equação diferencial. O tempo de resposta
de um sistema dinâmico é caracterizado
por sua constante de tempo e freqüência
natural. Os sistemas de instrumentação
são dinâmicos, mas eles são projetados
para ter constantes de tempo menores e
freqüências naturais maiores do que as do
sistema sendo medido. Por exemplo, em
um sistema de controle com realimentação
negativa, o tempo de resposta do elemento
sensor é projetado e selecionado de modo
a ser muito mais rápido que o sistema
medido.
O comportamento transitório e dinâmico
de um instrumento é mais importante que o
estático. Os instrumentos raramente
respondem instantaneamente às variações
da variável medida, mas exibem um
atraso, devido a várias causas, como a
inércia da massa, a capacitância termal,
elétrica e fluídica, a resistência de
transferência de energia. As características
dinâmicas do instrumento são: a
velocidade de resposta, a confiabilidade, o
atraso e o erro dinâmico. Os instrumentos
podem ter respostas dinâmicas de ordem
zero (potenciômetro com deslocamento),
primeira (termômetro com enchimento
termal) e segunda (balanço da mola).
As características estáticas são aquelas
consideradas quando as condições do
processo são constantes. Elas são
conseguidas através do processo de
calibração do instrumento e incluem a
exatidão, rangeabilidade e precisão. A
precisão possui os parâmetros
constituintes de linearidade, repetitividade,
reprodutibilidade e sensitividade.
4.3. Exatidão
Conceito
O autor traduz o termo accuracy como
exatidão, embora já tenha sido criado o
neologismo de acurácia. Exatidão é o grau
de conformidade de um valor indicado para
um valor padrão reconhecidamente aceito
ou valor ideal. A exatidão medida é
expressa pelo desvio máximo observado
no teste de um instrumento sob
determinadas condições e através de um
procedimento especifico. É usualmente
medida como uma inexatidão e expressa
como exatidão.
Valor Verdadeiro
O valor verdadeiro é o valor real
atribuído à quantidade. O valor verdadeiro
da quantidade nunca pode ser achado e
não é conhecido. O valor atribuído a uma
quantidade somente será conhecido com
alguma incerteza ou erro. Na prática, o
valor verdadeiro é substituído pelo valor
verdadeiro convencional, dado por um
instrumento de medição padrão disponível.
Por exemplo, se um medidor é
considerado capaz de fornecer medições
com erro menor que ±1% do valor medido,
ele pode ser calibrado com um instrumento
com erros menores que ±0,1% do valor
medido, na mesma faixa. Neste caso, o
segundo instrumento fornece o valor
verdadeiro convencional. A coluna do
algarismo significativo duvidoso do
instrumento calibrado corresponde a um
algarismo garantido no padrão de
calibração., Algumas normas (p. ex.,
ANSI/ASQC M1-1987, American National
Standard for Calibration Systems) e os
laboratórios de calibração (p. ex., NIST)
recomendam (mas não exigem) que o
instrumento padrão deva ter um erro de 4 a
10 vezes menor que o instrumento a ser
calibrado.
O objetivo de toda medição é o de obter
o valor verdadeiro da variável medida e o
erro é tomado como a diferença entre o
valor medido e o valor verdadeiro. A
exatidão é a habilidade de um instrumento
de medição dar indicações equivalentes ao
valor verdadeiro da quantidade medida. A
exatidão se relaciona com a calibração do
instrumento. Quando o instrumento perde
a exatidão e deixa de indicar a média
Instrumentos de Medição

111
coincidente com o valor verdadeiro, ele
precisa ser calibrado




Grande precisão Pequena precisão
Pequena exatidão Grande exatidão


Pequena precisão Grande precisão
Pequena exatidão Grande exatidão
Fig. 4.20. Precisão e exatidão

4.4. Precisão
Conceito
A precisão é um dos assuntos mais
importantes da instrumentação, embora
seja mal entendido. Sua importância é
grande pelos seguintes motivos:
1. a medição precisa das variáveis de
processo é um requisito para um
controle eficiente,
2. o termo é pobremente definido e
muito mal interpretado. Em inglês, há
duas palavras accuracy e precision
que são traduzidas indistintamente
como precisão para o português.
3. os conceitos de precisão (precision e
accuracy), rangeabilidade
(rangeability ou turn down), aferição,
calibração e manutenção nem
sempre são bem definidos,
4. há a tendência de alguns fabricantes,
por má fé ou por desconhecimento,
em expressar numericamente a
precisão de modo a parecer que
seus produtos apresentam uma
precisão maior do que real ou maior
que a dos instrumentos concorrentes.
Precisão (precision) é o grau de
concordância mútua e consistente entre
várias medições individuais, principalmente
relacionada com repetitividade e
reprodutibilidade. A precisão é uma medida
do grau de liberdade dos erros aleatórios
do instrumento. A precisão é a qualidade
que caracteriza um instrumento de
medição dar indicações equivalentes ao
valor verdadeiro da quantidade medida. A
precisão está relacionada com a qualidade
do instrumento. Quando o instrumento
deteriora a sua precisão, alargando a
dispersão de suas medidas do mesmo
valor, ele necessita de manutenção. A
manutenção criteriosa do instrumento,
utilizando peças originais e conservando o
projeto original não melhora a precisão
nominal do instrumento, fornecida pelo
fabricante quando novo mas evita que ela
se degrade e ultrapasse os limites
originais.
Exatidão e Precisão
É tentador dizer que se uma medição é
conhecida com precisão, então ela é
também conhecida com exatidão. Isto é
perigoso e errado. Precisão e exatidão são
conceitos diferentes.
A precisão é uma condição necessária
para a exatidão, porém, não é suficiente.
Pode-se ter um instrumento muito preciso,
mas descalibrado, de modo que sua
medição não é exata. Mas um instrumento
com pequena precisão, mesmo que ele
forneça uma medição exata, logo depois
de calibrado, com o tempo ele se desvia e
não mais fornece medições exatas. Para o
instrumento ser sempre exato, é
necessário ser preciso e estar calibrado.

Instrumentos de Medição

112














Fig. 4.21. Expressão da precisão


Por exemplo, um relógio de boa
qualidade é preciso. Para ele estar exato,
ele precisa ter sido acertado (calibrado)
corretamente. Desde que o relógio preciso
esteja exato, ele marcará as horas, agora e
no futuro com um pequeno erro. Seja
agora um relógio de má qualidade e
impreciso. Logo depois de calibrado, ele
marcará a hora com exatidão, porém, com
o passar do tempo, a sua imprecisão fará
com ele marque o tempo com grandes
erros. Um instrumento impreciso é também
inexato. Mesmo que ele esteja exato, com
o tempo ele se afasta do valor verdadeiro e
dará grande erro.
Outro exemplo é o odômetro de um
automóvel, que pode ter até seis
algarismos significativos para indicar a
distância percorrida através da contagem
de rotações do eixo. A exatidão de sua
indicação depende de como as rotações
são contadas e de como as rotações
refletem a distância percorrida. O contador
pode não ter erros e ser exato porém a
distância percorrida depende, dentre
outros fatores, do diâmetro e do desgaste
dos pneus.
Tolerância
Tolerância é o máximo afastamento
permissível de uma medição para o seu
valor verdadeiro ou nominal. A tolerância é
a faixa total que uma quantidade especifica
é permitida variar. Numericamente,
tolerância é a diferença algébrica entre o
valor máximo e mínimo dos limites de erros
permitidos.
Por exemplo, a medição de temperatura
com erro de ±1
o
C, tem a tolerância de 2
o
C. A tolerância da freqüência, cujo erro
assimétrico é dado por +2% e -5% é de
7%. Quando um fabricante declara em sua
especificação que a resistência é de 100 Ω
e com limites de erro de ±0.1 Ω, a
tolerância é de 0,2 Ω.
No exemplo, em que o usuário compra
um lote de resistores de 100 Ω de um
fornecedor com tolerância de 0,4 Ω, haverá
um limite de ±0,2 Ω de cada lado de 100 Ω.
Quando ele medir a resistência de cada
resistor, a 20
o
C, ele achará valores
diferentes entre si e do valor cotado pelo
fabricante de 100.0 Ω. Será obtida uma
faixa de valores tais como 99.8 - 99,9 -
100.0 - 100,1 e 100.2 Ω distribuídos
aleatoriamente em torno de 100.0. Assim,
de conformidade com os limites de erro
combinados, ele deve rejeitar todos os
resistores com valores menores que 99.8 e
maiores que 100.2 Ω.
O usuário do resistor tem duas
escolhas:
1. ele pode projetar seu sistema de
medição usando o valor do fabricante
de 100.0 Ω e aceitando que todos os
resistores tenham desvios tolerados
de ±0,2 ohm, e como conseqüência,
haverá um pequeno desvio no
desempenho ideal projetado. Esta é
a prática mais comum.
2. ele pode desenvolver um sistema de
medição muito preciso para medir
cada resistência do lote e só usar as
resistências com medidas iguais a
100,0 Ω. Isto teoricamente removeria
o erro devido a incerteza da
resistência mas é demorado e caro.
E também continua havendo uma
incerteza residual no valor da
resistência, devido à precisão
limitada da medição.
Este fenômeno de dispersão dos
valores em torno de um valor esperado é
encontrado em qualquer lote de elementos
iguais. Variações significativas são
encontradas em lotes de resistores,
capacitores, termopares, termistores,
strain-gages. Porém, em qualquer caso,
para um lote de elementos, pode-se dizer
que os valores dos parâmetros estão
Instrumentos de Medição

113
estatisticamente distribuídos em torno do
valor médio.
A variabilidade natural das medições é
devida:
1. às diferenças de materiais e
procedimentos empregados na
fabricado de um produto
2. à execução de uma calibração. A
tolerância pode ser melhorada
usando-se vários pontos de
calibração. Fornecer a tolerância em
um ponto é inadequado, pois a
tolerância aumenta quando se afasta
do ponto de calibração.
3. ao operador que faz a medição
4. às condições ambientais variáveis
4.5. Parâmetros da Precisão
Quando um fabricante define a precisão
do instrumento, ele está realmente
definindo o erro máximo possível quando o
instrumento estiver sendo usado sob
condições definidas. Para encontrar este
erro máximo, o instrumento é testado
contra um padrão e a precisão de cada
ponto é calculada teoricamente.
A precisão absoluta pode ser dada
apenas pela diferença entre o valor medido
e o verdadeiro:
precisão = valor medido - valor
verdadeiro

A precisão relativa é um parâmetro mais
útil e é expressa em percentagem e
definida pela relação:
% 100
verdadeiro valor
verdadeiro valor - medido valor
= precisão ×

O valor medido é o dado pelo
instrumento e o valor verdadeiro é a leitura
do instrumento padrão, com precisão muito
maior que a do instrumento de medição.
Repetitividade
A repetitividade é a habilidade de um
medidor reproduzir as leituras da saída
quando o mesmo valor medido é aplicado
a ele consecutivamente, sob as mesmas
condições de uso (mesma variável, mesmo
valor, mesmo método, mesmo instrumento,
mesmo local, mesma posição, mesmo
observador, mesmo ambiente de contorno)
e na mesma direção. A repetitividade é
calculada a partir de sucessivas medições
da variável, mantidas as mesmas
condições. Quanto mais próximos
estiverem os valores das medições
consecutivas da mesma entrada, maior é a
repetitividade do instrumento.
A repetitividade é a proximidade entre
várias medições consecutivas da saída
para o mesmo valor da entrada, sob as
mesmas condições de operação. É
usualmente medida como não
repetitividade e expressa como
repetitividade em % da largura de faixa. A
repetitividade não inclui a histerese.
A repetitividade é um parâmetro
necessário para a precisão mas não é
suficiente. O instrumento preciso possui
grande repetitividade, porém, o
instrumento com alta repetitividade pode
ser inexato, por estar descalibrado.
Em controle de processo e atuação de
chaves liga-desliga, a repetitividade é mais
importante que a exatidão. Em sistemas de
custódia, envolvendo compra e venda de
produtos, a repetitividade e a exatidão são
igualmente importantes.
Reprodutibilidade
A reprodutibilidade é uma expressão do
agrupamento da medição do mesmo valor
da mesma variável sob condições
diferentes (método diferente, instrumento
diferente, local diferente, observação
diferente), durante um longo período de
tempo.
A perfeita reprodutibilidade significa que
o instrumento não apresenta desvio, com o
decorrer do tempo, ou seja, a calibração do
instrumento não se desvia gradualmente,
depois de uma semana, um mês ou até um
ano.
Pode-se também entender a
reprodutibilidade como a repetitividade
durante um longo período de tempo. A
reprodutibilidade inclui repetitividade,
histerese, banda morta e drift.
Instrumentos de Medição

114
Linearidade
A linearidade do instrumento é sua
conformidade com a linha reta de
calibração. Ela é usualmente medida em
não-linearidade e expressa como
linearidade.
Quando a medição é não linear
aparecem desvios da linha reta de
calibração. As formas mais comuns são:
desvio de zero, desvio da largura de faixa
e desvio intermediário, geralmente
provocado pela angularidade ou pela
histerese.
Quando a medição é uma linha reta não
passando pela origem, o instrumento
necessita de ajuste de zero. Em um
sistema mecânico, o desvio de zero é
usualmente devido ao deslize de um elo no
mecanismo. Ele pode ser corrigido pelo
reajuste do zero do instrumento. Em um
instrumento eletrônico, o desvio de zero é
causado por variações no circuito devidas
ao envelhecimento dos componentes,
mudanças nas condições de contorno,
como temperatura, umidade, campos
eletromagnéticos.
Quando a medição é uma linha reta,
passando pelo zero porém com inclinação
diferente da ideal, o instrumento necessita
de ajuste de largura de faixa ou de ganho.
Um desvio de largura de faixa envolve uma
variação gradual na calibração, quando a
medição se move do zero para o fim da
escala. Pode ser causada, em um sistema
mecânico, pela variação na constante da
mola de uma das partes do instrumento.
Em um instrumento eletrônico, o desvio de
largura de faixa pode ser provocado, como
no desvio do zero, por uma variação da
característica de algum componente.
Quando a medição se afasta da linha
reta e os valores da medição aumentando
são diferentes dos valores tomados com a
medição decrescendo, o instrumento
apresenta erro de histerese. Tais erros
podem ser provocados por folgas e
desgastes de peças ou por erros de
angularidade do circuito mecânico do
instrumento. O desvio intermediário
envolve um componente do instrumento,
alterando sua calibração. Isto pode ocorrer
quando uma parte mecânica é super
forçada ou pela alteração da característica
de um componente eletrônico. O desvio no
instrumento eletrônico ou pneumático-
mecânico pode ser compensado e
eliminado pela inspeção periódica e
calibração do instrumento.
A vantagem de se ter uma curva linear
de calibração é que a leitura do
instrumento se baseia somente um fator de
conversão. Quando a curva é não linear:
1. usa-se uma escala não-linear, com a
função matemática inversa
(impossível em indicadores digitais),
2. incorpora-se um circuito linearizador
antes do fator de conversão,
3. usa-se uma lógica para avaliar a
relação não linear e gravam-se os
pontos na memória digital (ROM,
PROM) do instrumento, fazendo-se a
linearização por segmentos de reta
ou por polinômios.


















Fig.4.22. Expressão da linearidade

Sensitividade
Sensitividade é a relação da variação do
valor de saída para a variação do valor de
entrada que a provoca, após se atingir o
estado de regime permanente. É expressa
como a relação das unidades das duas
quantidades envolvidas. A relação é
constante na faixa, se o instrumento for
linear. Para um instrumento não-linear,
deve-se estabelecer o valor da entrada. O
inverso da sensitividade é o fator de
deflexão do instrumento.
O termo sensitividade pode ser
interpretado como a deflexão do ponteiro
do instrumento dividida pela
correspondente alteração do valor da
Calibração
ideal
S
a
í
d
a


Entrada
Tolerância total
0
25 50 75 100
25
50
75
100
B% f.e.
-A% v.m.
Ponto em que A% do vm = B% f.e.
Instrumentos de Medição

115
variável. Por exemplo, se a parte usável
da escala é 10 cm, a sensitividade do
voltímetro é 10 cm/200 volts ou 0,05
cm/volt. É obvio que este indicador tem
dificuldades para indicar voltagens
menores que 0,5 volt ou entre 150 e 150,5
volts. Quando se quer indicar 0,05 volts,
um medidor com uma faixa de 1 volt seria
a solução. A sensitividade, agora, é 10
cm/volt; um sinal de 0,05 volt produziria
uma deflexão na indicação de 0,5 cm.
A sensitividade pode ser também a
habilidade de um instrumento responder e
detetar a menor variável na medição de
entrada. Neste caso, ela é também
chamada de resolução ou de
discriminação. Não há correlação entre a
sensitividade e o erro.























Fig. 4.23. Expressão da sensitividade

Zona Morta
O efeito da zona morta aparece quando
a medição cai nas extremidades das
escalas. Quando se mede 100 volts,
começando de 0 volt, o indicador mostra
um pouco menos de 100 volts. Quando se
mede 100 volts, partindo de 200 volts, o
ponteiro marca um pouco mais de 100
volts. A diferença das indicações obtidas
quando se aproxima por baixo e por cima é
a zona morta. O erro de zona morta é
devido a atritos, campos magnéticos
assimétricos e folgas mecânicas.
Rigorosamente zona morta é diferente de
histerese, porém, a maioria das pessoas
consideram zona morta e histerese o
mesmo fenômeno.
Na prática, a aplicação repentina de
uma grande voltagem pode causar um erro
de leitura, pois o ponteiro produz uma
ultrapassagem (overshoot), oscila e
estabiliza em um valor. Se a última
oscilação ocorreu acima do valor, a
indicação pode ser maior que o valor
verdadeiro; se ocorreu abaixo do valor, a
indicação pode ser menor que o valor
verdadeiro. O bom projeto do instrumento
e o uso de materiais especiais para
suportes, magnetos e molas, pode reduzir
a zona morta. Um modo efetivo para
diminuir o efeito da zona morta é tomar
várias medições e fazer a média delas.
Tempo de Resposta
A tempo de resposta é o intervalo que o
instrumento requer para responder a um
sinal tipo degrau aplicado à sua entrada. O
tempo de resposta é desprezível quando o
sinal varia lentamente. Porém, quando o
sinal varia rapidamente e continuamente, o
ponteiro fica oscilando e nunca fica em
equilíbrio, impedindo a leitura exata da
indicação. O tempo de resposta depende
da massa do ponteiro, resistência da mola
de retorno e da criação e desaparecimento
do campo magnético. O olho humano
também tem dificuldade de acompanhar
variações muito rápidas do ponteiro.
Os artifícios para diminuir o tempo de
resposta do indicador incluem a diminuição
do ponteiro, uso de materiais mais leves,
molas com menores constantes, uso de
displays eletrônicos sem ponteiros
(digitais).
Instrumento não linear
Entrada q
i
S
a
í
d
a

q
o

∆q
o

∆q
i

Entrada q
i
S
a
í
d
a

q
o

Sensitividade = ∆q
o
/∆q
i
Instrumento linear
Instrumentos de Medição

116
Confiabilidade
Os instrumentos de medição podem
falhar, deixar de operar, operar
intermitentemente ou degradar
prematuramente seu desempenho quando
exposto a condições desfavoráveis de
temperatura, pressão, umidade, fungos,
frio, maresia, vibração e choque mecânico.
Instrumento confiável é estável, autentico e
garantido. Esta expectativa de
confiabilidade pode parecer subjetiva,
porém, a confiabilidade pode ser definida,
calculada, testada e verificada.
Confiabilidade é a probabilidade de um
instrumento executar sua função prevista,
durante um período de tempo especificado
e sob condições de operação
determinados. A função pretendida
identifica o que constitui o não
desempenho ou falha do instrumento. O
período especificado pode variar de uma
operação instantânea (fusível, disco de
ruptura) ou operações que duram anos
ininterruptos. O desempenho sob
condições estabelecidas refere-se às
condições de operação e do ambiente. As
condições operacionais podem depender
do tipo do instrumento mas devem ser
completamente identificadas. As condições
de operação e do ambiente não podem
causar ou contribuir para o aparecimento
de falhas.
Medições confiáveis devem ser válidas,
precisas, exatas e consistentes, por
definição e verificação. Medidas válidas
são feitas por procedimento corretos,
resultando no valor que se quer medir.
Medidas precisas são repetitivas e
reprodutivas, com pouca dispersão em
torno do valor esperado. Medidas exatas
estão próximas do valor verdadeiro ideal.
Medidas consistentes são aquelas cujos
valores ficam cada vez mais próximos do
valor verdadeiro, quando se aumenta o
número de medições replicadas.
O metrologista, pessoa que procura
fazer medições com a máxima exatidão e
precisão, parece ter uma interpretação
filosófica de confiabilidade. Em sua
determinação de constantes fundamentais,
ele procura um valor verdadeiro mais
fisicamente possível. O instrumentista no
campo ou no laboratório, tem um enfoque
operacional e procura o melhor valor
pratico possível. Melhor implica
simplesmente que a incerteza para uma
dada medição foi reduzida até um valor
menor que um número predeterminado. A
incerteza é normalmente expressa por uma
faixa ou limites de confiabilidade, dentro da
qual é altamente provável que os
resultados da medição estejam.
A confiabilidade da medição inclui o
intervalo de tempo durante o qual o
instrumento permanece calibrado. Ela é
comumente somada e expressa em MTBF
(mean time between failures - tempo médio
entre falhas).
O termo falha não significa
necessariamente o desligamento completo
do instrumento, mas que o instrumento
deixou de manter sua especificação de
erro. O instrumento que requer calibrações
muito freqüentes é pouco confiável, porque
apresenta problema estrutural, ou está mal
aplicado ou é de má qualidade. Quando a
indicação de um instrumento se afasta do
valor verdadeiro, sua calibração está
variando com o tempo e sua
reprodutibilidade piora.
É difícil estimar a confiabilidade de
dados experimentais. Mesmo assim, se
pode fazer tais estimativas porque dados
de confiabilidade desconhecida são inúteis.
Resultados que não especialmente exatos
podem ser valiosos se os limites de
incerteza são conhecidos.
Infelizmente, não há método simples
para determinar a confiabilidade dos dados
com certeza absoluta. Às vezes, é tão
trabalhoso garantir a qualidade dos
resultados experimentais, quanto coleta-
los. A confiabilidade pode ser avaliada de
diferentes modos. Padrões com certeza
conhecida são usados para comparações
e calibrações. A calibração de
instrumentos aumenta a qualidade dos
dados. Testes estatísticos são aplicados
aos dados. Nenhuma destas opções é
perfeita e, no fim, sempre deve-se fazer
julgamentos para a exatidão provável dos
resultados.
Uma das primeiras questões a levantar
antes de fazer a medição é: qual é o
máximo erro tolerado no resultado? A
resposta a esta questão determina quanto
tempo se gastará na análise dos dados.
Por exemplo, um aumento de 10 vezes na
confiabilidade pode resultar em horas, dias
ou semanas de trabalho adicional.
Instrumentos de Medição

117
Ninguém pode pretender gastar tempo
gerando medições que sejam mais
confiáveis que o necessário.
Estabilidade
O desempenho de um instrumento de
medição varia com o tempo. Geralmente, a
exatidão do instrumento se degrada com o
tempo. As especificações fornecidas pelo
fabricante se referem a um instrumento
novo, recém calibrado e testado nas
condições de laboratório, que são muito
mais favoráveis que as condições reais de
processo. A estabilidade do medidor é sua
habilidade de reter suas características de
desempenho durante um longo período de
tempo. A estabilidade pode ser expressa
como taxa de desvio (drift rate),
tipicamente em % por ano ou ±unidade por
ano.
A estabilidade do instrumento é um
parâmetro básico para a determinação dos
intervalos de calibração do instrumento.
Facilidade de Manutenção
Nenhum instrumento opera todo o
tempo sem falha ou com o desempenho
constante. Todo instrumento, por melhor
qualidade que tenha, mesmo que não
tenha peças moveis, em algum tempo
necessita de alguma inspeção e
manutenção. Normalmente, todas as
plantas possuem programas estabelecidos
de manutenção preventiva e preditiva.
Mesmo assim, freqüentemente, o
instrumento requer manutenção corretiva.
O instrumento microprocessado
(inteligente) possui a característica de
auto-diagnose, quando ele informa ao
operador o afastamento do desempenho
do desejado.
A facilidade de manutenção de um
instrumento pode ser quantitativamente
calculada como o tempo médio gasto para
seu reparo. A combinação do tempo médio
entre falhas (MTBF) e o tempo médio para
reparo (MTTR) dá a disponibilidade do
instrumento. Instrumento muito disponível
é aquele que raramente se danifica
(grande tempo médio entre falhas) e
quando isso ocorre, seu reparo é rápido
(pequeno tempo médio para reparo).
As condições que facilitam a
manutenção incluem:
1. acesso fácil,
2. conjuntos modulares substituíveis,
3. pontos de testes estrategicamente
localizados,
4. auto-diagnose dos defeitos,
5. identificação clara das peças na
documentação e no instrumento,
6. padronização e disponibilidade dos
componentes reservas,
7. número limitado de ferramentas e
acessórios de suporte,
8. compatibilidade e intercambiabilidade
de instrumentos e peças,
9. facilidade de manuseio, transporte,
armazenamento,
10. documentação técnica, marcações e
etiquetas completas e claras.
4.6. Especificação da Precisão
A precisão industrial de um instrumento
pode ser expressa numericamente de
vários modos diferentes:
1. percentagem do fundo de escala da
medição,
2. percentagem do limite superior da
capacidade do instrumento
3. percentagem da largura de faixa da
medição,
4. percentagem do valor real medido,
5. unidade de engenharia da variável.
Mesmo que os valores numéricos sejam
iguais para um determinado valor da
medição, a classe de precisão do
instrumento pode ser diferente ao longo de
toda a faixa. Por exemplo, o instrumento A,
com precisão de ±1 % do fundo de escala
tem desempenho de precisão diferente do
instrumento B, com precisão de ±1 % do
valor medido, ambos calibrados para medir
0 a 10 L/s. O erro da medição é igual
somente para a vazão de 10 L/s, quando o
valor medido é igual ao fundo da escala.
Percentagem do Fundo de Escala
Os medidores que possuem os erros
devidos ao ajustes de zero e de largura de
faixa possuem a precisão expressa em
percentagem relativa ao fundo de escala.
Os instrumentos com erro dado em
percentagem do fundo de escala
apresentam um erro absoluto constante
(valor da percentagem vezes o fundo da
escala) e o erro relativo aumenta quando a
medição diminui.
Instrumentos de Medição

118
Esta classe de instrumentos aparece
principalmente na medição de vazão e um
exemplo é o erro da placa de orifício em
percentagem do fundo de escala.

Tab.4.1. Erros de instrumento com imprecisão % do
F.E.
Vazão
L/s
Erro absoluto
L/s
Erro relativo
%
100 1 1
50 1 2
30 1 3
10 1 10
1 1 100


Por exemplo, na medição da vazão de 0
a 100 L/s, com a precisão de 1% do fundo
de escala, o erro absoluto é igual a 1% x
100 = 1 L/s mas o erro relativo aumenta
hiperbolicamente (sentido rigoroso e não
figurado). Nesta aplicação, para se ter um
erro menor que 3%, deve-se medir apenas
vazões acima de 30 L/s.
Percentagem do limite superior do
instrumento (URL)
Atualmente, por causa do rigor
metrológico dos usuários, os fabricantes
também expressam a incerteza dos
instrumentos em percentagem do limite
superior do instrumento (URL - upper
range limit ou URV - upper range value). É
uma filosofia mais realista, pois expressa a
incerteza do instrumento em função de
suas características de fabricante e não de
suas características de aplicação. A
incerteza de uma capsula de transmissor
deve ser função de como ela foi construída
e não de como ela é calibrada para uso.
Como exemplo numérico, se uma cápsula
é feita para medir de 0 a 10 000 mm H
2
0,
sua imprecisão deve estar associada a
esta capacidade. Se a imprecisão for de
0,1% desta faixa, sua incerteza é de 10
mm H
2
0, quer ela seja calibrada para faixa
de 0 a 100 ou 0 a 1000 ou 0 a 10 000 mm
H
2
0. Obviamente, o erro relativo para a
faixa calibrada de 0 a 100 é de 10%, para
a faixa de 0 a 1000 é de 1% e somente
para a faixa de 0 a 10 000 mm H
2
0 o erro é
de 0,1%, o nominal.
Percentagem da largura de faixa
Quando a faixa de medição se refere a
zero, as precisões referidas à largura de
faixa e ao fundo de escala são idênticas.
Quando a faixa de medição é com zero
elevado, a largura de faixa é maior que o
valor do fundo de escala e quando a faixa
de medição é com zero suprimido, a
largura de faixa é menor que o valor do
fundo de escala.
Numericamente, na medição de 0 a 100
o
C, as precisões de ±1% do fundo de
escala e ±1% da largura de faixa são
ambas iguais a ±1
o
C.
Para uma faixa de 20 a 100
o
C, o erro
de ±1% do fundo de escala é de ±1
o
C,
porém, o erro de ±1% da largura de faixa é
de ±0,8
o
C.
Para uma faixa de -20 a 100
o
C, o erro
de ±1% do fundo de escala ainda é ±1
o
C,
porém, o erro de ±1% da largura de faixa é
de ±1,2
o
C.
Em faixas com zero elevado ou zero
suprimido não se deve expressar a
precisão em percentagem do fundo de
escala, mas sim de largura de faixa. Por
exemplo, na medição de
-100 a 0
o
C, o erro em fundo de escala se
refere a 100 e não a 0
o
C.
Percentagem do Valor Medido
Os medidores que possuem somente os
erros devidos ao ajustes de largura de
faixa e não possuem erros devidos aos de
zero, pois a condição de zero é
exatamente definida, possuem a precisão
expressa em percentagem do valor
medido. Os instrumentos com erro dado
em percentagem do valor medido
apresentam um erro relativo constante
(valor definido pela qualidade do
instrumento) e o erro absoluto aumenta
quando a medição aumenta.
Por exemplo, seja a medição da vazão
de 0 a 100 L/s, com a precisão de 1% do
valor medido. O erro relativo da medição
vale sempre ±1%. Porém, o erro absoluto
depende do valor medido. O erro absoluto
aumenta linearmente com o valor da
medição feita. Teoricamente, este
instrumento teria uma rangeabilidade
infinita, porém, na prática, ela é
estabelecida como de 10:1.

Instrumentos de Medição

119

Tab. 4.2. Erros de instrumento com imprecisão % do
V.M.
Vazão
L/s
Erro absoluto
L/s
Erro relativo
%
100 1 1
50 0,5 1
30 0,3 1
10 0,1 1
1 0,01 1


Unidade de Engenharia
É possível ter a precisão expressa na
forma do erro absoluto dado em unidades
de engenharia. Como o erro absoluto é
constante, o erro relativo se comporta
como o erro do instrumento com
percentagem do fundo de escala. Por
exemplo, no termômetro com erro absoluto
de ±1
o
C, independente da medição, o erro
relativo aumenta quando a medição
diminuir, exatamente como no instrumento
com percentagem do fundo de escala.
4.7. Rangeabilidade
Tão importante quanto à precisão e
exatidão do instrumento, é sua
rangeabilidade. Em inglês, há duas
palavras, rangeability e turndown para
expressar aproximadamente a extensão de
faixa que um instrumento pode medir
dentro de uma determinada especificação.
Usamos o neologismo de rangeabilidade
para expressar esta propriedade.


















Fig. 4.24. Escalas linear, raiz quadrática e
logarítmica, com diferentes rangeabilidades

Para expressar a faixa de medição
adequada do instrumento define-se o
parâmetro rangeabilidade. Rangeabilidade
é a relação da máxima medição sobre a
mínima medição, dentro uma determinada
precisão. Na prática, a rangeabilidade
estabelece a menor medição a ser feita,
depois que a máxima é determinada. A
rangeabilidade está ligada à relação
matemática entre a saída do medidor e a
variável medida. Instrumentos lineares
possuem maior rangeabilidade que os
medidores quadráticos (saída do medidor
proporcional ao quadrado da medição).
Na medição de qualquer quantidade se
escolhe um instrumento pensando que ele
tem o mesmo desempenho em toda a
faixa. Na prática, isso não acontece, pois o
comportamento do instrumento depende
do valor medido. A maioria dos
instrumentos tem um desempenho pior na
medição de pequenos valores. Sempre há
um limite inferior da medição, abaixo do
qual é possível se fazer a medição, porém,
a precisão se degrada e aumenta muito.
Por exemplo, o instrumento com
precisão expressa em percentagem do
fundo de escala tem o erro relativo
aumentando quando se diminui o valor
medido. Para estabelecer a faixa aceitável
de medição, associa-se a precisão do
instrumento com sua rangeabilidade. Por
exemplo, a medição de vazão com placa
de orifício, tem precisão de ±3% com
10 :1
0
10
20
30
40
50
60
70
80
90
100
Linear
3 :1
50
60
70
80
90
100
40
30
20
0
Raiz Quadrática
50
100
40
30
20
90
80
70
60
10
0
30 :1
Logaritmica
Instrumentos de Medição

120
rangeabilidade de 3:1. Ou seja, a precisão
da medição é igual ao menor que 3%
apenas nas medições acima de 30% e até
100% da medição. Pode-se medir valores
abaixo de 30%, porém, o erro é maior que
±,3%. Por exemplo, o erro é de 10%
quando se mede 10% do valor máximo; o
erro é de 100% quando se mede 1% do
valor máximo.
Não se pode medir em toda a faixa por
que o instrumento é não linear e tem um
comportamento diferenciado no início e no
fim da faixa de medição. Geralmente, a
dificuldade está na medição de pequenos
valores. Um instrumento com pequena
rangeabilidade é incapaz de fazer
medições de pequenos valores da variável.
A sua faixa útil de trabalho é acima de
determinado valor; por exemplo, acima de
10% (rangeabilidade 10:1), ou de 33%
(3:1).
Em medição, a rangeabilidade se aplica
principalmente a medidores de vazão.
Sempre que se dimensiona um medidor de
vazão e se determina a vazão máxima,
automaticamente há um limite de vazão
mínima medida, abaixo do qual é possível
fazer medição, porém, com precisão
degradada.
Em controle de processo, o conceito de
rangeabilidade é também muito usado em
válvulas de controle. De modo análogo,
define-se rangeabilidade da válvula de
controle a relação matemática entre a
máxima vazão controlada sobre a mínima
vazão controlada, com o mesmo
desempenho. A rangeabilidade da válvula
está associada à sua característica
inerente. Na válvula linear, cujo ganho é
uniforme em toda a faixa de abertura da
válvula, sua rangeabilidade é cerca de
10:1. Ou seja, a mesma dificuldade e
precisão que se tem para medir e controlar
100% da vazão, tem se em 10%. A válvula
de abertura rápida tem uma ganho muito
grande em vazão pequena, logo é instável
o controle para vazão baixa. Sua
rangeabilidade vale 3:1. A válvula com
igual percentagem, cujo ganho em vazão
baixa é pequeno, tem rangeabilidade de
100:1.
4.8. Precisão Necessária
Instrumentos de Processo
Quando se faz o projeto de uma planta,
o projetista deve estabelecer as precisões
dos instrumentos compatíveis com as
especificações do produto final. Nem
sempre isso é feito com critério técnico,
pois essa definição requer conhecimentos
de projeto, processo, instrumentação,
controle e estatística.
Por insegurança, há uma tendência
natural de se estabelecer as classes de
precisão maiores possíveis, sem nenhum
critério consistente com os resultados
finais e até sem saber se o instrumento
com tal precisão é comercialmente
disponível. Por exemplo, pretender que
uma indicação de temperatura tenha
incerteza de ±0,1
o
C, quando o processo
requer incerteza de ±1
o
C implica, no
presente, custo mais elevado do indicador
e, no futuro, problemas na operação da
instrumentação com recalibrações
freqüentes e desnecessárias do
instrumento.
Mesmo depois de se especificar o
instrumento, não se tem o rigor de verificar
se o instrumento comprado e recebido está
conforme com a precisão especificada. Às
vezes, compra-se o instrumento com
precisão pior que a necessária e haverá
problemas futuros com a especificação do
produto. Também é freqüente comprar
instrumento com precisão melhor que a
necessária. Neste caso, além do obvio
custo mais elevado, haverá problemas
técnicos de especificação do produto, pois
a tentativa de se obter um controle melhor
que o necessário é uma causa de perda de
controle. Também não há uma
preocupação de se ter instrumentos com
precisões iguais em uma malha de
medição ou no sistema total de controle. A
precisão de uma malha de instrumentos é
sempre pior que a precisão do instrumento
da malha de pior precisão. Assim, haverá
desperdício de dinheiro na compra de
instrumentos com precisão além da
necessária.
Instrumentos de Medição

121
Instrumentos de Teste e Calibração
A partir da classe de precisão dos
instrumentos de medição e controle da
planta, o pessoal de metrologia e de
instrumentação deve montar um
laboratório de calibração e aferição com
padrões e instrumentos de referência para
calibrar os instrumentos de processo. Os
instrumentos de aferição e calibração
devem ter classe de precisão consistente
com a dos instrumentos a serem aferidos e
calibrados. Por exemplo, recomenda-se
que o instrumento padrão tenha incerteza
de 4 vezes a 10 vezes menor que a do
instrumento calibrado.
É freqüente a modernização dos
instrumentos de medição e controle da
planta, por exemplo, passando de
instrumentação pneumática para eletrônica
analógica, de eletrônica analógica para
digital e até de pneumática para eletrônica
digital. Nestas trocas de instrumentação, a
classe de precisão pode aumentar de
fatores de 10 e até de 100. Nestas
situações, é obrigatória a modernização e
melhoria dos instrumentos de teste e de
calibração.
Tudo se resume a uma questão de
consistência:
1. O ideal é ter instrumentos de
processo com classe de precisão ±
n% e instrumentos de teste e
calibração com classe de ±0,n% (10
vezes melhor), pois a incerteza do
padrão não passa para o instrumento
calibrado.
2. Quando a precisão dos instrumentos
de processo tem classe de precisão
de ±0,n% e os instrumentos de
calibração e teste tem classe de ±n%
(10 vezes pior), tem-se a situação
ridícula onde o padrão é pior que o
instrumento sendo calibrado. A
incerteza de ±n% passa para os
instrumentos de medição durante a
calibração. Não adiantou nada
investir muito dinheiro no instrumento
de medição e não investir no
instrumento de calibração.
3. Quando a precisão dos instrumentos
de processo tem classe de precisão
de ±n% e os instrumentos de
calibração e teste tem classe de ±n%
(iguais), a incerteza final das
medições feitas com os instrumentos
calibrados é de ±2n% (±n% devidos
ao instrumento em si mais ±n%
devidos ao padrão de calibração.)
Estas comparações feitas entre as
classes de precisão dos instrumentos de
medição com os instrumentos padrão de
trabalho se aplicam exatamente para as
outras interfaces da escada de
rastreabilidade da calibração, como entre
padrões de trabalho e padrões de
laboratório, entre padrões de laboratório e
padrões externos secundários,
sucessivamente até chegar aos padrões
nacionais e internacionais.
4.9. Relação entre padrão e
instrumento
A calibração correta de um instrumento
requer um padrão rastreado. A primeira
questão que aparece é: qual deve ser a
relação entre as precisões do instrumento
e do padrão?
A relação típica varia de 1:1 a 10:1.
Uma alta relação (10:1) entre o padrão e o
item calibrado (instrumento ou padrão
inferior) irá fornecer um alto grau de
confiança da medição. Por outro lado, uma
baixa (1:1) irá refletir um baixo grau de
confiança da medição. O erro de medição
potencial pode ser minimizado com a
seleção adequada de relações entre o
padrão de calibração e o instrumento de
medição e teste.
Embora nenhuma norma obrigue,
sempre que possível, a seleção das
relações de precisão entre o comparador e
o item que está sendo calibrado deve ser
maior que 2:1 e preferivelmente maior que
4:1.
Uma relação de precisões de 1:1 reflete
uma área de 1% de incerteza e portanto
todas as medições que caem dentro de
uma faixa de tolerância do item irão ficar
na área da incerteza. Não se tem dúvida
para rejeitar um valor medido para estes
itens onde a medição cai fora das
tolerâncias permitidas.
É importante notar que a relação de
incertezas de 1:1 pode ou não indicar que
os itens calibrados sob estas condições
estão de conformidade com as tolerâncias
prescritas. Uma relação de incertezas de
1:1 pode não fornecer a confiança
Instrumentos de Medição

122
necessária para a medição. Além disso,
ela pode requerer ações corretivas e
aumentar os custos da qualidade. Uma
relação de precisões de 4:1 reflete uma
área de aceitação de 75% e uma área de
incerteza de 25%. Uma relação de
precisões de 10:1 reflete uma área de
aceitação de 90% e uma área de incerteza
de 10%. O uso da relação 10:1 ou maior
irá fornecer uma maior confiança na
medição e reduzirá o erro potencial da
medição.
Quando as medições caem dentro da
área de aceitação, a confiança da medição
pode ser alcançada. Porém, quando as
medições caem dentro da área da
incerteza, uma decisão para aceitar ou
rejeitar uma medição pode ser
questionável.
Equipamento de medição com um alto
nível de precisão irá ajudar grandemente o
técnico em tomar a decisão correta e
aceitar ou rejeitar leituras medidas.
O técnico deve assegurar que as
relações de precisões entre o instrumento
de medição e teste e a tolerância do
produto e entre o padrão e o instrumento
são adequadas para o objetivo pretendido.
Uma relação maior que 4:1 é aceitável.
Porém, uma relação de 10:1 ou maior é
recomendada, sempre que possível.
Quando as medições caem dentro da área
de incerteza, uma decisão deve ser
tomada com relação ao impacto nas
condições de fora de tolerância.
Os fatores para determinar as relações
de precisões são:
R = relação
TP = tolerância do produto
M&TAT = tolerância da precisão do
equipamento de medição e teste
SAT = tolerância da precisão do padrão
secundário
PAT = tolerância da precisão do padrão
primário
Seleção da relação
a. Tolerância do produto do fabricante
= 0,005”
b. M&TAT = 0,001”
c. SAT = 0,000 1”
d. PAT = 0,000 004”

Relação entre tolerância do instrumento
e tolerância do produto:

" 001 , 0
" 005 , 0
TAT & M
PT
R = =

= 5:1 (nominal) = relação

Relação entre padrão secundário da
medição e equipamento de teste e
medição:

" 0001 , 0
" 001 , 0
SAT
TAT & M
R = =

= 10:1 (nominal) = relação

Relação entre padrão primário e padrão
secundário:

" 004 000 , 0
" 1 000 , 0
PAT
SAT
R = =

= 25:1 (nominal) = relação


Tolerância do item = ± 0,001”
Discriminação do comparador:

" 001 , 0
1
" 001 , 0
R
T
Relação
) ( Tolerância
= = =
±

Instrumentos de Medição

123
Relação 1:1




















Fig. 4.26. Exemplo de uma relação 1:1


Comentários:
1. A área de incerteza é igual à
precisão do comparador. No
caso, a área de incerteza é total
e a área de aceitação é zero.
2. Todas as medições caem na
área de incerteza e sempre deve
se considerar o seu impacto nas
tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de
1 “ é ±0,001”:
a) Medição real: 1,001’
b) Área de incerteza:
0,001”
c) Discriminação permitida
±0,001”
4. Deste modo, a medição é
considerada estar entre 1,099” e
1,001”
Conclusão: a medição pode ser aceita
em 1,099” ou rejeitada em 1,001”.

Relação 4:1

Tolerância do item = ± 0,001”
Discriminação do comparador:

25" 000 , 0
4
" 001 , 0
R
T
Relação
) ( Tolerância
= = =
±

















Fig. 4.27. Exemplo de uma relação 4:1


Comentários:
1. A área de incerteza é igual à
precisão do comparador.
2. Quando as medições caem na área
de incerteza, deve-se verificar o seu
impacto nas tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de 1 “
é ±0,001”:
a) Medição real: 1,001’
b) Área de incerteza:
0,000 25”
c) Discriminação permitida
±0,000 25”
d) Deste modo, a medição é
considerada estar entre
1,000 75” e 1,00125”
Conclusão: a medição pode ser aceita
em 1,000 75” ou rejeitada em 1,00125”.
Linha vertical acima do zero
representa o tamanho nominal de
t í ti
0,001 0,001
-
+
Tolerância
Área de
incertez
0
Comparador
0,00025”
0,0015”
0,001” 0,001”
Área de incerteza
Área de aceitação
Instrumentos de Medição

124
Relação 10:1

Tolerância do item = ± 0,001”
Discriminação do comparador:

1" 000 , 0
10
" 001 , 0
R
T
Relação
) ( Tolerância
= = =
±




















Fig. 4.28. Exemplo de uma relação 10:1


Comentários:
1. A área de incerteza é igual à
precisão do comparador.
2. Quando as medições caem na área
de incerteza, deve-se verificar o seu
impacto nas tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de 1 “
é ±0,001”:
Medição real: 1,001’
Área de incerteza: 0,000 1”
Discriminação permitida ±0,000 1”
Deste modo, a medição é
considerada estar entre 1,000 9” e
1,001 1”
Conclusão: a medição pode ser aceita
em 1,000 9 ” ou rejeitada em 1,0011”.

Tab.4.3. Relações de incertezas entre tolerâncias do
produto e o instrumento de medição e teste

Relação
Discriminação
do comparador
Área de
incerteza
Área de
aceitação
1:1 0,001 000” 100% 0%
2:1 0,001 500” 50% 50%
3:1 0,001 333” 33% 67%
4:1 0,001 250” 25% 75%
5:1 0,001 200” 20% 80%
6:1 0,001 167” 16% 84%
7:1 0,001 143” 14% 86%
8:1 0,001 125” 13% 87%
9:1 0,001 110” 11% 89%
10:1 0,000 100” 10% 90%
50:1 0,000 020” 2% 98%
100:1 0,000 010” 1% 99%



As condições de fora de tolerância do
padrão e do instrumento são colocadas em
três categorias gerais:

Relação
padrão e
/intrumento
Impacto nas exigências da precisão
4:1 a 10:1
ou maior
A adequação do padrão e instrumento
será mantida satisfatoriamente.
Nenhuma ação é necessária.
2:1 a menor
que 4:1
Quando a precisão do instrumento
deteriora da condição A para B,
investigar os fatores aplicáveis abaixo.
Relação
menor que
2:1
Quando a precisão do instrumento
deteriora para a condição C, há um
grande impacto nas exigências de
precisão do padrão e instrumento.
Está é uma condição importante que
requer ação corretiva imediata.
Investigar todos os fatores mostrados
abaixo.


0,001”
0,001”
0,001”
0,0018”
Comparador
Área de
incerteza
Área de
aceitação
0,001”
Instrumentos de Medição

125

























Fig. 4.29. Curva representativa para uma tolerância de produto de 0,001”




0 10 20 30 40 50 60 70 80 90 100
10:1

9:1

8:1

7:1

6:1

5:1

4:1

3:1

2:1

Área de
incerteza
Área de
aceitação
Instrumentos de Medição
126
4.10. Projeto, Produção e Inspeção
A especificação de produto ou
instrumento envolve as áreas de projeto,
produção e inspeção. O projetista pensa
no produto ideal, o homem da produção
quer a máxima produção possível e o
inspetor julga se o produto final está dentro
das especificações nominais. Cada uma
dessas pessoas tem uma visão diferente
da tolerância da especificação do produto.
O projetista trata de condições ideais,
assumindo instrumentos e equipamentos
novos, operadores bem treinados,
supervisão competente, instrumentos
calibrados, matérias primas dentro das
especificações nominais. A partir desta
visão, suas tolerâncias são pequenas e às
vezes, não atingíveis na prática com o grau
de economia do processo industrial. Pode
ser até que as condições ideais do
processo possam ser conseguidas durante
alguma parte do processo mas nunca por
longo período de tempo.
O homem de produção sabe, de sua
experiência prática, que o operador falha, a
matéria prima não é constante, o
equipamento não está ajustado
corretamente, o instrumento perde a
calibração e tudo isso contribui para o
produto final se afastar das especificações
nominais. Para isso ocorrer menos
freqüentemente, ele aceita ou estabelece
tolerâncias maiores. Ele faz o melhor que
pode, mas nem sempre ele avalia como
ele pode melhorar o que ele já faz. Sendo
humano e sob pressão para produzir o
máximo possível, ele se limita a fazer o
que ele acha que é o melhor.
Entre esta briga de foice no escuro
ainda há o inspetor do produto.
Psicologicamente, o inspetor tenderá a
uma posição política de compromisso.
Quando o inspetor escuta o operador que
trabalha no chão de fabrica, ele será
informado que a conformidade com as
tolerâncias irá parar a produção e que
0,1% a mais não irá fazer nenhuma
diferença prática. Quando o inspetor
escuta o projetista que trabalho no ar
condicionado do escritório, ele será
informado que a produção deverá produzir
de conformidade com a especificação
nominal.
Não se pode relaxar a inspeção, pois
assim ela perderia sua validade. Porém, as
especificações das tolerâncias devem ser
estabelecidas com critério técnico,
resultando em produtos usáveis e
economicamente viáveis.
Quando se tem tolerâncias pequenas
que são desrespeitadas sem nenhuma
conseqüência grave, cria uma cultura
nociva de falta de respeito a
especificações por parte do pessoal de
produção e inspeção. Às vezes, é
importante que as especificações criticas
sejam cumpridas. Se o pessoal da
inspeção e produção tende a não respeitar
as especificações do projeto, porque elas
são difíceis de serem satisfeitas e por que
ele não entende as razões do rigor, este
pessoal igualmente não respeitará as
especificações criticas e não críticas.
É muito comum se ouvir é trabalho do
projetista estabelecer o que é necessário;
é trabalho do inspetor testar e aceitar os
procedimentos para descobrir se as
especificações foram cumpridas; deixe
cada lado fazer seu próprio trabalho. Isto é
errado! O projetista deve conhecer o
resultado das inspeções e as capacidades
da produção e usar estas informações para
alterar ou manter as especificações
originais. No ambiente competitivo e de
qualidade atual deve haver trabalho de
equipe. Resumindo:
1. todas as tolerâncias das
especificações devem ser cumpridas.
2. tolerância muito rigorosa aumenta o
custo final do produto.
3. tolerância pouco rigorosa também
aumenta o custo final do produto, por
causa de muitos refugos e
retrabalho.
4. tolerância muito rigorosa é difícil de
ser conseguida; requer pessoal de
operação treinado, instrumentos
calibrados, equipamentos ajustados,
matérias primas constantes e
processos de produção mais
complexos.
5. as tolerâncias podem ser diferentes;
instrumentos críticos requerem
tolerâncias mais rigorosas,
instrumentos não críticos podem ter
tolerâncias menos rigorosas.
6. as tolerâncias devem ser coerentes
entre si; instrumentos de mesma
Instrumentos de Medição
127
malha de medição devem ter
tolerâncias de mesma ordem de
grandeza.
7. a tolerância final do malha não será
melhor que a maior tolerância de
algum instrumento, durante todo o
tempo.
8. as tolerâncias devem ser
estabelecidas de comum acordo e
envolvendo o pessoal de projeto,
produção e inspeção.
9. deve haver controle estatístico do
processo para avaliar as tolerâncias,
mantendo-as, aumentando-as ou
diminuindo-as em função dos
resultados obtidos.
5. Erros da Medição
5.1. Introdução
É impossível fazer uma medição sem
erro ou incerteza. Na realidade, o que se
procura é manter os erros dentro de limites
toleráveis e estimar seus valores com
exatidão aceitável. Cada medição é
influenciada por muitas incertezas, que se
combinam para produzir resultados
espalhados. As incertezas da medição
nunca podem ser completamente
eliminadas, pois o valor verdadeiro para
qualquer quantidade é desconhecido.
Porém, o valor provável do erro da
medição pode ser avaliado. É possível
definir os limites dentro dos quais o valor
verdadeiro de uma quantidade medida se
situa em um dado nível de probabilidade.
O erro é a diferença algébrica entre a
indicação e o valor verdadeiro
convencional. O valor verdadeiro é o valor
da variável medida sem erro, ideal. Erro é
a quantidade que deve ser subtraída
algebricamente da indicação para dar o
valor ideal.
Se A é um valor exato e a o valor
aproximado medido, então o erro é o
desvio do valor aproximado do exato.
Matematicamente,
e = A - a

Sob o ponto de vista matemático, o erro
pode ser positivo ou negativo. Um erro
positivo denota que a medição é maior que
o valor ideal. O valor ideal é obtido
subtraindo-se este valor do indicado. Um
erro negativo denota que a medição do
instrumento é menor que o valor ideal. O
valor ideal é obtido somando-se este valor
ao indicado.
Por exemplo, o comprimento de (9,0 + 0,2 -
0,1) mm significa que o valor verdadeiro de
9,0 mm possui um erro para mais de 0,2
mm e um erro para menos de 0,1 mm.
Assim, o comprimento deve estar entre 8,9
e 9,2 mm. Neste caso os erros são
assimétricos. Na maioria dos casos os
erros são simétricos de modo que o valor
medido é dado por

(A ± e) = a.
5.2. Tipos de Erros
Os erros da medição e do instrumento
podem ser classificados sob vários
critérios, como expressão matemática,
resposta no tempo, responsabilidade,
causa e previsibilidade. É possível haver
grande superposição de erros. Por
exemplo, um erro pode ser
simultaneamente estático, sistemático,
previsível, intrínseco ao instrumento e
devido ao ajuste de zero.
Quanto à expressão matemática, os
erros podem ser classificados como
1. absolutos
2. relativos
Quanto ao tempo, os erros podem ser
1. dinâmicos
2. estáticos
Quanto à origem, os erros estáticos
podem ser classificados como
1. grosseiros
2. sistemáticos
3. aleatórios
Instrumentos de Medição
128














Fig. 4.30 - Erros sistemático, aleatório e espúrio


Os erros sistemáticos podem ser
divididos em
1. intrínsecos ao instrumento
2. influência
3. modificação
Os erros intrínsecos podem ser
determinados
indeterminados
Por sua vez, os erros do instrumento determinados
podem ser:
zero
largura de faixa ou ganho
angularidade
quantização
Os erros indeterminados poder ser
devidos a
uso e desgaste
atrito
inércia
Os erros de influência podem ter origem:
mecânica
elétrica
física
química
5.3. Erro Absoluto e Relativo
Erro absoluto
Erro absoluto é simplesmente o desvio
da medição, tomado na mesma unidade de
engenharia da medição. No exemplo de
9,0 ± 0,1 mm, o erro absoluto é de 0,1 mm.
O erro absoluto não é uma característica
conveniente da medição. Por exemplo, o
erro absoluto de 1 mm pode ser muito
pequeno ou muito grande, relação ao
comprimento medido.
Por exemplo,
1 mm de erro em 100 mm vale 1%
1 mm de erro em 10 mm vale 10%
1 mm de erro em 1 mm vale 100%
Erro relativo
A qualidade de uma medição é melhor
caracterizada pelo erro relativo, tomado
como

% 100
a
e
e
r
× =
onde
e
r
é o erro relativo,
e é o erro absoluto
a é o valor da grandeza medida
O erro relativo é adimensional e
geralmente expresso em percentagem.
A precisão entre ±1% e ±10% é
geralmente suficiente para a maioria das
aplicações residenciais e até industriais;
em aplicações científicas tem-se ±0,01 a ±
0,1%.
O erro absoluto pode assumir valores
negativos e positivos, diferente do valor
absoluto do erro, que assume apenas
valores positivos.
5.4. Erro Dinâmico e Estático
Erro dinâmico
Erro dinâmico é aquele que depende do
tempo. Quando uma medição altera seu
valor significativamente durante a medição,
ela pode ter erros dinâmicos.
O erro dinâmico mais comum é devido
ao tempo de resposta ou tempo
característico do instrumento, quando há
atrasos na variável medida. O erro
dinâmico pode desaparecer naturalmente
com o transcorrer do tempo ou quando as
condições de operação se igualarem às
condições especificadas para uso.
Por exemplo, quando se faz a medição
de temperatura sem esperar que o sensor
atinja a temperatura medida, há erro
dinâmico que desaparece quando a
temperatura do sensor for igual a
temperatura do processo que se quer
medir. Se a temperatura leva 3 minutos
para atingir o valor final medido, qualquer
medição antes deste tempo apresentará
erro dinâmico. Se a temperatura estiver
Exatidão
Precisão
Espúrio
Instrumentos de Medição
129
subindo, todas as medições antes de 3
minutos serão menores que a medida.
Quando se faz a medição de um
instrumento eletrônico, sem esperar que
ele se aqueça e se estabilize, tem-se
também um erro de medição que
desaparecerá quando houver transcorrido
o tempo de aquecimento do instrumento.
O instrumento pode apresentar erro de
calibração a longo prazo, devido ao
envelhecimento dos componentes. Tais
erros dinâmicos são chamados também de
desvios (drift). Porem, neste caso, os
tempos envolvidos são muito longos, como
meses ou anos.
O erro dinâmico pode ser eliminado,
conhecendo-se os tempos de resposta do
instrumento, constante de tempo da
variável medida e condições previstas para
entrada em regime permanente do
instrumento medidor. Esse tipo de erro,
que pode ser grosseiro e facilmente
evitável, pode ser considerado como um
erro do operador.
Uma questão associada com o erro
dinâmico é o atraso de bulbos e poços de
temperatura e selos de pressão.
Teoricamente, um bulbo e um poço de
temperatura apenas introduzem atraso na
medição da temperatura. Se a temperatura
fosse constante, depois do tempo de
atraso, a temperatura com o bulbo e o
poço seria igual à temperatura sem bulbo e
poço. Como há uma variabilidade natural
da temperatura constante, na prática a
colocação de bulbo e poço introduzem erro
de medição. A questão é análoga com a
medição de pressão e o selo. Na prática, o
selo de pressão introduz um erro de
medição. Como regra geral, tudo que é
colocado na malha de medição introduz
uma parcela do erro final.
Erro Estático
Erro estático é aquele que independe do
tempo. Quando uma medição não altera
seu valor substancialmente durante a
medição, ela está sujeita apenas aos erros
estáticos.
Os erros estáticos são de três tipos
diferentes:
1. erros grosseiros
2. erros sistemáticos
3. erros aleatórios
5.5. Erro Grosseiro
O erro grosseiro é também chamado de
acidental, espúrio, do operador, de
confusão, de lapso, freak ou outlier. A
medição com um erro grosseiro é aquela
que difere muito de todas as outras do
conjunto de medições.
Muitas medições requerem julgamentos
pessoais. Exemplos incluem a estimativa
da posição do ponteiro entre duas divisões
da escala, a cor de uma solução no final de
uma analise química ou o nível de um
liquido em uma coluna liquida.
Julgamentos deste tipo estão sujeitos a
erros uni direcionais e sistemáticos. Por
exemplo, um operador pode ler o ponteiro
consistentemente alto; outro pode ser lento
em acionar um cronômetro e um terceiro
pode ser menos sensível às mudanças de
cores. Defeitos físicos são geralmente
fontes de erros pessoais determinados.
Uma fonte universal de erro pessoal é o
preconceito. A maioria das pessoas,
independente de sua honestidade e
competência, tem uma tendência natural
de estimar as leituras da escala na direção
que aumenta a precisão em um conjunto
de resultados. Quando se tem uma noção
preconcebida do valor verdadeiro da
medição, subconsciente mente o operador
faz os resultado cair próximo deste valor.
A polarização é outra fonte de erro
pessoal que varia consideravelmente de
pessoa para pessoa. A polarização mais
comum encontrada na estimativa da
posição de um ponteiro em uma escala
envolve uma preferência para os dígitos 0
e 5. Também prevalente é o preconceito
de favorecer pequenos dígitos sobre
grandes e números pares sobre os
ímpares.
A vantagem dos instrumentos digitais
sobre os analógicos é que sua leitura
independe de julgamentos, eliminando-se
a polarização. Porém, todo indicador digital
apresenta erro de quantizacao, devido à
sua natureza discreta.
A maioria dos erros pessoais pode ser
minimizada pelo cuidado e auto-disciplina.
É um bom hábito verificar
sistematicamente as leituras do
instrumento, os fatores e os cálculos.
A maioria dos erros grosseiros é
pessoal e é causada pela falta de atenção,
Instrumentos de Medição
130
preguiça ou incompetência. Os erros
grosseiros podem ser aleatórios mas
ocorrem raramente e por isso eles não são
considerados como erros indeterminados.
Fontes de erros grosseiros incluem: erros
aritméticos, transposição de números em
dados de registro, leitura de uma escala ao
contrário, troca de sinal e uso de uma
escala errada. A maioria dos erros
grosseiros afeta apenas uma medição.
Outros, como o uso de uma escala errada,
afetam todo o conjunto das medições
replicadas.
Erros grosseiros podem também ser
provocados pela interrupção momentânea
da alimentação dos instrumentos.
O erro grosseiro causado pelo operador
é devido a enganos humanos, tais como
1. leitura sem cuidado,
2. anotação equivocada,
3. aplicação errada de fator de
correção,
4. engano de fator de escala e de
multiplicação,
5. extrapolação ou interpolação
injustificada,
6. arredondamento mal feito e
7. erros de computação.
Alguns erros de operador podem ser
sistemáticos e previsíveis, quando
provocados por vicio ou procedimento
errado do mesmo operador. Maus hábitos
podem provocar erros sistemáticos. A
solução é colocar mais de uma pessoa
para fazer as medições. Por exemplo, o
erro de paralaxe da leitura é devido à
postura errada do observador frente a
escala do instrumento.
É um erro grosseiro confundir números
e errar a posição do marcador decimal. É
catastrófico ler, por exemplo, 270 graus em
vez de 27,0 graus no mapa de vôo de um
avião (já houve um acidente de aviação, no
norte do Brasil, onde, segundo o laudo da
companhia aérea, o comandante cometeu
esse erro grosseiro).
Alguns técnicos acham que fazer 10
medições da mesma grandeza, nas
mesmas condições, com o mesmo
instrumento e lidas pela mesma pessoa é
inútil, pois todos os valores vão ser iguais.
Elas desconhecem a variabilidade da
constante. Ou seja, na natureza até as
constantes variam levemente em torno do
valor constante. Em tabelas de calibração,
é freqüente encontrar números inventados
e repetidos, sem que o instrumentista
tenha feito realmente as medições. A rotina
pode levar o operador a não fazer
efetivamente as leituras e a inventá-las,
pois o processo está normal e os valores
esperados já são conhecidos.
Os erros grosseiros normalmente se
referem a uma única medição, que deve
ser desprezada, quando identificada. Ele é
imprevisível e não adianta ser tratado
estatisticamente.
O erro grosseiro ou de operação pode
ser evitado através de
1. treinamento,
2. maior atenção,
3. menor cansaço,
4. maior motivação e
5. melhoria nos procedimentos.
5.6. Erro Sistemático
Erro sistemático é também chamado de
consistente, fixo, determinável, previsível,
avaliável e de polarização (bias). As
características do erro sistemático são as
seguintes:
1. se mantém constante, em valor
absoluto e sinal quando se fazem
várias medições do mesmo valor de
uma da variável, sob as mesmas
condições,
2. varia de acordo com uma lei
definida quando as condições
variam,
3. é devido aos efeitos quantificáveis
que afetam a todas as medições
4. é devido a uma causa constante,
5. é mensurável
6. pode ser eliminado pela calibração.
Os erros sistemáticos podem ser
constantes ou dependentes do valor da
variável medida. O erro determinado
constante independe do valor da
quantidade medida. Os erros constantes
se tornam mais sérios quando o valor da
quantidade medida diminui, pois o erro
relativo fica maior. O erro proporcional
aumenta ou diminui na proporção do valor
da quantidade medida. Uma causa comum
de erros proporcionais é a presença de
contaminantes na amostra.
Os erros sistemáticos causam a média
de um conjunto de medições se afastar do
valor verdadeiro aceitável. O erros
Instrumentos de Medição
131
sistemáticos afetam a exatidão dos
resultados. Os erros sistemáticos podem
ser devidos
1. aos instrumentos,
2. às condições de modificação e
3. às condições de interferência do
ambiente.
Sob o ponto de vista estatístico, a
distribuição dos erros aleatórios é
retangular, onde o erro é constante em
toda a faixa de medição.
Erro Inerente ao Instrumento
Os erros sistemáticos inerentes ao
instrumento podem ser determinados ou
indeterminados. Os erros sistemáticos do
instrumento determinados são devidos
principalmente à calibração. Como estão
relacionados à calibração, eles podem se
referir aos pontos de zero, largura de faixa
e não-linearidades provocadas pela
angularidade dos mecanismos.
Os erros do instrumento indeterminados
são inerentes aos mecanismos de
medição, por causa de sua estrutura
mecânica, tais como os atritos dos
mancais e rolamentos dos eixos móveis, a
tensão irregular de molas, a redução ou
aumento da tensão devido ao manuseio
incorreto ou da aplicação de pressão
excessiva, desgaste pelo uso, resistência
de contato, atritos e folgas.
Os erros sistemáticos do instrumento
determinados e devidos à calibração
podem se referir a erro de
1. determinação,
2. hipótese
3. histórico
4. zero
5. largura de faixa
6. angularidade
7. quantização.
O erro de determinação resulta da
calibração incorreta do instrumento ou do
cálculo inadequado com os dados obtidos.
O erro de hipótese aparece quando se
espera que a medição siga uma
determinada relação característica
diferente da real.
O erro histórico são resultantes do uso,
do desgaste, do envelhecimento dos
materiais, de estragos, de má operação, de
atritos, de folgas nos mecanismos e nas
peças constituintes do instrumento.
Erro de largura de faixa (span)
O erro de largura de faixa (span) ou de
sensitividade do instrumento ocorre
quando a curva de resposta tem inclinação
diferente da ideal. Em outras palavras, o
instrumento está com erro associado ao
seu ganho ou sensitividade. O erro de
largura de faixa é eliminado através do
ajuste correspondente.
Instrumento que possui apenas erro de
largura de faixa possui precisão expressa
em percentagem do valor medido.


















Fig. 4.31 - Erro de largura de faixa (span)



Calibração
ideal
S
a
í
d
a


Vazão
±0,5% valor medido
0
25 50 75 100
25
50
75
100
100,5%
99,5%
Instrumentos de Medição
132









































Erro
MENSURAND
Valor verdadeiro
Valor verdadeiro
convencional
PADRÃO
Rastreabilidade
Calibração
INSTRUMENTO
Resolução
Repetitividade
Medição
Sistemático
Exatidão
Aleatório
Precisão
Incerteza
Fig. 4.32. Terminologia da medição
Reprodutibilidade
Instrumentos de Medição
133

Fig. 4.33. Classificação dos erros do instrumento



















Fig. 4.34. Erros de modificação e de influência


Indeterminados
Intrínsecos
(irreversíveis)
Influência
(reversíveis)
Determinados
Mecânicos
ERROS DO INSTRUMENTO
Tempo
Dinâmicos
Estáticos
Fonte
Sistemáticos
Aleatórios
Elétricos
Físicos
Químicos
Modificação
(compensados)
Zero
Largura de faixa
Angularidade
Quantificação
Uso
Desgaste
Atrito
Contato
Variáveis
Y, Z
Display Sensor
de X
Erros de
modificação
Sinal
Erros de
influência
Condicionamento
Sinal
Instrumentos de Medição
134
Erro de zero
O erro de zero ocorre quando a curva
de calibração não passa pela origem (0, 0).
O erro ou desvio de zero pode eliminado
ou reduzido pelo ajuste correspondente no
potenciômetro ou parafuso de zero. Há
instrumentos, como o ohmímetro, que
possui ajuste de zero para ser atuado
antes de cada medição. Outros
instrumentos possuem erro de zero gerado
pela variação da temperatura ambiente,
como instrumento digital eletrônico.
Instrumento que possui erro de zero
possui precisão expressa em percentagem
do fundo de escala.

















Fig. 4/35 - Erro de zero do instrumento


Erro de linearidade
Muitos instrumentos são projetados
para fornecer uma relação linear entre uma
entrada estática aplicada e valores
indicados da saída. A curva de calibração
estática tem a forma geral:
y a a x
L
= +
0 1
(1.7)

onde a curva y
L
(x) fornece um valor de
saída previsível baseado na relação linear
entre x e y. Porém, na vida real, o
comportamento linear verdadeiro só é
conseguido aproximadamente. Como
resultado, as especificações do
instrumento de medição usualmente
fornecem uma expressão para a
linearidade esperada da curva de
calibração estática para o instrumento. A
relação entre y
L
(x) e o valor medido y(x) é
uma medida do comportamento não linear
do sistema:

e
L
(x) = y(x) - y
L
(x)

onde eL(x) é o erro de linearidade que
aparece por causa do comportamento real
e não linear do sistema. Para um sistema
que é teoricamente linear, a expressão de
uma possível não linearidade é
especificada em termos do erro máximo
esperado de linearidade:
%( )
[ ( )]
e
e x
r
L max
L max
o
= ×100 (9)
A não linearidade é o desvio da
resposta real de uma reta ideal.
Linearidade só existe uma, mas há várias
não-linearidades. Em instrumentos
mecânicos a balanço de movimentos, tem-
se o erro de angularidade, que é um
afastamento da linearidade devido aos
ângulos retos não estarem retos.
Erro de quantização
O erro de quantização se refere a leitura
digital e resulta do fato de tornar discreto o
valor de saída da medida. O melhor modo
de entender o erro de quantização,
inerente a todo instrumento digital que
sempre possui uma incerteza de ±n dígitos
em sua leitura é o erro da idade de uma
pessoa. Assim que uma criança nasce, sua
idade é expressa em dias. A idade
expressa em dias tem erro em horas. No
primeiro ano, a idade passa a ser expressa
em meses. A idade expressa em meses
em erro de quantização de semanas ou
dias. Depois de uns 4 ou 5 anos, a idade
da criança passa a ser expressa em anos
e o erro de quantização passa a ser de
meses. No dia do seu aniversário, a
pessoa tem idade exata em anos, meses e
dias. Logo depois do aniversário, por
exemplo de 40 anos, a pessoa tem 40
anos. Um mês depois do aniversário, a
idade continua de 40 anos, mas o erro de
quantização é de um mês. Um mês antes
de fazer 41 anos, a pessoa ainda tem 40
anos, mas o erro da idade já é de 11
meses. Então, a idade da pessoa sempre
tem um erro, pois sua expressão é
discreta; aumentando de 1 em 1 ano,
passando de 40 para 41 anos.
Calibração
ideal
S
a
í
d
a


Vazão
±0,5% fundo escala
0
25 50 75 100
25
50
75
100
Instrumentos de Medição
135
Os erros sistemáticos intrínsecos do
instrumento podem ser eliminados ou
diminuídos principalmente através da
1. calibração
2. seleção criteriosa do instrumento
3. aplicação de fatores de correção.
Erro de Influência
Os erros sistemáticos de influência ou
interferência são causados pelos efeitos
externos ao instrumento, tais como as
variações ambientais de temperatura,
pressão barométrica e umidade. Os erros
de influência são reversíveis e podem ser
de natureza mecânica, elétrica, física e
química.
Os erros mecânicos são devidos à
posição, inclinação, vibração, choque e
ação da gravidade.
Os erros elétricos são devidos às
variações da voltagem e freqüência da
alimentação. As medições elétricas sofrem
influência dos ruídos e do acoplamento
eletromagnético de campos.
Também o instrumento pneumático
pode apresentar erros quando a pressão
do ar de alimentação fica fora dos limites
especificados. Sujeiras, umidade e óleo no
ar de alimentação também podem
provocar erros nos instrumentos
pneumáticos.
Os efeitos físicos são notados pela
dilatação térmica e da alteração das
propriedades do material.
Os efeitos químicos influem na
alteração da composição química,
potencial eletroquímico, no pH.
O sistema de medição também pode
introduzir erro na medição, por causa do
modelo, da configuração e da absorção da
potência. Por exemplo, na medição da
temperatura de um gás de exaustão de
uma máquina,
1. a temperatura do gás pode ser não
uniforme, produzindo erro por causa
da posição do sensor,
2. a introdução do sensor, mesmo
pequeno, pode alterar o perfil da
velocidade da vazão,
3. o sensor pode absorver (RTD) ou
emitir (termopar) potência, alterando
a temperatura do gás.
Os efeitos da influência podem ser de
curta duração, observáveis durante uma
medição ou são demorados, sendo
observados durante todo o conjunto das
medições.
Os erros de influência podem ser
eliminados ou diminuídos pela colocação
de ar condicionado no ambiente, pela
selagem de componentes críticos, pelo uso
de reguladores de alimentação, pelo uso
de blindagens elétricas e aterramento dos
circuitos.
Erro de Modificação
A diferença conceitual entre o erro de
interferência e o de modificação, é que a
interferência ocorre no instrumento de
medição e o de modificação ocorre na
variável sendo medida.
O erro sistemático de modificação é
devido à influência de parâmetros externos
que estão associados a variável sob
medição. Por exemplo, a pressão exercida
por uma coluna de liquido em um tanque
depende da altura, da densidade do liquido
e da aceleração da gravidade. Quando se
mede o nível do liquido no tanque através
da medição da pressão diferencial, o erro
devido a variação da densidade do liquido
é um erro de modificação. Outro exemplo,
é na medição de temperatura através de
termopar. A milivoltagem gerada pelo
termopar depende da diferença de
temperatura da medição e da junta de
referência. As variações na temperatura da
junta de referência provocam erros na
medição. Finalmente, a medição da vazão
volumétrica de gases é modificada pela
pressão estática e temperatura.
O modo de eliminar os erros de
modificação é fazer a compensação da
medição. Compensar uma medição é
medir continuamente a variável que
provoca modificação na variável medida e
eliminar seu efeito, através de computação
matemática. No exemplo da medição de
nível com pressão diferencial, mede-se
também a densidade variável do liquido e
divide-se este sinal pelo sinal
correspondente ao da pressão diferencial.
Na medição de temperatura por termopar,
a temperatura da junta de referência é
continuamente medida e o sinal
correspondente é somado ao sinal da junta
de medição. Na medição de vazão
compensada de gases, medem-se os
sinais proporcionais à vazão, pressão e
temperatura. Os sinais são computados de
Instrumentos de Medição
136
modo que as modificações da vazão
volumétrica provocadas pela pressão e
temperatura são canceladas.
Erro Causado Pelo Sensor
O elemento sensor do instrumento pode
também causar erros na medição. Por
exemplo, a introdução do poço termal
causa turbulência na vazão, a colocação
de um bulbo de temperatura absorve
energia do processo, a colocação da placa
de orifício produz uma perda de carga na
linha, a colocação de um amperímetro
introduz uma resistência parasita no
circuito elétrico.
Erro Causado Pelo Instrumento
O próprio instrumento de medição pode
introduzir erro na medição. Por exemplo, o
amperímetro que é inserido no circuito
elétrico para medir a corrente que circula
pode modificar a corrente medida. Ou seja,
a corrente que circula no circuito sem o
amperímetro é diferente da corrente do
circuito com o amperímetro. A resistência
interna no amperímetro modificou a
corrente do circuito. Esse erro é devido ao
casamento das impedâncias do circuito e
do amperímetro. O amperímetro deve ter
uma impedância igual a zero. Amperímetro
com resistência interna zero não modifica a
corrente medida. Analogamente, a
impedância do voltímetro pode alterar a
voltagem a ser medida. A impedância ideal
do voltímetro é infinita. Voltímetro com
impedância infinita não introduz erro na
medição da voltagem. Nestas aplicações,
diz-se que o instrumento de medição
carregou o circuito; o instrumento de
medição é uma carga adicional ao circuito.
5.7. Erro Aleatório
Os erros aleatórios são devidos à
probabilidade e chance. Eles são
imprevisíveis e aparecem por causas
irregulares e probabilísticas. Eles são
diferentes em medições repetidas do
mesmo valor de uma quantidade medida,
sob as mesmas condições.
Os erros aleatórios fazem as medições
se espalharem mais ou menos e
simetricamente em torno do valor médio.
Os erros aleatórios afetam a precisão das
medições.
Há muitas fontes deste tipo de erro, mas
nenhuma delas pode ser positivamente
identificada ou medida, porque muitas
delas são pequenas e não podem ser
detectadas individualmente. O efeito
acumulado dos erros indeterminados
individuais, porém, faz os dados de um
conjunto de medições replicadas flutuarem
aleatoriamente em torno da média do
conjunto. As causas dos erros aleatórios
são devidas a
1. variabilidade natural da constante,
2. erros intrínsecos ao instrumento
dependentes da qualidade dos
circuitos e mecanismos.
3. erros irregulares devidos à histerese,
banda morta, atrito.
4. Os erros intrínsecos indeterminados
relacionados com o desgaste, o uso,
o atrito e a resistência de contato.
5. erros de influência que aparecem de
uma variação rápida de uma variável
de influência.
Repetitividade do instrumentoo
A habilidade de um sistema de medição
indicar o mesmo valor sob aplicação
repetida e independente da mesma
entrada é chamada de repetitividade do
instrumento. As expressões da
repetitividade são baseadas em testes
múltiplos de calibração (replicação) feitos
dentro de um dado laboratório em uma
unidade particular. A repetitividade se
baseia em uma medida estatística
chamada de desvio padrão, s
x
, que é a
variação da saída para uma dada entrada
fixa.

100
r
s 2
) e %(
o
x
max R
× =
Instrumentos de Medição
137
A repetitividade do instrumento reflete
somente o erro encontrado sob condições
controladas de calibração. Ela não inclui os
erros adicionais incluídos durante a
medição devidos a variação na variável
medida ou devidos ao procedimento.
Reprodutibilidade
A reprodutibilidade, quando reportada
na especificação de um instrumento, se
refere aos resultados de testes de
repetitividade separados. A
reprodutibilidade se baseia em múltiplos
testes de repetitividade (replicação) feitos
em diferentes laboratórios em um único
instrumento. A repetitividade se refere a
um único ponto; a reprodutibilidade é a
repetitividade em todos os pontos da faixa
de calibração.
Erro de histerese
O erro de histerese se refere à diferença
entre uma medição seqüencial crescente e
uma decrescente. O erro de histerese é
dado por

e
h
= y
crescente
- y
decrescente


A histerese é especificada usualmente
para um sistema de medição em termos do
erro máximo de histerese como uma
percentagem do fundo de escala da saída:

100
r
)] x ( e [
) e %(
o
max h
max h
× =

A histerese ocorre quando a saída de
um sistema de medição depende do valor
prévio indicado pelo sistema. Tal
dependência pode ser provocada por
alguma limitação realística do sistema,
como atrito e amortecimento viscoso em
partes móveis ou carga residual em
componentes elétricos. Alguma histerese é
normal em algum sistema e afeta a
precisão do sistema.
Banda morta
O erro de banda morta é aquele
provocado quando se altera a variável
medida e a indicação do instrumento se
mantém constante. Banda morta é a faixa
de variação da entrada que não produz
nenhum efeito observável na saída do
instrumento. A banda morta é produzida
por atrito, backlash ou histerese.
Backlash é máxima distância ou ângulo
que qualquer peça de um sistema
mecânico pode ser movida em uma
direção sem aplicação de força ou
movimento apreciável para uma próxima
peça em uma seqüência mecânica.
Toda medição possui um erro. Quando
são tomados todos os cuidados para
eliminar os erros de operação e de
calibração, restam os erros aleatórios. Os
erros aleatórios não podem ser eliminados,
mas estatisticamente conhecidos. O seu
tratamento é feito por métodos estatísticos,
fazendo-se muitas medições, verificando a
distribuição e a freqüência da ocorrência.
Sob o ponto de vista estatístico, a
distribuição dos erros aleatórios é normal
ou gaussiana, onde a maioria dos erros é
de erros pequenos e a minoria de erros é
de erros grandes.
Se o objetivo do sistema é ter medições
repetitivas e não necessariamente exatas,
é importante apenas reduzir o erro
aleatório; não se importando muito com o
erro de sistemático. Ou seja, há sistemas
onde o que importa é a repetitividade e a
precisão, sendo suficiente a medição
inexata.
Inversamente, se o interesse do sistema
é ter o valor exato da medição, pois se
quer os valores absolutos, como na
compra e venda de produtos, além da
repetitividade se requer a exatidão.
5.8. Erro Resultante Final
O erro na medição não está somente no
instrumento de indicação (display) mas em
todos os componentes da malha de
medição, como sensor, elemento
condicionador de sinal, linearizador e filtro.
Uma questão importante levantada é: qual
o erro total do sistema ou da malha?
A precisão da medição pode assim ser
definida como a soma dos erros
sistemáticos e aleatórios de cada
componente do sistema ou da malha. Isto
é uma hipótese pessimista, onde se admite
que todos os erros são na mesma direção
e se acumulam.
Alguém mais otimista poderia
estabelecer a precisão final do sistema
como igual à pior precisão entre os
Instrumentos de Medição
138
componentes. Ou seja, considera-se
somente a precisão do pior instrumento e
desprezam-se as outras precisões
melhores. Pode-se ainda determinar a
precisão final como a média ponderada
das precisões individuais.
Pode-se obter vários resultados válidos
da soma de duas incertezas iguais a ±1 e
±1.
1. O pessimista pode obter a incerteza
final de +2 ou -2, assumindo que as
incertezas se somam no mesmo
sentido.
2. O otimista pode achar que as
incertezas se anulam e a resultalnte
mais provável é igual a 0.
3. O realista intermediário faz a soma
conservativa:

1 1 14
2 2
+ = ± ,

que é um valor intermediário entre 0 e ±2.
Embora os três resultados sejam muito
diferentes, pode-se explicar e justificar
qualquer um deles. Não há uma regra
única ou recomendação de como proceder.
É uma questão de bom senso. Quando
realmente se quer saber a precisão real do
sistema, deve-se usar um padrão que dê
diretamente o valor verdadeiro e comparar
com a leitura final obtida. Mede-se a
incerteza total em vez de calculá-la,
seguindo a máxima de metrologia: não
imagine quando puder calcular e não
calcule quando puder medir.
Para se ter uma idéia qualitativa de
como pequenos erros produzem uma
incerteza total, imagine uma situação em
que quatro erros pequenos se combinam
para dar um erro total. Seja cada erro com
uma igual probabilidade de ocorrer e que
cada um pode fazer o resultado final ser
maior ou menor por um valor ±U.
A tabela mostra todas os modos
possíveis dos quatro erros serem
combinados para dar o desvio indicado da
média. Somente uma combinação de erros
dá o desvio de +4U, quatro combinação
dão um desvio de +2U e seis combinações
dão um desvio de 0U. Os erros negativos
tem a mesma combinação. Esta relação de
1:4:6:4:1 é uma medida da probabilidade
de um desvio de cada valor. Quando se
aumenta o número de medições, pode-se
esperar uma distribuição de freqüência
como a mostrada na figura. A ordenada no
gráfico é a freqüência relativa de
ocorrência de cinco combinações
possíveis.
A tabela mostra a distribuição teórica
para dez incertezas de igual probabilidade.
Novamente se verifica que a ocorrência
mais freqüente é a de desvio zero da
média. A ocorrência menos freqüente, de
máximo desvio 10U ocorre somente em
uma vez em 500 medições.
Cada componente de um sistema ou
passo de um procedimento de contribui
com algum erro na medição. Visto como
um sistema dinâmico, uma medição não
pode ser mais confiável que o componente
ou passo menos confiável. Um sistema de
medição não pode ser mais preciso que o
componente menos preciso. O
conhecimento das fontes de erros
dominantes e desprezíveis de um sistema
é muito importante e o conhecimento de
sua fonte, aleatória ou sistemática, é que
define o tratamento a ser dados às
medições. O conhecimento do modo que
os erros se propagam são importantes no
uso e projeto de instrumentos e
procedimentos.


Tab. 1. Combinações Possíveis de 4 Incertezas
Iguais
Combinações das
incertezas
Tamanho
Erros
Número
combinaçõe
s
Freqüência
Relativa
+U1+U2+U3+U4 4U 1 1/16=0,0625
-U1+U2+U3+U4
+U1-U2+U3+U4
+U1+U2-U3+U4 +2U 4 4/16=0,250
+U1+U2+U3-U4
-U1-U2+U3+U4
+U1+U2-U3-U4
+U1-U2+U3-U4
-U1+U2-U3+U4 0 6 6/16=0,375
-U1+U2+U3-U4
+U1-U2-U3+U4
+U1-U2-U3-U4
-U1+U2-U3-U4
-U1-U2+U3-U4 -2U 4 4/16=0,250
-U1-U2-U3+U4
-U1-U2-U3-U4 -4U 1 1/46=0,0625


A propagação do erro aleatório pode ser
rastreada matematicamente usando-se
uma medida da precisão, como o desvio
padrão e desenvolvendo as equações que
descrevem a dinâmica do sistema. O erro
sistemático pode também ser rastreado
Instrumentos de Medição
139
através dos dados das calibrações
anteriores e dados do catálogo do
instrumento.
6. Incerteza na Medição
6.1. Conceito
Todas as medições são contaminadas
por erros imperfeitamente conhecidos, de
modo que a significância associada com o
resultado de uma medição deve considerar
esta incerteza
Incerteza é um parâmetro, associado
com o resultado de uma medição, que
caracteriza a dispersão dos valores que
podem razoavelmente ser atribuídos à
quantidade medida.
Há problemas associados com esta
definição de incerteza de medição, que é
tomada do Vocabulário de Metrologia da
ISO. O que é a dispersão de se o valor
verdadeiro não pode ser conhecido? Ela
também implica que incerteza é somente
relevante se várias medições são feitas e
ela falha - por não mencionar valor
verdadeiro para invocar o conceito de
rastreabilidade. Uma definição mais
prática, mais usada porque ela mais
exatamente satisfaz as necessidades da
metrologia industrial e não é consistente
com a anterior, é a seguinte:
Incerteza é o resultado da avaliação
pretendida em caracterizando a faixa
dentro da qual o valor verdadeiro de uma
quantidade medida é estimado cair,
geralmente com uma dada confiança.
Incerteza padrão é o desvio padrão
estimado
Incerteza padrão combinada é o
resultado da combinação dos
componentes da incerteza padrão.
Incerteza estendida é Obtida pela
multiplicação da incerteza padrão
combinada por um fator de cobertura.
É uma exigência para todos os
laboratórios credenciados de calibração
que os resultados reportados em um
certificado sejam acompanhados de uma
declaração descrevendo a incerteza
associada com estes resultados. É
também exigência para os laboratórios de
testes, sob as seguintes circunstâncias:
1. onde isto é requerido pelo cliente
2. onde isto é requerido pela
especificação do teste
3. onde a incerteza é relevante para
validar ou aplicar o resultado, e.g.,
onde a incerteza afeta a
conformidade a uma especificação
ou limite.
Os laboratórios credenciados devem ter
uma política definida cobrindo a provisão
de estimativas das incertezas das
calibrações ou testes feitos. O laboratório
deve usar procedimentos documentados
para a estimativa, tratamento e relatório da
incerteza.
Os laboratórios devem consultar seu
corpo de credenciamento para qualquer
orientação específica que possa estar
disponível para a calibração ou teste.
Os meios pelos quais os laboratórios
credenciados devem tratar as incertezas
da medições são definidos em detalhe na
ISO Guide: Guide to the Expression of
Uncertainty in Measurement. A
terminologia usada aqui é consistente com
a do Guide.
6.2. Princípios Gerais
O objetivo de uma medição é
determinar o valor de uma quantidade
específica sujeita à medida (mesurando).
Para laboratórios de calibração, isto pode
ser qualquer parâmetro da medição dentro
de campos reconhecidos da medição -
comprimento, massa, tempo, pressão,
corrente elétrica. Quando aplicado a teste,
o termo genérico mesurando pode cobrir
muitas quantidades diferentes, eg, a
resistência de um material, a concentração
de uma solução, o nível de emissão de
ruído ou radiação eletromagnética, a
quantidade de microorganismos. Uma
medição começa com uma especificação
apropriada da quantidade medida, o
método genérico de medição e o
procedimento específico detalhado da
medição.
Nenhuma medição ou teste é perfeito e
as imperfeições fazem aparecer erro de
medição no resultado. Como
conseqüência, o resultado de uma
medição é somente uma aproximação do
valor da quantidade medida e é somente
completa quando acompanhado por uma
expressão da incerteza desta
Instrumentos de Medição
140
aproximação. Realmente, por causa da
incerteza da medição, o valor verdadeiro
nunca pode ser conhecido. No limite, por
causa de alguns efeitos, ele pode mesmo
não existir.
Também deve ser notado que o artigo
indefinido um, em vez do artigo definido o,
deve ser usado em conjunto com valor
verdadeiro por que pode haver mais de
um valor consistente com a definição de
uma quantidade particular.
A incerteza da medição compreende,
em geral, muitos componentes. Alguns
podem ser calculados da distribuição
estatística dos resultados de uma série de
medições e pode ser caracterizados por
desvios padrão experimentais. Os outros
componentes, que podem também ser
caracterizados por desvios padrão, são
calculados das distribuições de
probabilidade assumidas baseadas na
experiência ou em outra informação.
Erros aleatórios aparecem das
variações aleatórias das observações. A
cada momento que a medição é tomada
sob as mesmas condições, efeitos
aleatórios de várias fontes afetam o valor
medido. Uma série de medições produz
um espalhamento em torno de um valor
médio. Um número de fontes pode
contribuir para a variabilidade cada vez
que uma medição é tomada e sua
influência pode estar continuamente
mudando. Elas não podem ser eliminadas
mas a incerteza devido a seus efeitos pode
ser reduzida, aumentando o número de
observações e aplicando análise
estatística.
Erros sistemáticos aparecem de efeitos
sistemáticos, ie um efeito no resultado de
uma quantiade que não está incluído na
especificação da quantiade medida mas
que influencia no resultado. Estes erros
peramecem constantes quando uma
medição é repetida sob as mesmas
condições por isso eles não revelados
pelas medições repetidas. Seu efeito é
introduzir um deslocamento entre o valor
da medição e o valor médio determinado
experimentalmente. Eles não podem ser
eliminados mas podem ser reduzidos, por
exemplo, fazendo correções para o
tamanho conhecido de um erro devido a
um efeito sistematico reconhecido.
O Guide adotou o enfoque de agrupar
os componentes da incerteza em duas
categorias baseadas em seus métodos de
avaliação, Tipo A e Tipo B. Esta
classificação de métodos de avaliação, em
vez dos componentes em si, evita certas
ambiguidades. Por exemplo, um
componente aleatório de incerteza em uma
medição pode se tornar um componente
sistemático em outra medição que tem
como sua entrada o resultado da primeira
medição. Assim, a incerteza total cotada
em um certificado de calibração de um
instrumento incluirá o componente devido
aos efeitos aleatórios, mas quando este
valor total é subsequentemente usado
como a contribuição na avaliação da
incerteza em um teste usando este
instrumento, a contribuição deve ser
tomada como sistemática.
Avaliação do Tipo A é feita pelo cálculo
de uma série de leituras repetidas, usando
métodos estatísticos.
Avaliação do Tipo B é feita por meios
diferentes dos usados no método B. Por
exemplo, por julgamento baseado em:
1. Dados de certificados de calibração,
que possibilita correções a serem
feitas e incertezas do Tipo B a
serem atribuídas.
2. Dados de medições anteriores, por
exemplo, gráficos históricos podem
ser construídos e podem fornecer
informação útil acerca das
mudanças dinâmicas.
3. Experiência com ou o conhecimento
geral do comportamento e
propriedades de materiais e
equipamentos iguais.
4. Valores aceitos de constantes
associadas com materiais e
quantidades.
5. Especificações dos fabricantes.
6. Todas as outras informações
relevantes.
Incertezas individuais são avaliadas
pelo método apropriado e cada uma é
expressa como um desvio padrão e é
referida a uma incerteza padrão.
As incertezas padrão individuais são
combinadas para produzir um valor total de
incerteza, conhecido como incerteza
padrão combinada.
Uma incerteza expandida é usualmente
requerida para satisfazer as necessidades
Instrumentos de Medição
141
da maioria das aplicações, especialmente
onde se envolve segurança. É
recomendado fornecer um intervalo maior
acerca do resultado de uma medição
quando a incerteza padrão com,
consequentemente, uma maior
probabilidade do que envolve o valor
verdadeiro convencional da quantidade
medida. Ela é obtida multiplicando-se a
incerteza padrão combinada por um fator
de cobertura, k. A escolha do fator é
baseada no nível de confiança requerido.
6.3. Fontes de Incerteza
Há várias fontes possíveis de incerteza.
Como elas dependem da disciplina técnica
envolvida, não é possível dar
recomendações detalhadas aqui. Porém,
os seguintes pontos gerais se aplicam a
muitas áreas de calibração e teste:
1. Definição incompleta do teste - a
exigência pode não ser claramente
descrita, eg, a temperatura de um teste
pode ser dada como temperatura
ambiente.
2. Realização imperfeita do procedimento
de teste, mesmo quando as condições
de teste estão claramente definidas
pode não ser possível produzir as
condições teóricas, na prática, devido
as imperfeições inevitáveis nos
materiais ou sistemas usados.
3. Amostragem - a amostra pode não ser
totalmente representativa. Em algumas
disciplinas, como teste microbiológico,
pode ser muito difícil obter uma amostra
representativa.
4. Conhecimento inadequado dos efeitos
das condições ambientais no processo
da medição ou medição imperfeita das
condições ambientais.
5. Erro pessoal de polarização na leitura
de instrumentos analógicos.
6. Resolução ou limite de discriminação do
instrumento ou erros na graduação da
escala.
7. Valores atribuídos aos padrões da
medição (de trabalho e de referência) e
materiais de referência certificada.
8. Alterações nas características ou
desempenho de um instrumento de
medição desde a sua última calibração.
9. Valores de constantes e outros
parâmetros usadas na avaliação dos
dados.
10. Aproximações e hipóteses incorporadas
no método e procedimento da medição.
11. Variações nas leituras repetidas feitas
sob condições parecidas mas não
idênticas - tais como efeitos aleatórios
podem ser causados, por exemplo,
ruído elétrico em instrumentos de
medição, flutuações rápidas no
ambiente local, eg, temperatura,
umidade e pressão do ar, variabilidade
no desempenho do operador que faz o
teste.
Estas fontes não são necessariamente
independentes e, em adição, efeitos
sistemáticos não reconhecidos podem
existir que não podem ser levados em
conta mas contribuem para o erro. É por
esta razão que os laboratórios
credenciados encorajam - e muitas vezes
insistem em - participação em
comparações interlaboratoriais, auditorias
de medição e cross checking interno de
resultados por diferentes meios.
6.4. Estimativa das Incertezas
A incerteza total de uma medição é uma
combinação de um número de incertezas
componentes. Mesmo uma única leitura do
instrumento pode ser influenciada por
vários fatores. A consideração cuidadosa
de cada medição envolvida na calibração
ou teste é necessária para identificar e
listar todos os fatores que contribuem para
a incerteza total. Este é um passo muito
importante e requer um bom entendimento
do equipamento de medição, os princípios
e práticas da calibração ou teste e a
influência do ambiente
O próximo passo é quantificar as
incertezas componentes por meios
apropriados. Uma quantificação
aproximada inicial pode ser valiosa em
possibilitar que alguns componentes sejam
reconhecidos como desprezíveis e não
necessitam de uma avaliação mais
rigorosa. Em muitos casos, uma definição
prática de desprezível pode ser um
componente que não é maior do que um
quinto do tamanho do maior componente.
Alguns componentes podem ser
quantificados pelo cálculo do desvio
Instrumentos de Medição
142
padrão de um conjunto de medições
repetidas (Tipo A) como detalhado no
Guide. A quantificação de outros
componentes pode requerer o julgamento,
usando toda informação relevante na
variabilidade possível de cada fator (Tipo
B). Para estimativas do Tipo B, o conjunto
de informações pode incluir alguns ou
todos os fatores listados no parágrafo 2.
Cálculos subsequentes se tornam mais
simples se, quando possível, todos os
componentes são expressos do mesmo
modo, e.g., como percentagem, ou ppm ou
mesma unidade de engenharia usada para
o resultado reportado.
6.4. Incerteza Padrão
A incerteza padrão é definida como um
desvio padrão. O potencial para erros em
um estágio posterior da avaliação pode ser
minimizado expressando todas as
incertezas componentes como um desvio
padrão. Isto podoe requer ajuste de alguns
valores da incerteza, de modo que os
obtidos dos certificados de calibração e
outras fontes, que muitas vezes tem sido
expressos com um maior nível de
confiança, envolvendo múltiplo do desvio
padrão (2 ou 3).
6.5. Incerteza Padrão Combinada
As incertezas componentes devem ser
combinadas para produzir uma incerteza
total usando o procedimento estabelecido
no Guide. Em muitos casos, isto reduz a
tomar a raiz quadrada da soma dos
quadrados das incertezas padrão
componentes (método da raiz da soma dos
quadrados). Porém, alguns componentes
podem ser interdependentes e podem, por
exemplo, se cancelarem entre si ou se
reforçarem entre si. Em muitos casos, isto
pode ser facilmente visto e os
componentes interdependentes podem ser
somados algebricamente para dar um valor
final. Porém, em casos mais complexos,
podem-se usar métodos matemáticos mais
complexos para tias componentes
correlatos, como derivadas parciais
6.6. Incerteza Expandida
Em muitos casos, é necessário cotar
uma incerteza expandida e a incerteza
padrão combinada portanto necessita ser
multiplicada por um fator de cobertura
apropriado. Isto deve refletir o nível de
confiança requerido e, em termos estritos,
será ditado pelos detalhes da distribuição
de probabilidade caracterizado pelo
resultado da medição e sua incerteza
padrão combinada. Porém, as
computações extensivas requerida para
combinar as distribuições de probabilidade
são raramente justificadas pelo tamanho e
confiabilidade da informação disponível.
Em muitos casos, uma aproximação é
aceitável, ou seja, a distribuição da
probabilidade pode ser assumida como
normal e que um valor de 2 para o fator de
cobertura define um intervalo tendo um
nível de confiança de aproximadamente
95%, ou, para aplicações mais críticas, que
um valor de 3 define um intervalo tendo um
nível de confiança de aproximadamente
99%.
Exceções a estes casos precisam ser
tratados em uma base individual e devem
ser caracterizados por um ou ambos dos
seguintes:
1. A ausência de um número significativo
de incertezas componentes tendo
distribuições de probabilidade bem
comportadas, tais como, normal ou
retangular.
2. Inclusão de uma incerteza componente
dominante. Isto pode causar a incerteza
expandida ser maior do se as
contribuições individuais da incerteza
fossem somadas aritmeticamente e é
claramente uma situação pessimista.
Deve também ser notado que se erros
de incertezas do Tipo A em um sistema de
medição são comparáveis aos do Tipo B, a
incerteza expandida pode ser uma
subestimativa, a não ser que um grande
número de leituras repetidas26 MAI 97 tenha
sido feito. Nestas circunstâncias, um fator
de cobertura k
p
deve ser obtido de uma
distribuição t, baseada nos graus de
liberdade efetivo, ν
ef
, da incerteza padrão
combinada.

Apostila\Metrologia 43MedErro.doc 24 SET 98 (Substitui 26 MAI 97)

143
5
Confirmação Metrológica
Objetivos de Ensino
1. Conceituar calibração e ajuste. Apresentar a cadeia de calibração e
rastreabilidade dos diferentes padrões.
2. Conceituar padrões físicos e de receita, primários, secundários e de trabalho.
3. Apresentar os cuidados de monitoração dos instrumentos de medição e teste.
4. Conceituar e diferenciar os vários tipos de normas. Apresentar a ABNT,
INMETRO, NIST e Código de Defesa do Consumidor.
5. Apresentar um caminho típico para obter a certificação da ISO 9000, através de
projeto, implantação e comprovação metrológica.




1. Confirmação Metrológica
1.1. Conceito
Comprovação ou confirmação
metrológica é o conjunto de operações
necessárias para assegurar que um dado
instrumento de medição esteja em
condições de conformidade com os
requisitos para o uso pretendido (ISO 10
012-1, 1993). O termo confirmação
metrológica é um termo criado
recentemente e inclui, entre outras
atividades,
calibração
ajuste
manutenção
lacração
marcação com etiqueta.
Na prática, a maioria das pessoas ainda
chama esta atividade de calibração-
aferição, quando deveria chamar de
calibração-ajuste.
1.2. Necessidade da confirmação
A exatidão de qualquer medição é uma
comparação da conformidade desta
medição com o padrão. A manutenção de
padrões e a calibração de equipamentos
de teste é um processo muito caro, mas o
desempenho de todo os sistema depende
diretamente da exatidão de cada
componente do sistema. Embora o
equipamento de medição muito exato seja
caro, baratear este equipamento significa
piorar o seu desempenho e diminuir sua
precisão.
Os principais motivos para justificar a
calibração de um instrumento são:
1. garantia de que a medição do
instrumento é exata,
2. melhorar e manter a qualidade do
sistema que depende da medição do
instrumento,
3. atendimento de exigências legais ou
de contratos comerciais,
principalmente quando estão
envolvidas a compra e venda de
produtos através da medição.

Confirmação Metrológica
144
1.3. Terminologia
Há algumas confusões clássicas de
terminologia, como exatidão e precisão,
calibração, aferição e ajuste. Embora já
exista uma portaria do Inmetro, n
o
29, de
10 MAR 95 (Vocabulário Internacional de
Termos Fundamentais e Gerais de
Metrologia), ainda há resistência para se
usar a terminologia recomendada.
Para alguns, calibrar e aferir possuem o
mesmo significado para a operação de
verificar um atributo de um sensor ou
instrumento e ajustar é a operação que
além disso, inclui a atuação no instrumento
para adequá-lo a uma determinada
condição. Para outros, aferir é a operação
de verificar um atributo de um sensor ou
instrumento e calibrar é a de fazer ajuste
no instrumento. Há ainda quem não admite
a aferição, mas apenas calibração para
verificar atributo e ajuste para atuar no
instrumento. A confusão é previsível, pois
o primeiro passo da calibração de um
instrumento é a sua aferição.
Para estar de conformidade com a
portaria do Inmetro, para o autor e no
presente trabalho, calibrar e aferir
possuem o mesmo significado. Para o
autor calibrar é uma operação de
verificação. Durante a calibração, quando
necessário, faz-se o ajuste, que é uma
atuação no instrumento para torná-lo
exato. O primeiro passo do ajuste, porém
é a calibração, para verificar o status de
chegada do instrumento. No presente
trabalho se evitará usar o termo aferição,
usando em seu lugar o termo calibração.
Também neste trabalho, calibrar pode
incluir ou não a operação de ajuste.
Calibração e ajuste estão associadas
com a função dos instrumentos ou
dispositivos. Podem ser ajustados
instrumentos que tenham pontos de
atuação, como transmissor, indicador,
registrador, totalizador, válvula de controle.
Os ajustes são feitos em potenciômetros
ou parafusos disponíveis nos instrumentos.
Podem ser calibrados instrumentos e
sensores que não possuem dispositivo de
ajuste, mas que tem um atributo inerente à
sua função. Podem ser calibrados
elementos sensores e instrumentos
medidores de vazão com fator K.
Para eliminar estas ambigüidades, cada
usuário deve definir, por escrito, em seus
procedimentos e comunicações os termos
e seus significados e como estamos no
Brasil, devemos seguir a portaria do
Inmetro.
1.4. Calibração e Ajuste
Calibração
Calibração é a operação de verificar o
valor de um atributo de um sensor ou de
um instrumento. Não é disponível nenhum
dispositivo de ajuste e por isso só há
verificação.
Como no ajuste, na calibração há os
seguintes passos:
1. Aplicação de sinal na entrada do
dispositivo, com leitura deste sinal
por um padrão rastreado.
2. Leitura do sinal de saída do
dispositivo através de outro padrão
rastreado.
3. Comparação do sinal lido com o valor
teórico, dentro dos limites de
incerteza consistentes.
4. Se os valores estiverem dentro dos
limites estabelecidos, o dispositivo
está adequado ao uso.
5. Se os valores estiverem fora dos
limites, o dispositivo é descartado,
degradado ou o seu atributo é
modificado em todas suas
aplicações.
Sensores, como termopar e resistência
detectora de temperatura, são calibrados.
Calibrar um termopar é verificar se a
voltagem gerada por ele corresponde aos
valores teóricos, dados por tabelas ou por
curvas, quando se gera uma temperatura
conhecida e medida por um termômetro
padrão. Se os valores estiverem de
conformidade com os teóricos, o termopar
pode ser usado; se estiverem diferentes, o
termopar deve ser jogado fora e
substituído ou degradado de sua função,
por exemplo, passando de termopar
padrão para termopar de medição de
processo..
Calibrar medidores de vazão que
possuem o fator K, como a turbina e o
medidor magnético, consiste na
determinação deste fator K. As calibrações
posteriores são necessárias para confirmar
o valor deste fator K. Quando o valor se
Confirmação Metrológica
145
alterar, o novo fator K deve ser
considerado na medição, alterando-se
escalas ou usando-se fatores de correção.
Ajuste
Ajuste é a operação que tem como
objetivo levar o instrumento de medição a
uma condição de desempenho e ausência
de erros sistemáticos adequada ao seu
uso
(ISO 10 012-1). De um modo mais
específico para o instrumentista, antes do
ajuste, faz-se a calibração, que é a
comparação do instrumento de exatidão
conhecida com outro padrão ou
instrumento de ordem superior, para
detectar, correlacionar, reportar ou eliminar
por ajuste ou reparo, qualquer variação na
exatidão do item sob calibração.
A calibração só é confiável e tem
significado quando for feita:
1. baseando-se em medições
replicadas e usando-se as medições
como base de decisão,
2. conforme procedimentos claros e
objetivos, escritos pelo executante,
3. em ambiente com temperatura,
pressão e umidade conhecido e
quando necessário, controlado
4. por pessoas especialistas com
habilidade e experiência com o
procedimento,
5. estabelecendo-se um período de
validade, após o qual ela deve ser
refeita.
6. documentando os registros.
Calibração pode também consistir na
determinação da relação saída/entrada do
sistema de medição. Esta relação pode
ser, na prática, a determinação da escala
de um indicador ou da saída de um
transmissor. Se a resposta saída/entrada
de um sistema é uma reta, a calibração de
um único ponto é suficiente e portanto,
apenas um ponto conhecido do padrão é
empregado. Se a resposta do sistema é
não-linear, deve ser empregado um
conjunto de entradas conhecidas do
padrão para a calibração das saídas
correspondentes do sistema.
Uma curva de calibração forma a lógica
pela qual uma saída indicada do sistema
de medição pode ser interpretada durante
uma medição real. Por exemplo, a curva
de calibração é a base para fixar a escala
do display de saída em um sistema de
medição. Além disso, uma curva de
calibração pode ser usada como parte para
desenvolver uma relação funcional, uma
equação conhecida como uma correlação
entre a entrada e saída. Uma correlação
tem a forma y = f(x) e é determinada
aplicando relação física e técnicas de
adequação de curva para a curva de
calibração. A correlação pode então ser
usada em medições posteriores para
determinar o valor de entrada
desconhecido baseado no valor da saída,
o valor indicado pelo sistema de medição.
Calibrar um transmissor eletrônico de
pressão consiste em:
1. Aplicar uma pressão conhecida na
sua entrada, indicada por um padrão
de pressão rastreado.
2. Medir a saída de corrente, indicada
por um amperímetro padrão
rastreado.
3. Comparar os valores lidos com os
estabelecidos pelo procedimento,
conforme a imprecisão do
instrumento.
4. Caso os valores estejam dentro dos
limites estabelecidos, a calibração
terminou (alguém diz que isto é uma
aferição! Realmente é apenas uma
verificação e não houve ajuste, mas
para o autor, está se fazendo a
calibração do transmissor).
5. Caso os valores estejam fora,
ajustam-se os potenciômetros de
zero e de span.
6. Paralelamente, faz-se um relatório de
não conformidade, quando o
transmissor pertencer ao sistema de
qualidade.
7. Repetem-se os passos 1 e 2, acima.
8. Caso os valores estejam dentro, a
calibração terminou.
9. Caso os valores estejam fora, o
instrumento está com problema, pois
ele não permite ser calibrado, o
instrumento é encaminhado para a
manutenção.
10. Depois da manutenção o
instrumento deve ser novamente
calibrado e se necessário, ajustado.
A calibração pode incluir a inspeção
visual do instrumento, pesquisa de defeitos
funcionais explícitos e óbvios e testes
operacionais.
Confirmação Metrológica
146
A manutenção não é calibração, mas
depois de qualquer manutenção de
instrumento, ele deve ser calibrado. É
recomendável que a pessoa que faz a
manutenção seja diferente da que faz a
calibração.
Calibrar um indicador de pressão é
quase a mesma coisa. Gera-se o sinal de
entrada do indicador, indicando-o com um
manômetro padrão e ajusta-se a posição
do ponteiro na escala. Se necessário,
ajusta-se a posição do ponteiro. Quando o
instrumento não permite a calibração,
envia-o para a manutenção.



Fig. 5.1. Ajuste de transmissor (Rosemount)

Às vezes, em vez de se aplicar a
grandeza medida pelo instrumento, pode-
se simular o sinal de saída do sensor, por
conveniência de tempo e custo. Por
exemplo, na calibração de um transmissor
de temperatura a termopar, em vez de se
simular a temperatura, que é uma
operação demorada, molhada e cara,
simula-se uma milivoltagem na entrada do
transmissor, conforme valores listados na
literatura técnica (curvas ou tabelas de
tensão x temperatura), facilmente obtida de
um gerador de tensão.
1.5. Tipos de calibração
Toda calibração deve incluir: padrão
rastreado, procedimento escrito, ambiente
conhecido, operador treinado, registro
documentado e ter um período de
validade. Tem-se o preconceito errado de
considerar que apenas as calibrações
relacionadas com ISO 9000 requerem
estas exigências. Toda calibração deve ter
estes parâmetros. Um instrumento pode
ser calibrado, por questão de
1. custódia, para garantir que a compra
e venda de produtos feita através de
tubulações com medidores em linha
estejam dentro dos limites
contratuais,
2. segurança, para assegurar que os
instrumentos estejam indicando
dentro dos valores seguros do
processo,
3. balanço de materiais, para verificar
rendimentos de processos,
equipamentos, reagentes e
catalizadores,
4. ecologia, para garantir que as
análises dos efluentes estejam
dentro dos valores ecologicamente
corretos
5. legal, para satisfazer exigências
legais e de normas técnicas,
6. ISO 9000, para atender suas
exigências relacionadas com a
incerteza, continuidade operacional e
qualidade do produto final.
Calibração programada e emergencial
Calibração programada é aquela feita
para atender um cronograma já
estabelecido, em função da disponibilidade
dos instrumentos e dos períodos ótimos,
dentro dos quais os instrumentos
permanecem dentro de seu desempenho
nominal. Geralmente os períodos são
estabelecidos em semanas.
A norma ISO 9000 requer um programa
de calibração dos instrumentos de
medição, teste e inspeção.
Calibração de emergência é aquela feita
para atender um chamado extraordinário
do pessoal do processo que considera o
instrumento descalibrado. Uma das coisas
difíceis da vida, em todos os aspectos, é a
de relacionar causa e efeito. Geralmente,
para o pessoal de processo, quando há um
problema com o produto final, a primeira
vítima é o instrumento. A maioria dos
instrumentos que vão para a calibração
está dentro dos limites da calibração e não
precisava de calibração.
Calibração estática ou dinâmica
O tipo mais comum de calibração é
conhecido como calibração estática. Neste
procedimento, um valor conhecido é
entrada para o sistema sob calibração e a
saída do sistema é registrada. O termo
Confirmação Metrológica
147
estático se refere ao procedimento da
calibração em que os valores das variáveis
envolvidos permanecem constantes
durante uma medição, isto é, eles não
variam com o tempo. Nas calibrações
estáticas, somente as magnitudes da
entrada conhecida e a saída medida são
importantes.
Os pontos medidos de uma curva típica
de calibração estática descrevem a relação
entrada-saída para um sistema de
medição. Uma curva polinomial acomoda
os dados que podem ser
convenientemente usados para descrever
esta relação.
Em um sentido amplo, as variáveis
dinâmicas são dependentes do tempo,
tanto em magnitude como em freqüência.
A relação das magnitudes entrada-saída
entre um sinal de entrada dinâmico e um
sistema de medição depende da
dependência do tempo do sinal de entrada.
Quando variáveis dependentes do tempo
são medidas, faz-se uma calibração
dinâmica além da calibração estática. Uma
calibração dinâmica determina a relação
entre uma entrada de comportamento
dinâmico conhecido e a saída do sistema
de medição. Usualmente tais calibrações
envolvem um sinal senoidal ou um degrau
como o sinal de entrada conhecido.
Calibração própria ou externa
A calibração pode ser feita pelo próprio
usuário, principalmente dos instrumentos
de níveis mais baixos, envolvendo os
instrumentos de medição, padrões de
trabalho e padrões de laboratório,
A calibração também pode ser feita por
externamente, preferivelmente por
laboratório credenciado da Rede Brasileira
de Calibração, pelo fabricante do
instrumento ou por laboratório nacional ou
internacional que tenha padrões
rastreados.
Justifica-se calibrar nas próprias
oficinas do usuário:
1. instrumentos comuns, de precisão
industrial, que requerem um padrão
disponível na própria planta,
2. quando a quantidade de
instrumentos é grande, justificando
economicamente ter um laboratório
para a calibração periódica destes
instrumentos.
Justifica-se enviar um instrumento para
ser calibrado externamente quando
1. o usuário possui poucos instrumentos
2. quando a calibração requer padrões
com precisão muito elevada e
portanto de altíssimo custo
3. para comparação interlaboratorial
4. por exigência legal.
Qualquer quer seja o local da
calibração, o responsável final pela
calibração é o usuário. Quando a
calibração é feita externamente, o usuário
deve ter um contrato escrito bem claro,
definindo o que o laboratório deve fazer. É
muito comum se enviar um instrumento
para ser calibrado e ajustado e o
laboratório fazer apenas a calibração. É
também muito freqüente o laboratório
reportar uma calibração de modo
incompreensível, sem informar o algoritmo
de cálculo da incerteza de calibração, o
método empregado, relatórios com
preenchimento com números com
algarismos significativos sem significado. O
único modo de evitar estes inconvenientes
é ter um contrato escrito claro e preciso,
falando explicitamente sobre esses
parâmetros.
Calibração seqüencial ou aleatória
Uma calibração seqüencial aplica uma
variação seguida no valor de entrada sobre
a faixa desejada de entrada. Isto é
realizado aumentando o valor de entrada
(crescente) ou diminuindo o valor de
entrada (decrescente) sobre toda a faixa
de entrada.
A calibração seqüencial é um
diagnóstico efetivo para identificar e
quantificar o erro de histerese em um
sistema de medição.
A calibração aleatória se aplica a
seqüências selecionadas aleatoriamente
de valores de uma entrada conhecida
sobre a faixa de calibração pretendida.
Como vantagens da calibração aleatória
estática tem-se:
1. tendência a minimizar o impacto da
interferência
2. quebra dos efeitos da histerese
3. diminuição dos erros de leitura
4. garantia que cada aplicação do valor
de entrada seja independente da
anterior
Confirmação Metrológica
148
5. redução do erro sistemático da
calibração
6. simulação mais parecida com a
situação real da medição
7. fornecimento de um diagnóstico para
delinear as características de erros
de linearidade, zero, span e
repetitividade.
Calibração a seco e molhada
A calibração seca ou a seco ou
calibração de artefato (Fluke) é uma
aferição que contorna o sensor do
instrumento, sem usar o padrão da variável
medida pelo instrumento. A calibração a
seco geralmente se restringe ao elemento
secundário e assume-se que o elemento
primário seja descrito com precisão por
relações empíricas desenvolvidas de
medidores eletrônica ou hidraulicamente
semelhantes. A calibração a seco é
efetivamente uma calibração do
transmissor eletrônico ou pneumático,
bypassando o seu elemento sensor.
A calibração seca é feita por
comparação usando relação e medição
embutidas no próprio instrumento sendo
calibrado. O instrumento microprocessado
aumenta a sua capacidade de operação e
simplifica o processo de calibração, pois
ele foi projetado para armazenar e usar
fatores de correção em programa para
compensar erros de ganho e de zero. Este
processo de armazenar constantes
baseando-se na comparação com padrões
externos foi então adaptado para a
calibração a seco. As correções feitas pelo
programa interno elimina a necessidade de
remover o instrumento para fazer ajustes
físicos, simplificando o processo de
calibração, que fica facilmente
automatizado.












Fig. 5.2. Calibração a seco de transmissor inteligente
Por exemplo, a calibração a seco de um
transmissor inteligente de pressão não
requer um padrão externo de pressão, mas
usa constantes internas armazenadas
durante a configuração e caracterização do
transmissor.
Em programa de qualidade de ISO
9000, a calibração a seco é tão válida e
confiável como a convencional, porém,
periodicamente deve ser feita a calibração
convencional para verificar o status do
sensor do instrumento, que é contornado
nas calibrações a seco. Por exemplo,
podem-se alternar duas ou três calibrações
a seco com uma calibração convencional.
Calibração molhada, por analogia à
calibração a seco, é a convencional,
usando padrões externos para calibrar o
instrumento. No caso da calibração do
transmissor de pressão, usa-se o padrão
de pressão na entrada do transmissor.
Nesta calibração, estão incluídos todos os
componentes do instrumento, inclusive o
elemento sensor


















Fig. 5.3. Conceito de calibração a seco (Fluke)


Confirmação Metrológica
149
1.6. Erros de calibração
Teoricamente, a calibração em si não
elimina os erros sistemáticos, mas
simplesmente reduz estes erros a valores
aceitáveis. Os erros de calibração incluem
aqueles erros elementares que entram no
sistema de medição durante o ato da
calibração. Os erros de calibração tendem
a entrar através de várias fontes, tais
como:
1. os erros sistemáticos do padrão
usado na calibração,
2. os erros associados ao ambiente,
3. os erros associados ao operador,
4. erros associados à variável medida,
5. erros associados ao instrumento
calibrado,
6. erros associados ao método de
calibração
Tab. 5.1. Fontes de Erro de Calibração

j Fonte de erro
1 Padrões envolvidos na rastreabilidade
2 Método da calibração
3 Ambiente onde se realiza a calibração
4 Operador que faz a calibração
5 Instrumento que está sendo calibrado
6 Quantidade física envolvida na calibração


Por exemplo, o padrão típico do
laboratório usado na calibração também é
aproximado. Assim, pode haver uma
diferença entre o valor do padrão usado e
o valor do padrão primário que ele
representa. Assim, aparece uma incerteza
no valor conhecido da entrada em que a
calibração é baseada. Além disso, pode
haver uma diferença entre o valor
fornecido pelo padrão e o valor realmente
sentido pelo sistema de medição. Qualquer
um destes efeitos será incorporado aos
dados de calibração. A Tab. 1 lista erros
elementares relacionados com a
calibração.
1.7. Calibração da Malha
Justificativa
Sempre que possível deve ser feita a
calibração da malha in situ (como regra) e
em caso de não conformidade, se faz a
calibração por instrumento (como
exceção). As vantagens de se fazer a
calibração da malha em vez do
instrumento isolado incluem:
1. gasta-se menos tempo pois uma
malha típica possui três
instrumentos,
2. a calibração é mais confiável, pois
não se tem o risco de descalibrar o
instrumento na sua retirada,
transporte e recolocação,
3. a calibração é mais exata, pois todos
os efeitos da instalação estão
considerados inerentemente,
4. tem-se a medição e não o cálculo da
incerteza, coerente com a
recomendação metrológica de não
imaginar quando puder calcular e
não calcular quando puder medir.
A principal desvantagem relacionada
com a calibração de malha é a
necessidade de se ter padrões que
possam ser usados na área industrial. Os
padrões devem ter classificação mecânica
compatível com a área, se interna ou
externa, para ter sua integridade
preservada. Se a área for classificada, os
padrões elétricos devem ter classificação
elétrica compatível, para que sua presença
não aumente o risco de explosão ou
incêndio do local. Quando não for
disponível padrão elétrico com
classificação elétrica compatível com a
área, deve-se garantir com meios positivos
que não há presença de gases flamáveis
no local e durante a calibração e para isso
deve-se conseguir uma permissão especial
(hot permission).
Realização da Calibração da Malha
A calibração da malha inclui:
1. Variação da variável medida ou
geração de sinal equivalente ao
gerado pelo sensor da variável no
local próximo da medição. As malhas
são calibradas em pontos definidos
nos procedimentos específicos,
normalmente nos pontos de 0%,
25%, 50%, 75% e 100% da faixa,
Confirmação Metrológica
150
com valore crescentes e
decrescentes.
2. Leitura e registro dos valores da
variável, na sala de controle. Registro
dos valores efetivamente lidos e
ajustes feitos no Relatório de
Calibração. No Relatório de
Calibração de cada instrumento já
devem estar listados os valores
limites aceitáveis, considerando-se a
tolerância exigida pelo processo e a
incerteza instalada calculada.
3. A malha é considerada conforme e
nenhum ajuste é feito, quando os
valores lidos estiverem dentro dos
limites estabelecidos e anotados nos
registros de calibração de cada
malha
4. Quando algum valor estiver fora dos
limites, a malha é considerada não
conforme, a operação deve ser
informada através do formulário
Relatório de Calibração, os
instrumentos são retirados da malha
e é feita a calibração de cada
instrumento isolado, na bancada da
oficina de instrumentação, conforme
procedimentos correspondentes.
Incerteza da calibração da malha
No formulário Registro de Calibração
deve ser informada a incerteza do
processo de calibração, que é dada pela
relação:

i i
p pj
j
n
=
=

2
1

onde
i
p
é a incerteza do processo de
calibração,
i
pj
é a incerteza dos padrões de
calibração, com j variando entre 1 e n.
Calibração do Elemento Sensor
Embora o elemento sensor faça parte
da malha de medição, por causa da
dificuldade de se simular a variável do
processo no campo, geralmente se simula
o sinal de saída do sensor, no local da
medição para se calibrar a malha e calibra-
se o elemento sensor na bancada ou o
substitui por um novo rastreado e
certificado. A decisão entre calibrar o
sensor existente ou substituí-lo por um
novo rastreado é uma decisão baseada na
relação custo/benefício.
Tipicamente, nos casos de termopares
e resistores detectores de temperatura,
deve-se fazer a substituição em vez de
calibração. No caso de placas de orifício,
deve-se fazer inspeção visual e física
periódica e apenas substituí-la quando
esta inspeção o indicar.
Calibração do Instrumento Isolado
As malhas que não puderem ser
calibradas inteiramente como um único
instrumento, devem ter seus instrumentos
componentes calibrados individualmente.
Também, quando a calibração da malha
indicar que ela está não conforme, os
instrumentos são retirados da malha e
levados para calibração individual,
conforme procedimentos específicos, que
estabelecem o executante, esclarecem a
disponibilidade da malha pela operação e a
substituição do instrumento. Depois de
calibrado o instrumento é armazenado na
oficina ou substitui o existente. Quando o
instrumento não pegar calibração, ele é
submetido à manutenção corretiva e
depois calibrado e todos estas operações
devem ser anotadas em sua Folha de
Cadastro.
1.8. Parâmetros da Calibração
Além dos aspectos comerciais
envolvidos e, às vezes, dos aspectos
legais, a calibração para ser válida e
confiável deve cuidas dos seguintes
aspectos:
1. medições replicadas
2. padrões rastreados
3. procedimento escrito
4. ambiente conhecido
5. pessoal treinado
6. registro documentado
7. período de validade administrado
Medições replicadas
Toda calibração deve ter várias
medições de cada ponto de calibração. Os
pontos de calibração preferidos são: 0%,
25, 50, 75 e 100%, com valores crescentes
e decrescentes da variável calibrada. A
repetição das medições tem a finalidade de
verificar linearidade, repetitividade e
histerese do instrumento. Por questão de
economia de tempo, é comum se fazer
Confirmação Metrológica
151
apenas uma medição ascendente e outra
descendente, fazendo-se apenas duas
medições de cada ponto.
Padrão rastreado
Toda calibração requer um padrão para
fornecer os valores verdadeiros
convencionais envolvidos. O padrão
fornece o valor confiável, fiduciário da
variável calibrada.
Padrão rastreado significa que ele foi
comparado com um outro padrão superior,
que garanta sua confiabilidade. Os
padrões de referência devem possuir
exatidão maior que a dos instrumentos ou
padrões sob calibração. Os padrões de
referência de ordem superior devem ser
rastreados aos padrões credenciados ou
nacionais ou derivados de constantes
físicas.
As normas e os laboratórios
recomendam números limites entre as
exatidões dos instrumentos calibrados e
dos padrões. Por exemplo, o NIST
recomenda a relação mínima de 4:1; o
INMETRO recomenda a relação 3:1 e as
normas militares falam de 10:1. Porém,
todos estes números são sugestões e não
são mandatórios. O risco aceitável
associado com a medição varia com cada
processo e em uma mesma planta, podem
se adotar relações de incertezas
diferentes. O estabelecimento da relação
se baseia em aspectos econômicos
(quanto maior a relação, maior o custo dos
padrões da escada metrológica) e técnicos
(quanto maior o número, menor a
interferência da incerteza do padrão na
incerteza do instrumento calibrado). O
resultado final desta escolha é um
compromisso entre os valores de aceitação
e de incerteza.
Os padrões de referência selecionados
através das especificações do fabricante
devem ser continuamente acompanhados
e monitorados para comprovar a
estabilidade e o desempenho, através de
calibrações sucessivas.
Procedimentos de Calibração
Devem ser escritos procedimentos de
calibração de instrumentos para eliminar
fontes de erros devidas às diferenças de
técnicas, condições do ambiente, escolha
dos padrões e dos acessórios e mudança
do técnico calibrador. Estes procedimentos
não são os manuais de calibração do
fabricante. Os procedimentos devem incluir
os aspectos técnicos destes manuais de
operação, porem devem ser mais
abrangentes.
Os procedimentos devem ser usados
pelo pessoal envolvido e responsáveis pela
calibração. Eles devem ser elaborados
com a participação ativa deste pessoal. Os
procedimentos devem garantir que:
1. pessoas diferentes obtenham o
mesmo resultado quando calibrando
instrumentos iguais ao mesmo
tempo,
2. a mesma pessoa obtenha o mesmo
resultado quando calibrando o
mesmo instrumento em épocas e
locais diferentes.
Os procedimentos devem ser escritos
numa linguagem simples, clara e acessível
e o seu conteúdo deve ter, no mínimo,
1. objetivo do procedimento
2. normas de referência e
recomendações do fabricante
3. lista dos padrões requeridos
4. lista dos instrumentos de teste,
fontes de alimentação, pontos de
teste e ligações
5. descrição do princípio de medição ou
teoria do método empregado
6. estabelecimento das condições
ambientais do local onde será feita a
calibração: temperatura, pressão,
umidade, posição, vibração,
blindagem a ruídos elétricos e
acústicos
7. instruções, passo a passo, da
calibração, envolvendo preparação,
ajustes, leituras, comparações e
correções
8. formulários para a coleta e anotação
dos dados, relatórios, tabelas e
certificados.
9. estabelecimento da próxima data de
calibração.
No Apêndice A há um procedimento
típico para a calibração de malha de
instrumento de processo.
Condições Ambientais
As condições ambientais de calibração
do instrumento devem ser as
recomendadas pelos procedimentos e
pelos fabricantes do instrumento e dos
Confirmação Metrológica
152
padrões envolvidos. A maioria dos
instrumentos de processo não requer
condições ambientais controladas. Isto é
tão verdade, que a tendência atual é fazer
a calibração dos instrumentos na área
industrial.
As condições envolvidas na calibração
não precisam ser controladas mas sempre
devem ser conhecidas, por causa de
eventuais fatores de correção para os
padrões usados.
Quando requerido, a área deve ser
limpa, sem vibração mecânica, sem
interferências eletrostáticas e
eletromagnéticas quando houver
envolvimento de equipamentos elétricos e
com a temperatura na faixa de 17 a 21
o
C
e umidade relativa entre 35 e 55%.
Intervalos de calibração
Os instrumentos de medição industriais
devem ser calibrados periodicamente por
instrumentos de teste de trabalho. Os
instrumentos de trabalho devem ser
calibrados periodicamente por padrões
secundários ou de transferência. Os
instrumentos de transferência secundária
devem ser calibrados com padrões
primários ou de referência.
Os períodos de cada calibração
dependem da qualidade do instrumento,
das condições ambientais, do treinamento
do pessoal envolvido, do tipo da indústria,
da idade dos instrumentos, da manutenção
corretiva dos instrumentos. Os períodos
não são imutáveis e nem fixos. Podem ser
alterados em função de:
1. recomendações do fabricante,
2. legislação vigente
3. freqüência de utilização (maior uso
implica em períodos mais curtos).
Uso incorreto requer recalibração
imediata.
4. severidade e agressão ambiental.
Maior agressividade do ambiente
implica em menor período de
calibração.
5. características de construção do
instrumento; instrumento mais frágil
requer calibrações mais freqüentes;
instrumentos com peças moveis
requerem calibrações mais
freqüentes.
6. precisão dos instrumentos em
relação à tolerância do produto ou da
medição; menor tolerância do
produto, calibração mais freqüente
dos instrumentos envolvidos.
7. posição na escada hierárquica de
rastreabilidade: geralmente
instrumentos mais próximos da base
da pirâmide (menos precisos, de
medição e de teste de oficina)
requerem calibrações mais
freqüentes que os do topo (mais
precisos, padrões primários).
8. criticidade e importância da medição
efetuada; maior a conseqüência do
erro, implica em menor intervalo de
segurança. Medição envolvendo
segurança, menor período de
calibração; medição envolvendo
vidas humanas, obrigação legal de
calibração, geralmente com períodos
definidos por lei.
Revisão dos intervalos de calibração
Um sistema eficiente de calibração deve
ter ferramentas que permitam a revisão
dos intervalos de calibração, com critérios
baseados em dados obtidos das
calibrações anteriores e que seja um
compromisso entre se ter menos trabalho
de calibração e menos não conformidades
por causa de instrumentos descalibrados.
O critério mostrado a seguir se baseia
no critério de Schumacher.
1. A cada calibração feita, o instrumento
é classificado em relação aos
resultados obtidos, conforme a
Tab.1:

Tab.5.2. Status do Instrumento

A
Avaria
Designa problema que
prejudica um ou mais
parâmetros ou funções do
instrumento.
C
Conform
e
Designa instrumento
encontrado conforme com sua
tolerância durante a
calibração.
F
Fora
Designa instrumento, apesar
de apresentar bom
funcionamento, encontrado
fora das tolerâncias de
calibração.

Confirmação Metrológica
153
Com base na situação encontrada de
conformidade nos ciclos anteriores, será
tomada uma das ações da Tab.5.2:
Para a aplicação do critério, deve ser
consultada a Tab. 5.3 e Tab. 5.4.

Tab.5.3. Ações a serem tomadas

E
Estender
Indica que o intervalo entre
calibrações deve ser
estendido.
D
Diminuir
Indica que o intervalo entre
calibrações deve ser
reduzido.
M
Máxima
Redução)
Indica redução do ciclo de
calibração ao seu intervalo
mínimo admissível.
P
Permanece
Não se altera o intervalo
anteriormente estabelecido



Tab. 5.4. Classificação do Instrumento

Ciclos
Anteriores
Condições no
Recebimento
A F C
CCC P D E
FCC P D P
ACC P D E
CF M M P
CA M M P
FC P M P
FF M M P
FA M M P
AC P D P
AF M M P
AA M M P


Tab. 5.5. Determinação do próximo ciclo

Ciclo
Atual
Novo Ciclo (Valores Em
Semanas)
D E P M
10 9 13 10 *
12 11 15 12 8
14 13 17 14 8
16 14 19 16 10
18 16 21 18 12
20 18 24 20 13
24 22 28 24 15
28 25 32 28 19
32 29 37 32 21
36 32 41 36 24
52 47 52 52 37

* Retirar Instrumento de Uso. Substituir


Registros documentados
A documentação registrada garante e
evidencia que os prazos de validade da
calibração estão sendo seguidos e que a
exatidão dos instrumentos está sendo
mantida.
As seguintes informações devem ser
facilmente disponíveis:
1. exatidão do instrumento
2. local de uso atual
3. intervalo de calibração, com data de
vencimento
4. procedimento da calibração
5. relatório da última calibração
6. histórico de manutenções e reparos
Todas as calibrações para serem
válidas devem ser devidamente
certificadas. Os certificados devem ser
arquivados e devem conter, no mínimo,
1. número de série do instrumento
correspondente
2. data de calibração
3. laboratório ou padrão rastreado
4. condições físicas nas quais foi feita
a calibração
5. descrição do padrão referido:
exatidão, tipo
6. desvios e fatores corretivos a
serem aplicados, quando as
condições da calibração forem
diferentes das condições padrão
7. quando feito em laboratório externo
(credenciado, nacional), descrição
Confirmação Metrológica
154
do procedimento e pessoal
envolvido
8. garantia que o padrão superior
estava confiável e rastreado,
através de certificado.
Deve haver um responsável pela
organização e atualização do arquivo. O
responsável do arquivo deve providenciar:
1. aviso de vencimento de prazo de
validade ao responsável do
instrumento
2. retirada do instrumento de
operação
3. encaminhamento do instrumento
para a calibração interna ou externa
4. recebimento do instrumento
calibrado
5. atualização das datas e dos
documentos
6. encaminhamento do instrumento
para o usuário responsável
7. colocação de etiquetas nos
instrumentos, com data da última
calibração, nome da pessoa
responsável pela calibração, data
da próxima calibração e
identificação do instrumento.
Sistema de Calibração
A implantação adequada de um sistema
de calibração de instrumentos requer as
seguintes providências:
1. listar individualmente todos os
instrumentos de medição, teste e
padrão da empresa, incluindo os do
processo, oficina, laboratórios,
armários do chefe.
2. estabelecer os padrões e
instrumentos mestres necessários
para a empresa, baseando-se em
fatores econômicos, técnicos,
segurança, produção e qualidade do
produto.
3. adquirir os padrões necessários e
justificados
4. prover local adequado para
armazenamento, guarda,
preservação e operação dos
instrumentos de teste e padrões.
5. se necessário, implantar laboratórios
de calibração das variáveis, como
temperatura, vazão, pressão,
voltagem e resistência elétrica.
6. pesquisar, conhecer e credenciar os
laboratórios externos para fins de
intercâmbio laboratorial e mútua
rastreabilidade. Há laboratórios de
usuários que são tecnicamente
aceitáveis, mesmo não tendo o
credenciamento legal do INMETRO
7. definir a escada de rastreabilidade,
separando os instrumentos que
podem ser calibrados internamente e
os que devem ser enviados para
laboratórios externos
8. elaborar cronogramas de tais
calibrações, acompanhando as datas
de vencimento
9. Elaborar procedimentos para
calibrações internas, para envio e
recebimento de instrumentos para
laboratórios externos
10. implantar arquivo para
documentação de todos os históricos
11. treinar o pessoal para as atividades
de operação, calibração,
armazenamento, manuseio e
preservação dos instrumentos e
padrões
12. elaborar plano de calibração.



Confirmação Metrológica
155


















































Fig. 5.4.- Diagrama de blocos da calibração de instrumento isolado


O

O
AJUSTE
MANUTENÇÃO
CALIBRAÇÃO
SIM
SIM
Comparar com valores
limites do Relatório
Aplicar sinais de entrada
Ler sinais de saída
Fazer ligações com padrões
conforme Procedimento ou MF
Comparar com limites do
Relatório de Calibração
Aplicar sinais de entrada
Ler sinais de saída
Fazer ajustes de zero, span e
outros aplicáveis conforme MF
Desfazer ligações
Etiquetar instrumento como
não adequado ao uso
Fazer manutenção corretiva
conforme procedimento
FIM
Fazer relatório de Não Conformidade
e distribui-lo para ações corretivas
Etiquetar instrumento calibrado
Proteger e lacrar pontos de
Arquivar Relatório de Calibração
Desfazer ligações com padrões
Anotar valores finais no
Relatório de Calibração
FIM
Arquivar Relatório de
Calibração
Etiquetar instrumento calibrado
Proteger e lacrar pontos de ajuste
Desfazer ligações com
padrões
FIM
DENTRO
DENTRO
Confirmação Metrológica
156
















































Fig. 5.5. - Diagrama de blocos da calibração de malha completa


NÃO
NÃO
CALIBRAÇÃO
E AJUSTE DOS
INSTRUMENTOS
CALIBRAÇÃO
DA MALHA
SIM
SIM
Anotar valores lidos na Ficha Calibração
Comparar com limites estabelecidos
Aplicar sinais na entrada da malha
Ler sinais da variável no display da
sala de controle
Comparar com tolerância do processo
Calcular incerteza da malha
combinada com a do sensor
Desfazer a malha e calibrar cada
instrumento individualmente
Malha não conforme para processo.
Fazer relatório de não conformidade
FIM
Malha não conforme para calibração
mas conforme para o processo
FIM
Arquivar Ficha de Calibração
Etiquetar malha calibrada
Desfazer ligações com padrões
FIM
DENTRO
MENOR
Fazer ligações com padrões
conforme Procedimento ou MF
Confirmação Metrológica
157
Calibração e manutenção
O objetivo da calibração é o de eliminar
os erros sistemáticos que aparecem ou
aumentam com o passar do tempo. O valor
esperado das várias medições replicadas
de um mesmo valor da variável medida
tende a se afastar do valor verdadeiro
convencional e por isso o instrumento deve
ser calibrado, periodicamente.
Também com o passar do tempo o
instrumento tende a piorar o seu
desempenho e apresentar uma incerteza
além dos limites estabelecidos para a
incerteza nominal. Neste caso o
instrumento requer manutenção. A
manutenção deve ser criteriosa e devem
ser tomados cuidados para que o
desempenho do instrumento não se
degrade, usando-se peças originais,
ferramentas adequadas, componentes de
qualidade industrial. Componentes para a
indústria de entretenimento, são mais
baratos, mais fáceis de serem encontrados
porém são menos confiáveis e com menor
vida útil.
A manutenção deve ser feita quando o
instrumento estiver visivelmente
danificado, não operante ou com
desempenho deteriorado. Esta
manutenção é chamada de corretiva.
A manutenção pode ser feita de
periodicamente, de modo programado. Na
data marcada, faz-se a manutenção do
instrumento. Nem sempre é possível se
programar a data para a manutenção
preventiva para qualquer tipo de
instrumento. A manutenção preventiva só
deve ser feita em instrumentos que tenham
causa constante, ou seja, instrumentos que
tenham peças que se desgastam de modo
previsível. Tipicamente se faz manutenção
preventiva em instrumento com peças
móveis que se desgastam de modo
previsível e estimado.
Depois da manutenção corretiva ou
preventiva do instrumento, ele deve ser
calibrado e se necessário, ajustado.
Durante a calibração do instrumento
pode-se verificar a necessidade de fazer
manutenção no instrumento. Tipicamente
tem-se:
1. Calibração do instrumento, onde e
quando se verifica se o desempenho
do instrumento está dentro do
esperado.
2. Quando o desempenho estiver fora
dos limites predeterminados, fazem-
se os ajustes, levando o instrumento
para o seu desempenho nominal.
Quando os ajustes no instrumento
forem incapazes de levar o instrumento
para o seu desempenho nominal, é
necessário fazer manutenção, trocando
peças e componentes.
3. Padrões
Quando um sistema de medição é
calibrado, ele é comparado com algum
padrão cujo valor é presumivelmente
conhecido. Este padrão pode ser outro
instrumento, um objeto tendo um atributo
físico bem conhecido a ser usado como
comparação, uma solução com
propriedade química bem conhecida ou
uma técnica conhecida e bem aceita para
produzir um valor confiável. Um padrão é a
base de todas as medições, em um
laboratório ou oficina, em uma indústria,
em um país e no mundo.
Uma dimensão (em um sentido mais
amplo) define uma variável física que é
usada para descrever algum aspecto de
um sistema físico. O valor fundamental
associado com qualquer dimensão é dada
por uma unidade. Uma unidade define uma
medida de uma dimensão. Por exemplo,
massa, comprimento e tempo descrevem
dimensões básicas, com as quais
associamos as unidades de kilograma,
metro e segundo, respectivamente. Um
padrão primário define o valor de uma
unidade, fornecendo os meios para
descrever a unidade com um único número
que pode entendido por todos e em todo
lugar. Assim, o padrão primário atribui um
único valor a uma unidade por definição.
Como tal, ele deve definir a unidade
exatamente.
Padrões primários são necessários, por
que o valor atribuído a uma é arbitrário. Se
um metro é o comprimento do braço do rei
ou a distância que a luz percorre em uma
fração de segundo depende somente de
como alguém quis definí-lo. Para evitar
confusão, as unidades são definidos por
acordo internacional através do uso de
padrões primários. Depois de consensado,
Confirmação Metrológica
158
o padrão primário forma a definição exata
da unidade até que ela seja mudada por
algum outro acordo posterior, que tenha
vantagens sobre a definição anterior.
As principais características procuradas
em um padrão são:
1. disponibilidade global
2. confiabilidade continuada
3. estabilidade temporal e espacial
com mínima sensibilidade às fontes
externas do ambiente.
No Brasil, os padrões primários
(referência) e secundários (transferência)
são mantidos no INMETRO.
Periodicamente, o INMETRO também
calibra seus próprios padrões de
transferência.
3.1. Padrões físicos e de receita
A medição requer a definição de
unidades, estabelecimento de padrões de
medição, formação de escalas e
comparação de quantidades medidas com
as escalas. O padrão fornece a ordem de
comparação e a base de toda calibração.
Foram estabelecidos os conceitos de
padrão material e de receita.
Padrão físico ou material é baseado em
uma entidade física, como uma quantidade
de metal ou um comprimento de uma barra
de metal. O padrão material é físico e deve
ser armazenado em condições de
temperatura, pressão e umidade
especificas e ser rastreado
periodicamente. Exemplo de padrão físico
é kilograma físico, padrão de massa no SI,
que consiste em um cilindro de platina-
irídio, com 39 mm de altura e de diâmetro
e que recentemente engordou, passando
para 1,000 030 kg. Este padrão está
preservado e guardo em Sèvres, França e
uma réplica dele está guardada no
INMETRO, em Xerém, RJ, Brasil.
Padrão de receita pode ser reproduzido
em qualquer laboratório do mundo,
baseando-se em fenômenos físicos,
procedimentos e métodos específicos. O
padrão de receita substitui o padrão físico
por causa da maior facilidade de
reprodução e de disponibilidade.
Antes de 1960 a unidade de
comprimento era um padrão físico,
consistindo de uma barra de Pt-Ir guardada
em Sèvres.
Em 1960, a unidade de comprimento foi
redefinida em termos de padrão de receita
óptico, como sendo equivalente a 1 650
763,73 vezes o comprimento de onda da
luz laranja-vermelha de uma lâmpada de
Kr
86
.
Em 1983, o metro foi redefinido em
função do trajeto percorrido por uma onda
eletromagnética plana, no vácuo, durante
1/299 792 458 de segundo.
Atualmente, a única unidade definida
como padrão material é o kilograma; todas
as outras unidades são fixadas por meio
de definições de receitas. O tempo foi a
última unidade a ser substituída, tendo sido
domínio dos astrônomos por milhares de
anos.
3.1. Rastreabilidade
O valor conhecido da entrada para um
sistema de medição durante uma
calibração é o padrão na qual a calibração
se baseia. Obviamente, o padrão primário
real pode ser impraticável como padrão
para usar em uma calibração normal. Mas,
eles servem como referência por causa da
exatidão. Não é razoável viajar para
Sèvres, na França, para calibrar uma
balança analítica de laboratório que
necessita de um peso padrão. E chegando
na França, o acesso ao kilograma padrão
nem seria permitido. Assim, por razões
práticas, existe uma hierarquia de padrões
secundários que tentam duplicar os
padrões primários. O padrão primário é
usado como referência para o padrão
secundário, que é usado como
transferência. O padrão secundário é uma
aproximação razoável do primário e pode
ser mais facilmente acessível para
calibrações. Porém, deve haver um valor
de incerteza razoável no uso de padrões
que são réplicas dos padrões primários. No
topo da pirâmide de hierarquia, logo abaixo
do padrão primário, estão os padrões
primários mantidos pelos laboratórios
nacionais através do mundo. No Brasil, o
INMETRO mantém os padrões primários e
secundários e os procedimentos padrão
recomendados para a calibração dos
sistemas de medição.
Cada nível de hierarquia é derivado por
calibração contra o padrão do nível anterior
mais alto. Quando se move para baixo da
Confirmação Metrológica
159
pirâmide, passa-se do padrão primário
(referência), para o secundário
(transferência), para o local e para o
padrão de trabalho, sempre com um grau
de precisão menor ou com maior incerteza.
Como a calibração determina a relação
entre o valor de entrada e o de saída, a
exatidão da calibração depende, em parte,
da exatidão do padrão usado. Mas o
padrão de trabalho usado contem algum
erro e como a exatidão é determinada? No
máximo, a exatidão pode somente ser
estimada. E a confiança desta estimativa
depende da qualidade do padrão e da
técnica de calibração usada.


















Fig. 5.6. Rastreabilidade dos padrões


Rastreabilidade (traceability) é o
princípio em que a incerteza de um padrão
é medida contra um padrão superior,
permitindo que a incerteza do instrumento
seja certificada. Isto é conseguido por uma
auditoria para cima, de padrões mais
baixos para padrões superiores. Todo
sistema válido de padrões deve se
conformar com este princípio da
rastreabilidade, onde o padrão inferior que
é calibrado contra um padrão superior é
certificado e sua incerteza é garantida.
Os instrumentos de medição das
variáveis do processo requerem
calibrações periódicas, referidas a padrões
de oficina. Periodicamente, os padrões de
oficina também devem ser calibrados e
rastreados com outros padrões
interlaboratoriais e padrões de referência
nacional. Para isso, é fundamental que as
quantidades físicas envolvidas tenham os
seus padrões definidos e disponíveis.
A exatidão do nível superior deve ser
maior que a do nível inferior de um fator
variando, por exemplo, de 4 a 10. Quanto
menor o fator (4), a exatidão do padrão
influi e interfere na exatidão do instrumento
calibrado. Quanto maior o fator (10), maior
o custo do padrão. Pode-se até fazer a
calibração com um instrumento com
mesma classe de precisão (cross
checking). Geralmente é aplicada no
recebimento de instrumentos, após
transporte para verificação de violações ou
antes da data do vencimento de
calibração, apenas para verificar a
manutenção da exatidão.
Há vários tipos diferentes de padrões de
medição, classificados conforme a função
e o tipo de aplicação.
1. internacional e nacional
2. primário e secundário
3. referência e transferência
4. de trabalho e de oficina
Padrão Internacional e nacional
Os padrões internacionais são os
dispositivos projetados e construídos para
as especificações de um fórum
internacional. Eles representam as
unidades de medição de várias
quantidades físicas na maior precisão
possível que é obtida pelo uso de técnicas
avançadas de produção e medição. Eles
estão guardados em Sèvres e não são
disponíveis para o usuário comum e suas
necessidades diárias de calibração.
Os padrões internacionais são definidos
de modo que possam ser reproduzidos em
um grau aceitável de exatidão e quando
definidos, o problema seja realizar este
padrão. Há um padrão primário para cada
unidade. No caso da massa, há um bloco
cilíndrico de Pt-Ir guardado em Sèvres,
França, de modo que massas semelhantes
possam ser comparadas com o protótipo
com precisão de 10
-8
. As outras
quantidades são definidas por padrões
primários reprodutíveis, ou seja, que
podem ser estabelecidas localmente,
quando necessário. Na prática, os
equipamentos e procedimentos envolvidos
requerem laboratórios altamente
Aumento da
precisão
P. ex., balança pressão Inmetro
Padrão
primário
Padrão
secundário
Padrão
trabalho
Instrumento
calibrado
P. ex., bomba peso morto
P. ex., manômetro master
P. ex., manômetro
Confirmação Metrológica
160
especializados. Os padrões internacionais
são primários.
Padrão nacional é o de mais alto nível
dentro de um país. O INMETRO, no Rio de
Janeiro, RJ, é responsável legal pela
manutenção dos padrões primários no
Brasil. Estes padrões primários não saem
do INMETRO. A principal função de um
padrão primário é a calibração e
verificação dos padrões secundários. No
Brasil, o INMETRO credencia os
laboratórios que forma a Rede Brasileira
de Calibração. Os laboratórios da Rede
servem de referência para calibrações
secundárias. Por exemplo, o laboratório
industrial da Yokogawa (São Paulo, SP) é
credenciado pelo INMETRO para calibrar
voltagem, corrente e resistência elétrica. O
laboratório industrial da Companhia
Siderúrgica de Tubarão (Vitória, ES) está
credenciado pelo INMETRO para
referência de temperatura. O laboratório de
Vazão do Instituto de Pesquisas
Tecnológicas (São Paulo, SP) está
credenciado pelo INMETRO para
rastreabilidade de medidores de vazão de
líquido, dentro de determinadas faixas. O
Apêndice D mostra os laboratórios da
Rede Brasileira credenciados até JAN 96.
Padrão primário ou de referência
Os padrões primários são dispositivos
mantidos pelas organizações e laboratórios
nacionais, em diferentes partes do mundo.
Eles representam as quantidades
fundamentais e derivadas e são calibrados
de modo independente, através de
medições absolutas. A principal função dos
padrões primários é a de calibrar e
certificar periodicamente os padrões
secundários. Como os padrões
internacionais, os primários não são
disponíveis para o usuário final.
O padrão primário é também chamado
de padrão de referência. Ele é fixo e
reprodutível, não sendo acessível como
objeto de calibração industrial e é
necessário padrões práticos para as
quantidades derivadas.
Os padrões primários são os mais
precisos existentes. Eles servem para
calibrar os secundários. Todos os padrões
primários precisam ter certificados. Os
certificados mostram a data de calibração,
precisão, condições ambientes onde a
precisão é válida e um atestado explicando
a rastreabilidade com o Laboratório
nacional. O padrão primário é certificado
por padrões com maior hierarquia. Quando
o sistema é calibrado contra um padrão
primário, tem-se uma calibração primária.
Após a calibração primária, o equipamento
é empregado como um padrão secundário.
O resistor e a célula padrão,
comercialmente disponíveis são exemplos
de calibração primária.
Há ainda um outro significado para
padrão primário, com relacionado com o
seu grau de precisão ou posição na
pirâmide de rastreabilidade, mas com a
sua fabricação. Existem instrumentos e
dispositivos que, por construção, possuem
uma propriedade conhecida e constante
dentro de determinado limite de incerteza.
Esta propriedade pode ser usada para
calibrar outros instrumentos ou padrões de
menor precisão. Sob este enfoque, são
considerados padrões primários a placa de
orifício, bocal sônico, célula Weston, diodo
zener e resistência de precisão.
A placa de orifício é considerada um
padrão primário de vazão, pois ela é
dimensionada e construída segundo leis
físicas aceitas e confirmadas
experimentalmente, de modo que ela mede
a vazão teórica dentro de determinado
limite de incerteza e desde que sejam
satisfeitas todas as condições do projeto. A
calibração de um sistema de medição com
placa de orifício não requer um padrão de
vazão, mas somente um padrão de
pressão diferencial, que é o sinal gerado
pela placa e relacionado com a vazão
medida.
Um bocal sônico é também um padrão
primário de vazão. Ele é dimensionado e
construído segundo uma geometria
definida e valores de pressão a montante
e jusante teóricos, de modo que, numa
determinada situação passa por ele uma
vazão conhecida e constante, que pode
ser usada para calibrar outros medidores
de vazão. Por construção e teoria, ele
grampeia um determinado valor de vazão
que passa por ele.
Analogamente ao bocal sônico, o diodo
zener é um padrão primário de tensão
elétrica. Por construção e por causa do
efeito Zener e em determinada condição
de polarização e temperatura, o diodo
Confirmação Metrológica
161
zener mantém constante uma tensão
nominal através de seus terminais e esta
tensão conhecida e constante pode ser
usada para calibrar outros medidores de
tensão.
Uma célula Weston é um padrão
primário de tensão elétrica, pois, por
construção e sob determinada corrente, ela
fornece uma tensão constante e igual a
1,018 636 V @ 20
o
C.
Mesmo que estes padrões não tenham
a menor incerteza da pirâmide metrológica
de sua quantidade física, eles são
chamados também de padrões primários.
Padrão secundário ou de transferência
Os padrões secundários são também
instrumentos de alta precisão mas de
menor precisão que a dos padrões
primários e podem tolerar uma
manipulação normal, diferente do extremo
cuidado necessário para os padrões
primários. Os padrões secundários são
usados como um meio para transferir o
valor básico dos padrões primários para
níveis hierárquicos mais baixos e são
calibrados por padrões primários.
O padrão secundário é o padrão de
transferência. Ele é o padrão disponível e
usado pelos laboratórios de medição e
calibração na indústria. Cada laboratório
industrial é responsável exclusivo de seus
padrões secundários. Cada laboratório
industrial deve periodicamente enviar seus
padrões secundários para os laboratórios
nacionais para serem calibrados contra os
primários. Após a calibração, os padrões
secundários retornam ao laboratório
industrial com um certificado de precisão
em termos do padrão primário.



Fig. 5.7. Instrumento padrão de oficina (HP)

Padrão de Oficina
Os padrões de oficina são dispositivos
de alta precisão e comercialmente
disponíveis, usados como padrões dos
laboratórios industriais. Eles não são
usados para o trabalho diário de medições,
mas servem como referência de calibração
para os instrumentos de uso geral e diário.
Os padrões de oficina devem ser mantidos
em condições especificas de temperatura e
umidade. A calibração com os padrões de
oficina é chamada de calibração
secundária. Usa-se um dispositivo de
calibração secundária para a calibração de
um equipamento de pior precisão. A
calibração secundária é a mais usada na
instrumentação. Por exemplo, a célula
padrão pode ser usada para calibrar um
voltímetro ou amperímetro usado como
padrão de trabalho. O voltímetro padrão
serve para calibrar um voltímetro de menor
precisão, que é usado para fazer as
medições rotineiras do trabalho.




Fig. 5.8. Instrumento de medição (Foxboro)

Padrão de trabalho
Os padrões de trabalho são dispositivos
de menor precisão e comercialmente
disponíveis, usados como padrões para
calibrar os instrumento de medição do
processo e dos laboratórios industriais.
Eles são usados para o trabalho diário de
medições. Geralmente são portáteis e de
uso coletivo e por isso sua precisão se
degrada rapidamente e requerem
calibrações freqüentes. Atualmente, com a
tendência de se calibrar a malha de
processo in situ, os fabricantes de
instrumento desenvolveram padrões de
trabalho robustos e precisos para
calibração dos instrumentos da área
industrial.
Deve-se tomar cuidados especiais com
o uso dos instrumentos padrão elétricos
portáteis em local industrial, observando e
Confirmação Metrológica
162
cumprindo as exigências de classificação
mecânica, elétrica e de temperatura, para
não danificar o instrumento e
principalmente, não explodir a área.













Fig. 5.9. Instrumentos padrão de trabalho (HP)


Materiais de Referência Certificada
Em laboratório químico e físico, é
comum se ter os Materiais de Referência
Certificada ou Materiais de Referência
Padrão que contém uma propriedade com
nível de incerteza conhecida. São
exemplos:
1. solução padrão de pH para calibrar e
ajustar indicadores e transmissores
de análise de pH,
2. gases de pureza definida para
calibrar cromatógrafos
3. chapas de aço com revestimento
definido para calibrar e ajustar
indicadores de espessura a raios-X,
4. rochas, minerais, misturas de gases,
vidros, misturas de hidrocarbonetos,
polímeros, pós, águas de chuva e
sedimentos de rio e efluentes.
Os materiais de referência certificadas
podem ser preparados por síntese, pelo
próprio usuário ou podem ser comprados
de laboratórios nacionais ou internacionais,
credenciados ou com padrões rastreados.
Geralmente os materiais de referência
certificada tem prazos de validade e
requerem o controle da idade (age control).
4. Normas e Especificações
4.1. Norma
Norma é algo estabelecido pela
autoridade, usuário ou consenso geral
como um modelo ou exemplo a ser
seguido. Existem normas de conduta para
uma sociedade política e normas técnicas
para uma sociedade tecnológica. Uma
norma técnica é uma regra para uma
atividade especifica, formulada e aplicada
para o beneficio e com a cooperação de
todos os envolvidos. Geralmente, uma
norma é um documento que estabelece as
limitações técnicas e aplicações para itens,
materiais, processos, métodos, projetos e
práticas de engenharia.
A norma é um documento que indica
materiais, métodos ou procedimentos de
fabricação, operação, manutenção ou
testes de uma certa classe de
equipamentos ou instrumentos. Por
exemplo, há normas para manômetros,
termômetros, medidores de vazão, vasos e
tabulações de alta pressão. A norma
fornece limites na faixa de materiais e
propõe métodos aceitáveis, de modo que
um produto ou procedimento possa
satisfazer o objetivo para o qual ele foi
projetado.
No Brasil, o órgão credenciado para
gerar normas é a Associação Brasileira de
Normas Técnicas (ABNT), que é uma
empresa, não-governamental, sem fins
lucrativos, credenciado pelo INMETRO.
4.2. Especificações
A função de uma especificação é a
descrição de um produto em termos da
aplicação que o usuário pretende fazer
dele. A especificação pode ter a mesma
função da norma e algumas especificações
são, de fato, normas ou elas podem ser
derivadas e resultados de uma norma.
As especificações usualmente são mais
detalhadas e menos genéricas para uma
aplicação particular do que as normas.
As especificações e normas formam a
base do sistema industrial. As
especificações são essenciais a toda
operação de compra-venda, tornando
possível a padronização básica para o
sistema de fabricação em massa industrial.
Confirmação Metrológica
163
Há cerca de 85 000 normas
governamentais, publicas e privadas em
uso nos Estados Unidos.
4.3. Hierarquia
Pode-se identificar uma hierarquia de
normas usadas pela sociedade. As normas
de valor são as de mais alto nível, em
termos de seu impacto na sociedade.
Estas normas tratam da regulação de
radioativadade e da necessidade de água
e ar limpo. As normas regulatórias são
derivadas das normas de valor básicas. Há
três tipos de normas regulatórias:
1. códigos e regulações da indústria,
que são produzidas pela indústria,
2. normas regulatórias consensuais
produzidas pelos membros das
associações de normas e governo,
3. normas regulatórias mandatórias que
são produtos exclusivos dos
governos.
4.4. Tipos de Normas
A ABNT edita seis tipos diferentes de
normas:
1. método de teste descreve os
procedimentos para determinar uma
propriedade de um material ou
desempenho de um produto,
2. especificação é uma declaração
concisa das exigências a serem
satisfeitas por um produto, material
ou processo,
3. prática é o procedimento ou instrução
para auxiliar a especificação ou
método de teste,
4. terminologia fornece as definições e
descrições dos termos, explicações
de símbolos, abreviações e
acrósticos,
5. guia oferece uma série de opções ou
instruções mas não recomenda um
modo de ação especifico,
6. classificação define os arranjos
sistemáticos ou divisões de materiais
ou produtos em grupos baseados em
características similares.
4.5. Abrangência das Normas
A norma pode ter quatro níveis em
função do grau de consenso necessário
para seu desenvolvimento e uso.
1. norma de companhia, é o nível mais
baixo, usado internamente para
projeto, produção, compra ou
controle de qualidade. O consenso é
entre os empregados da companhia.
2. norma da indústria desenvolvida
tipicamente por uma sociedade ou
associação profissional. O consenso
para estas normas é entre os
membros da organização.
3. norma governamental reflete muitos
graus de consensos. Às vezes, o
governo adota normas preparadas
pela iniciativa privada mas outras
vezes elas podem ser escritas por
um pequeno grupo.
4. norma de consenso total é o tipo de
norma desenvolvido por todos os
setores representativos, incluindo
fabricantes, usuários, universidades,
governo e consumidores.
4.6. Relação Comprador-Vendedor
As normas e especificações possuem
as funções comercial e legal de
1. estabelecer níveis de aceitação do
produto entre fabricante e comprador
2. fornecer os níveis de qualidade,
funções e desempenho do produto.
A norma deve ter o bom senso de
estabelecer limites tolerados razoáveis, de
modo que o preço do produto seja
acessível e o seu desempenho seja bom.
O usuário quer um bom produto e não
uma excelente especificação mas nenhum
produto comercialmente disponível. Para
tanto:
1. o usuário deve saber o que quer e ter
clara a função do produto a ser
aplicado. O usuário deve
estabelecer: faixa de medição,
exatidão, estabilidade, configuração
e condições do processo que podem
afetar o desempenho, resposta e
confiabilidade do produto sendo
aplicado.
2. o usuário deve conhecer as normas
técnicas e legais e determinar como
elas devem ser usadas para se obter
o desempenho projetado do produto.
Confirmação Metrológica
164
3. o usuário e o fornecedor devem
concordar no documento de compra
em que partes da especificação
aplicam-se os limites concordados,
que meios serão empregados prelo
fabricante para se garantir que o
produtor está dentro destes limites e
que meios o usuário deve empregar
para verificar se o produto entregue,
de fato, satisfaz as especificações e
as normas envolvidas.
O uso inteligente de normas e
especificações garante produtos melhores
e medidores mais exatos e confiáveis nas
aplicações do usuário.
4.7. Organizações de Normas
Qualquer medição é feita com relação a
outra medição. Quando se fala de
exatidão, implica em uma medição
comparada com algum padrão aceitável
para esta medição. Os padrões nacionais
para todas as medições no Brasil estão
guardados no INMETRO.


Tab. 5.4. Laboratórios Nacionais de
Metrologia
País Laboratório
Brasil
INMETRO - Instituto Nacional de
Metrologia, Normalização e
Qualidade Industrial
EUA
NIST - National Institute of
Standards and Technology (ex-
NBS, National Bureau of Standards)
França
Bureau International de Poids et
Mesures
UK
National Physical Laboratory
Alemanha
Physikalisch-Technische
Bundesanstalt (PTB)
Itália
Instituto de Metrologia Gustavo
Colonnetti


4.8. INMETRO
O Sistema Nacional de Metrologia,
Normalização e Qualidade Industrial
(SINMETRO) foi criado pela lei 5966 de 11
DEZ 73, com a finalidade de formular e
executar a política de Metrologia,
Normalização e Certificação de Qualidade
dos produtos brasileiros. O SINMETRO
estabelece o Sistema Nacional de Medição
(SNM) e é composto de:
1. INMETRO - Instituto Nacional de
Metrologia, Normalização e
Qualidade Industrial,
2. CONMETRO - Conselho Nacional
de Metrologia, Normalização e
Qualidade Industrial.
O INMETRO estabelece a base técnica,
legal e ética para todas as medições. O
processo de medição envolve amostras,
padrões físicos, materiais de referência
certificada, garantia da qualidade
metrológica, normas e procedimentos. O
INMETRO é também o depositário destes
parâmetros. Para realizar esta tarefa
extensa, o INMETRO criou a Rede
Brasileira de Calibração, credenciando
laboratórios para emitir certificados de
calibração de grandezas físicas
especificas. Nesta rede, o INMETRO tem o
nível mais alto com os padrões nacionais.

Apostilas\Metrologia 5Calibração.DOC 24 SET 98 (Substitui 02 ABR 98)
Confirmação Metrológica
165



Fig. 5.9. Cadeia ou pirâmide da rastreabilidade de padrões


B.I.P.M
NIST
EUA
PTB
Alemanha
INMETRO
Brasil
NRLM
Japão
IMGC
Itália
Rede Brasileira de Calibração
Observatório
Nacional
Laboratório
CST
Laboratório
USP
Temperatura
Padrão
Referência
Eletricidade
Padrão
Transferência
Pressão
Padrão
Trabalho
Massa
Outros
Laboratório
de Furnas
Laboratório
do IPT
Instrumento do
Usuário
Vazão

166
A
Vocabulário de Metrologia




As definições dos termos metrológicos gerais relevantes para este
trabalho são dadas a partir do International vocabulary of basic and
general terms in metrology (abreviado VIM), 2
a
ed. , publicado pela
ISO, elaborado por especialistas e em nome das sete organizações
que suportam seu desenvolvimento:
1. Bureau Internacional de Poids et Mesures (BIPM),
2. International Electrotechnical Comission (IEC),
3. International Federation of Clinical Chemistry (IFCC),
4. Organization International of Standardization (ISO),
5. International Union of Pure and Applied Chemistry (IUPAC),
6. International Union of Pure and Appplied Physics (IUPAP) e
7. International Organization of Legal Metrology (OIML).
O VIM deve ser a primeira fonte consultada para as definições
dos termos não incluídos aqui. Nas definições seguintes, o uso de
parênteses em torno de certas palavras de alguns termos significa
que as palavras podem ser omitidas se isto não causar confusão.
Os termos em negrito em alguns notas são termos metrológicos
adicionais definidos nestas notas, explicita ou implicitamente.
Os termos estão também consistentes com a Portaria 29, de 10
de março de 1995, do Instituo Nacional de Metrologia, Normalização
e Qualidade Industrial INMETRO.


Vocabulário de Metrologia
167
1. Grandezas e Unidades
1.1. Grandeza (mensurável)
Grandeza ou grandeza é o atributo de
um fenômeno, corpo ou substância que
pode ser distinguido qualitativamente e
determinado quantitativamente. O termo
grandeza pode se referir a uma grandeza
no sentido geral (ver exemplo 1) ou a uma
grandeza particular [ver exemplo 2).
Exemplos:
1. grandeza no sentido geral:
comprimento, tempo, massa,
temperatura, resistência elétrica,
concentração e grandeza de
substância;
2. grandezas particulares:
comprimento de uma dada barra,
resistência elétrica de um dado fio
de cobre
concentração de etanol em uma dada
amostra de vinho.
As grandezas que podem ser colocadas
em ordem de valor relativo a uma outra
são chamadas de grandezas de mesma
espécie. Grandezas da mesma espécie
podem ser agrupadas juntas em categorias
de grandezas. Por exemplo:
1. trabalho, calor, energia
2. espessura, circunferência, raio de
círculo e comprimento de onda.
Grandezas de mesma espécie são expressas com a
mesma unidade SI. Os nomes e símbolos para as
grandezas são dados pelo SI (Sistema Internacional
de Unidades)
1.2. Grandeza medida (Mensurando)
O primeiro passo na medição é
especificar a grandeza a ser medida ou o
mensurando. O mensurando não pode ser
especificado por um valor mas somente
por uma descrição de uma grandeza.
Porém, em princípio, um mensurando não
pode ser completamente descrito sem uma
grandeza infinita de informação. Assim,
para a extensão que lhe deixa espaço para
interpretação, a definição incompleta do
mensurando introduz na incerteza do
resultado de uma medição uma
componente de incerteza que pode ou não
pode ser significativa com relação à
exatidão requerida da medição.
A definição de um mensurando
especifica certas condições físicas.
Exemplo - A velocidade do som no ar seco
de composição (fração molar):
N
2
= 0,7808
O
2
= 0,1095
Ar = 0,009 35
CO
2
= 0,000 35
à temperatura T = 273,15 K e
pressão p = 101 325 Pa.
1.3. Grandeza de base
No Sistema Internacional de Unidades
(SI), é a grandeza aceita como
independente de uma outra grandeza, por
convenção e função.
Atualmente, há sete grandezas de base:
1. comprimento
2. massa
3. tempo
4. temperatura
5. corrente elétrica
6. quantidade de substância
7. intensidade luminosa
1.4. Grandeza suplementar
No SI, é a grandeza aceita como
independente de uma outra grandeza, por
convenção e função. Por questão histórica,
é chamada de suplementar, quando pode
ser considerada também de base.
As duas grandezas suplementares são:
1. ângulo plano
2. ângulo sólido
1.5. Grandeza derivada
Grandeza definida, em um sistema de
grandezas, como função de grandezas de
base deste sistema. A grandeza derivada é
geralmente obtida pela multiplicação e
divisão de grandezas de base e outras
derivadas.
Exemplos de grandezas derivadas:
1. área é uma grandeza derivada do
quadrado do comprimento.
2. volume é uma grandeza derivada
do cubo do comprimento
3. velocidade é uma grandeza
derivada do comprimento dividido
por tempo
4. aceleração é uma grandeza
derivada da velocidade dividida por
Vocabulário de Metrologia
168
tempo ou do comprimento dividido
pelo tempo ao quadrado
5. força é uma grandeza derivada da
massa multiplicada pelo
comprimento e dividida pelo
quadrado do tempo.
Há uma infinidade de grandezas
derivadas; algumas com nomes e unidades
próprias.
1.6. Grandeza, dimensão de uma
Expressão que representa uma
grandeza de um sistema de grandezas,
como produto das potências (positivas ou
negativas) dos fatores que representam as
grandezas de base deste sistema.
Exemplos:
1. Dimensão de área: L
2

2. Dimensão de volume: L
3

3. Dimensão de velocidade: LT
-1

4. Dimensão de aceleração: LT
-2

5. Dimensão de força: MLT
-2

Os fatores que representam as
grandezas de base são chamados de
dimensões dessas grandezas. A área
possui dimensão de comprimento ao
quadrado.
Grandeza adimensional é aquela onde
todos os expoentes das dimensões das
grandezas de base são zero. Na prática,
grandeza adimensional não tem dimensão.
Exemplos:
1. densidade relativa (densidade de
fluido dividida pela densidade da
água ou do ar)
2. coeficiente de atrito
3. número de Mach
4. número de Reynolds
1.7. Unidade (de medição)
Grandeza específica definida e adotada
por convenção, com a qual outras
grandezas de mesma natureza são
comparadas para expressar suas
magnitudes em relação àquela grandeza.
Cada grandeza deve ter uma única
unidade de medição. Quando os números
associados do valor da grande forem muito
grandes, deve-se usar múltiplos decimais
ou quando forem muito pequenos, usam-
se submúltiplos. Por exemplo, kilômetro é
um múltiplo de metro e milímetro é um
submúltiplo de metro.
Unidades de medição tem nomes e
símbolos aceitos por convenção. Por
exemplo, a unidade de massa é o
kilograma, símbolo kg. Outro exemplo: a
unidade de comprimento é o metro,
símbolo m.
Unidades de grandezas de mesma
dimensão podem ter os mesmos nomes e
símbolos, mesmo quando as grandezas
não são de mesma natureza. Por exemplo,
energia (elétrica, química, termodinâmica
ou mecânica) tem unidade de joule,
simbolizada por J.
1.8. Unidade, símbolo de
Símbolo de uma unidade é um sinal
convencional que a designa. Símbolo não
é abreviatura. Símbolo de metro é m,
símbolo de kilograma é kg; símbolo de
corrente elétrica é A.
1.9. Unidade, sistema de
Sistema de unidades de medição é um
conjunto das unidades de base,
suplementares e derivadas, definido de
acordo com regras específicas, para um
dado sistema de grandezas. Já existiram
vários sistemas de unidades: CGS, MKSA,
inglês e chinês. Hoje, o sistema de
unidades a ser usado por todo técnico é o
SI, (símbolo de Sistema Internacional de
Unidades).
O SI é um sistema de unidades
coerente, completo, decimal, universal.
1.10. Valor (de uma grandeza)
O valor é a magnitude ou a expressão
quantitativa de uma grandeza particular
geralmente expresso como uma unidade
de medição multiplicada por um número.
Exemplos
comprimento de uma barra: 5,34 m
ou 534 cm;
massa de um corpo: 0,152 kg ou
152 g;
grandeza de substância de uma
amostra de água (H
2
O): 0,012 mol
ou 12 mmol.
Notas:
1. O valor de uma grandeza pode
ser positivo, negativo ou zero.
Vocabulário de Metrologia
169
2. O valor de uma grandeza pode
ser expresso em mais de um
modo.
3. Os valores das grandezas de
dimensão 1 são expressos como
números isolados.
4. Uma grandeza que não pode ser
expressa como uma unidade de
medição multiplicada por um
número pode ser expressa por
referência a uma escala padrão
convencional ou por um
procedimento de medição ou por
ambos.
1.11. Valor verdadeiro (de uma
grandeza)
O valor verdadeiro é aquele consistente
com a definição de uma dada grandeza
particular.
1. Este é um valor que seria obtida por
uma medição perfeita
2. Valores verdadeiros são, por
natureza, indeterminados
3. O artigo indefinido um, em vez do
artigo definido o, é usado em
conjunto com valor verdadeiro,
porque pode haver vários valores
verdadeiros.
1.12. Valor verdadeiro convencional
(de uma grandeza)
O valor verdadeiro convencional é
aquele atribuído a uma grandeza particular
e aceito, algumas vezes por convenção,
como tendo uma incerteza apropriada para
um dado objetivo.
Exemplos
a) em um dado local, o valor atribuído à
grandeza realizada por um padrão
de referência pode ser tomada como
um valor verdadeiro convencional;
b) o valor recomendado pelo CODATA
(1986) para a constante de
Avogrado:
6,022 136 7 x 10
23
mol
-1
.
1. O valor verdadeiro convencional é
geralmente chamado de valor
atribuído, melhor estimativa do valor,
valor convencional ou valor de
referência.
2. Freqüentemente, um número de
resultados de medições de uma
grandeza é usado para estabelecer
um valor verdadeiro convencional.
1.13. Valor verdadeiro, erro e
incerteza
O termo valor verdadeiro tem
tradicionalmente sido usado em
publicações sobre incerteza mas não neste
trabalho pelas seguintes razões.
O resultado de uma medição da
grandeza realizada é corrigido para a
diferença entre esta grandeza e o
mensurando de modo a prever o que o
resultado da medição teria sido se a
grandeza realizada, de fato, satisfizesse
totalmente a definição do mensurando. O
resultado da medição da grandeza
realizada é também corrigido para todos os
outros efeitos sistemáticos significativos
reconhecidos. Embora o resultado final
corrigido final seja geralmente visto como a
melhor estimativa do valor verdadeiro do
mensurando, na realidade o resultado é
simplesmente a melhor estimativa do valor
da grandeza que se quer medir.
Como exemplo, suponha que o
mensurando é a espessura de uma dada
folha de material em uma especificada
temperatura. A peça é trazida para a
temperatura próxima da temperatura
especificada e sua espessura, em um
determinado local, é medida com um
micrômetro. A espessura do material neste
local e temperatura, sob a pressão
aplicada pelo micrômetro, é a grandeza
realizada.
A temperatura do material na hora da
medição e a pressão aplicada são
determinadas. O resultado não corrigido da
medição da grandeza realizada é então
corrigido levando em conta a curva de
calibração do micrômetro, o afastamento
da temperatura do equipamento da
temperatura especificada e a leve
compressão da peça sob a pressão
aplicada.
O resultado corrigido pode ser chamado
a melhor estimativa do valor verdadeiro,
verdadeiro no sentido que é o valor da
grandeza que se acredita satisfazer
totalmente a definição do mensurando mas
tem o micrômetro sido aplicada a diferença
parte da folha de material, a grandeza
realizada teria sido diferente com um
Vocabulário de Metrologia
170
diferente valor verdadeiro. Porém, este
valor verdadeiro seria consistente com a
definição do mensurando porque o último
não especificou que a espessura era para
ser determinada neste determinado ponto
da folha. Assim, neste caso, por causa de
uma definição incompleta do mensurando,
o valor verdadeiro tem uma incerteza que
pode ser avaliada das medidas feitas em
diferentes pontos da folha. Em algum nível,
cada mensurando tem uma incerteza
intrínseca que pode, em princípio, ser
estimada de algum modo. Esta é a mínima
incerteza com que um mensurando pode
ser determinado e cada medição tem tiver
esta incerteza pode ser vista como a
melhor medição possível do mensurando.
Para obter um valor da grandeza em
questão tendo uma menor incerteza requer
que o mensurando seja definido com mais
detalhes.
1. No exemplo, a especificação do
mensurando deixa muitos outras
informações em dúvida que
poderiam afetar a espessura:
pressão barométrica, umidade,
atitude da folha no campo
gravitacional, o modo como ela é
suportada.
2. Embora um mensurando seja
definido em detalhe suficiente, de
modo que qualquer incerteza
resultante de sua definição
incompleta seja desprezível em
comparação com a exatidão
requerida da medição, deve ser
reconhecido que isto pode nem
sempre ser praticável. A definição
pode, por exemplo, ser incompleta
porque ela não especifica
parâmetros que deveriam ser
assumidos, injustificavelmente,
tendo efeito desprezível; ou ela pode
implicar condições que nunca são
totalmente satisfeitas e cuja
realização imperfeita é difícil de
considerar. Por exemplo, a
velocidade do som implica ondas
planas infinitas com pequena
amplitude. Para o objetivo que a
medição não satisfaz estas
condições, a difração e os efeitos
não lineares devem ser
considerados.
3. Especificação inadequada do
mensurando pode levar a
discrepâncias dos resultados das
medições da ostensivamente
mesma grandeza feitas em
diferentes laboratórios.
O termo valor verdadeiro de um
mensurando ou de uma grandeza (muitas
vezes truncado para valor verdadeiro) é
evitado neste trabalho porque a palavra
verdadeiro é vista como redundante.
Mensurando significa grandeza particular
sujeita à medição, assim valor de um
mensurando significa valor de uma
grandeza particular sujeita à medição.
Desde que grandeza particular é
geralmente entendida para significar uma
grandeza definida ou especificada, o
adjetivo verdadeiro em valor verdadeiro de
um mensurando (ou em valor verdadeiro
de uma grandeza) é desnecessário - o
valor verdadeiro do mensurando (ou
grandeza) é simplesmente o valor do
mensurando (ou grandeza). Além disso,
como indicado na discussão acima, um
único valor verdadeiro é apenas um
conceito idealizado.
1.14. Valor numérico (de uma
grandeza)
O valor numérico é o número que
multiplica a unidade na expressão do valor
de uma grandeza. Exemplo,
• No valor do comprimento de uma
barra: 5,34 m; 5,34 é o valor
numérico.
• No valor da massa de um corpo:
0,152 kg; 0,152 é o valor numérico.

Vocabulário de Metrologia
171
2. Medição
2.1. Metrologia
Metrologia é a ciência que trata das
medição, tratando de seus aspectos
teóricos e práticos, incluindo a incerteza,
em todos os campos da ciência ou da
tecnologia.
2.2. Medição
Medição é um conjunto de operações
com o objetivo de determinar um valor de
uma grandeza.
As operações podem ser feitas
manualmente ou automaticamente.
2.3. Princípio de medição
Princípio é a base científica de uma
medição.
Exemplos
1. efeito termelétrico aplicado à
medição de temperatura;
2. efeito Josephson aplicado à
medição de diferença de
potencial elétrico;
3. efeito Doppler aplicado à
medição de velocidade ou de
vazão;
4. efeito Raman aplicado à
medição do número de onda de
vibrações moleculares.
2.4. Método de medição
Método é a seqüência lógica de
operações, descrita genericamente, usada
para fazer medições
Métodos de medição podem ser
qualificados em vários modos, tais como:
1. direto
2. substituição
3. comparação ou balanço de nulo
2.5. Procedimento de medição
Procedimento é um conjunto de
operações, descrito especificamente e
usado para fazer medições particulares de
acordo com um dado método
Um procedimento de medição é
usualmente registrado no documento que é
geralmente chamado de procedimento de
medição (ou um método de medição) e é
usualmente em detalhe suficiente para
possibilitar um operador fazer uma
medição sem informação adicional.
2.6. Mensurando (mensurand)
Mensurando é o objeto da medição ou a
grandeza particular sujeita à medição. Por
exemplo - pressão de vapor de uma dada
amostra de água a 20
o
C.
A especificação de um mensurando pode requerer
declaração acerca de grandezas como tempo,
temperatura e pressão.
2.7. Grandeza de influência
É a grandeza que não é o mensurando
mas que afeta o resultado da medição.
Exemplos
1. temperatura de um micrômetro
usado para medir comprimento
2. freqüência na medição da amplitude
de uma diferença de potencial
elétrica alternada.
3. concentração de bilirubin na
medição de concentração de
hemoglobina em uma amostra de
plasma sangüíneo do homem.
4. A grandeza de influência inclui
valores associados com padrões de
medição, materiais de referência e
dados de referência dos quais o
resultado de uma medição pode
depender, bem como os fenômenos
tais como flutuações rápidas do
instrumento de medição e
grandezas tais como temperatura
ambiente, pressão barométrica e
umidade.
2.8. Grandeza de modificação
É a grandeza que não é o mensurando
mas que afeta o resultado da medição,
alterando o seu valor justo na medição,
diretamente no elemento sensor. Exemplos
1. temperatura e pressão na medição
da vazão volumétrica de gás. Como
o volume depende da pressão e da
temperatura do gás, estas variáveis
modificam o valor medido da vazão
volumétrica do gás.
2. densidade na medição de nível de
líquido através da pressão
diferencial. Como a pressão
diferencial exercida pela coluna
Vocabulário de Metrologia
172
líquida depende da densidade do
líquido, aceleração da gravidade e
da altura do líquido, o nível é
modificado pela densidade.
A modificação pode ser eliminada ou
diminuída através da compensação da
medição, quando se fazem as medições
que afetam a variável medida e o cálculo
matemático para eliminar a modificação.
Por exemplo, na medição de nível de
líquido com densidade variável através da
pressão diferencial, medem-se a pressão
diferencial e a densidade do líquido e
aplicam-se os dois sinais a um divisor de
sinais. A saída do divisor é proporcional
apenas ao nível.
2.9. Sinal de medição (measurement
signal)
Sinal é a grandeza que representa a
quantidade medida ao qual está
funcionalmente relacionada. O sinal
contem a informação. Exemplos de sinais:
1. deslocamento na saída de um
sensor mecânico de pressão
2. sinal padrão de 4 a 20 mA na saída
de um transmissor eletrônico de
temperatura
3. sinal padrão de 20 a 100 kPa na
saída de um transmissor
pneumático de nível.
4. tensão ou força eletromotriz de um
termopar usado para medir a
temperatura de um processo.
O sinal de entrada de um dispositivo
pode ser considerado estímulo; o sinal de
saída pode ser considerado resposta.
O sinal pode sofrer várias modificações
ao longo do sistema de medição, porém
deve preservar inalterada a informação da
medição. Por exemplo, ele pode ser
filtrado, amplificado, convertido em outra
forma de energia, compensado, blindado.
2.10. Ruído (noise)
Grandeza da mesma natureza que o
sinal que afeta a medição, provocando erro
de influência. O ruído pode ser eliminado
ou diminuído através de várias técnicas,
como
1. posição relativa entre instrumento
de medição e fonte de ruído
2. blindagem e aterramento quando
ruído for de natureza elétrica
3. Resultado da Medição
3.1. Resultado de uma medição
É o valor atribuído a um mensurando,
obtido por medição.
1. Quando um resultado é dado, deve
ficar claro se ele se refere a
- uma indicação
- um resultado não corrigido
- um resultado corrigido
- média de vários valores
2. Uma apresentação completa do
resultado de uma medição inclui
informação acerca da incerteza da
medição.
3.2. Resultado não corrigido
Resultado de uma medição antes da
correção devida aos erro sistemáticos.
3.3. Resultado corrigido
Resultado de uma medição depois da
correção devida aos erros sistemáticos.
3.4. Erro (da medição)
Erro é o resultado de uma medição
menos um valor verdadeiro do
mensurando.
1. Desde que um valor verdadeiro não
pode ser determinado, na prática é
usado um valor verdadeiro
convencional.
2. Quando for necessário distinguir erro
de erro relativo, o erro é geralmente
chamado de erro absoluto da
medição, que não deve ser
confundido com o valor absoluto do
erro, que é o módulo do erro.
3. Se o resultado de uma medição
depende dos valores de outras grandezas
diferentes do mensurando, os erros dos
valores medidos destas grandezas
contribuem para o erro do resultado da
medição.
3.5. Erro relativo
Erro relativo é erro da medição dividido
por um valor verdadeiro do mensurando
Nota - Desde que um valor verdadeiro
não pode ser determinado, na prática, é
Vocabulário de Metrologia
173
usado um erro verdadeiro
convencional.
3.6. Erro aleatório
Erro aleatório um resultado de uma
medição menos a média que resultaria de
um número infinito de medições do mesmo
mensurando feitas sob as condições de
repetitividade.
1. Erro aleatório é igual ao erro menos
o erro sistemático.
2. Como pode ser feito somente um
número finito de medições, é
possível determinar somente uma
estimativa do erro aleatório.
3.7. Erro sistemático
Erro sistemático é média que resultaria
de um número infinito de medições do
mesmo mensurando feitas sob as
condições de repetitividade menos um
valor verdadeiro do mensurando.
1. Erro sistemático é igual ao erro
menos o erro aleatório.
2. Como o valor verdadeiro, o erro
sistemático e suas causas não
podem ser completamente
conhecidos.
3. Para um instrumento de medição, o
erro sistemático é chamado de
polarização (bias)
4. O erro do resultado de uma medição
pode geralmente ser considerado como
resultante de um número de efeitos
aleatórios e sistemáticos que contribuem
com componentes individuais para o erro
do resultado.
3.8. Correção (do erro)
Correção do erro é o valor somado
algebricamente ao resultado não corrigido
de uma medição para compensar o erro
sistemático
1. A correção é igual ao negativo do
erro sistemático estimado.
2. Como o erro sistemático não pode
ser perfeitamente conhecido, a
compensação não pode ser
completa.
3.9. Fator de correção
Fator numérico pelo qual o resultado
não corrigido de uma medição é
multiplicado para compensar o erro
sistemático
3.10. Incerteza
A palavra incerteza significa dúvida e
assim em seu sentido mais amplo
incerteza da medição significa dúvida
acerca da validade do resultado de uma
medição.
3.11. Incerteza (da medição)
A incerteza da medição é um parâmetro
associado com o resultado de uma
medição que caracteriza a dispersão dos
valores que podem razoavelmente ser
atribuídos ao mensurando.
1. O parâmetro pode ser, por exemplo,
um desvio padrão (ou um dado
múltiplo dele) ou a meia largura de
um intervalo com determinado nível
de confiança.
2. A incerteza de uma medição
compreende, em geral, muitos
componentes. Alguns destes
componentes podem ser avaliados
da distribuição estatística dos
resultados de séries de medições e
podem ser caracterizados por
desvios padrão experimentais. Os
outros componentes, que também
podem ser caracterizados por
desvios padrão, são avaliados de
distribuições de probabilidade
assumidas baseadas na experiência
ou em outras informações.
3. O resultado da medição é a melhor
estimativa do valor do mensurando e
todos os componentes da incerteza,
incluindo os que aparecem de
efeitos sistemáticos, tais como os
componentes associados com
correções e padrões de referência,
contribuem para a dispersão.
A definição anterior de incerteza de
medição é um operacional que focaliza o
resultado da medição e sua incerteza
avaliada. Outros conceitos de incerteza da
medição podem ser:
1. uma medida do erro possível no
valor estimado do mensurando como
Vocabulário de Metrologia
174
o fornecido pelo resultado de uma
medição;
2. uma estimativa caracterizando a
faixa de valores dentro da qual cai o
valor verdadeiro de um mensurando.
Embora estes dois conceitos
tradicionais sejam válidos como ideais,
eles envolvem grandezas desconhecidas
como o erro do resultado de uma medição
e o valor verdadeiro do mensurando (em
contraste com o seu valor estimado),
respectivamente.
Uma vez que os valores exatos das
contribuições para o erro de um resultado
de uma medição são desconhecidos e
desconhecíveis, as incertezas associadas
com os efeitos aleatórios e sistemáticos
que provocam o erro podem ser avaliados.
Mas mesmo se as incertezas avaliadas
são pequenas, ainda não há garantia que o
erro no resultado da medição é pequeno;
para a determinação de uma correção ou
na avaliação do conhecimento incompleto,
um efeito sistemático pode sido omitido por
que ele não é reconhecido. Assim, a
incerteza de um resultado de uma medição
não é necessariamente uma indicação da
probabilidade que o resultado da medição
está próximo do valor do mensurando; ele
é simplesmente uma estimativa da
probabilidade de proximidade ao melhor
valor que é consistente com o
conhecimento atualmente disponível.
A incerteza da medição é assim uma
expressão do fato que, para um dado
mensurando e um dado resultado da
medição dele, não há um valor mas um
número infinito de valores dispersos em
torno do resultado que são consistente
com todas as observações e dados e seu
conhecimento do mundo físico e que, com
graus variáveis de credibilidade, podem ser
atribuídos ao mensurando.
Felizmente, em muitas medições
práticas, muito da discussão deste Anexo
não se aplica. Exemplos são quando o
mensurando é adequadamente bem
definido, quando padrões ou instrumentos
são calibrados usando padrões de
referência bem conhecidos que são
rastreáveis a padrões nacionais; e quando
as incertezas das correções da calibração
aparecem de efeitos aleatórios nas
indicações de instrumentos ou de um
número limitado de observações. Todavia,
o conhecimento incompleto das grandezas
de influência e seus efeitos podem
geralmente contribuir significativamente
para a incerteza do resultado de uma
medição.
3.12. Incerteza padrão
Incerteza do resultado de uma medição
expressa como um desvio padrão.
3.13. Incerteza padrão combinada
Incerteza padrão do resultado de uma
medição quando este resultado é obtido
dos valores de várias outras grandezas,
iguais à raiz quadrada positiva de uma
soma de termos, os termos sendo as
variâncias ou covariâncias destas outras
grandezas com pesos de acordo com o
modo que o resultado da medição varia
com alterações destas grandezas.
3.14. Incerteza expandida
Grandeza que define um intervalo
dentro do qual o resultado de uma medição
que é esperado incluir uma grande fração
da distribuição de valores que podem
razoavelmente ser atribuídos ao
mensurando.
1. A fração pode ser vista como a
probabilidade de cobertura ou nível
de confiança do intervalo.
2. Associar um nível específico de
confiança com o intervalo definido
pela incerteza expandida requer
hipóteses explícita ou implícita com
relação a distribuição de
probabilidade caracterizada pelo
resultado da medição e sua
incerteza padrão combinada. O nível
de confiança que pode ser atribuído
a este intervalo pode ser conhecido
somente na extensão em que tais
hipóteses possam ser justificadas.
3. A incerteza expandida é também
chamada de incerteza total.
Vocabulário de Metrologia
175
3.15. Avaliação Tipo A (de incerteza)
Método de avaliação da incerteza por
análise estatística de séries de
observações, geralmente aplicado às
incertezas aleatórias, cuja distribuição é
normal ou gaussiana.
3.16. Avaliação Tipo B (de incerteza)
Método de avaliação da incerteza por
meios diferentes de análise estatística de
séries de observações, geralmente
aplicado às incertezas sistemáticas, cuja
distribuição não é normal e geralmente é
retangular.
3.17. Fator de cobertura
Um número que, quando multiplicado
pela incerteza padrão combinada, produz
um intervalo (incerteza expandida) em
torno do resultado da medição que pode
ser esperado englobar uma grande fração
especificada (e.g., 95%) da distribuição
dos valores que podem razoavelmente ser
atribuídos à grandeza medida.
Fator numérico usado como um
multiplicador da incerteza padrão
combinada de modo a obter uma incerteza
expandida. Um fator de cobertura, k, é
tipicamente na faixa de 2 a 3.
4. Instrumento de Medição
Há muitos termos empregados para
descrever os artefatos utilizados nas
medições. Eles não são mutuamente
excludentes. Alguns são precisos outros
são ambiguos, alguns são genéricos outros
são específicos, alguns são usados por
técnicos, outros por leigos. Os principais
nomes são:
1. elemento
2. componente
3. parte
4. transdutor de medição
5. dispositivo de medição
6. medidor
7. instrumento de medição
8. aparelho
9. equipamento
10. malha de medição
11. instalação de medição
12. sistema de medição
Em Instrumentação, uma malha de
medição é constituída dos seguintes
componentes, que podem estar
fisicamente separados ou alojados em um
único invólucro:
1. sensor
2. condicionador
3. display
4.1. Instrumento de medição
(measuring instrument)
Dispositivo utilizado para realizar uma
medição, isolado ou em conjunto com
outros dispositivos complementares.
4.2. Medida materializada (material
measure)
Dispositivo destinado a reproduzir ou
fornecer, de maneira constante durante
seu uso, um ou mais valores conhecidos e
confiáveis de uma dada grandeza. É
também chamado material de referência
certificado. Exemplos:
1. Massa padrão
2. Bloco padrão de comprimento
3. Medida de volume (de um ou vários
valores, com ou sem escala
graduada)
4. Resistor elétrico padrão
5. Gerador de sinal padrão
6. Solução padrão de pH
4.3. Transdutor de Medição
(measuring transducer)
Genericamente, transdutor é qualquer
dispositivo que modifica a forma de
energia, da entrada para a saída. As
formas de energia na entrada e saída são
diferentes, porém há uma relação
matemática definida entre ambas.
Exemplos:
1. termopar
2. transformador de corrente
3. célula extensiométrica para medir
pressão eletricamente
4. eletrodo de pH
4.4. Transmissor (transmitter)
Instrumento que sente uma variável de
processa e gera na saída um sinal padrão
proporcional ao valor da variável medida.
Pode ser de natureza eletrônica (sinal de 4
Vocabulário de Metrologia
176
a 20 mA cc) ou pneumática (sinal de 20 a
100 kPa).
É utilizado para
1. usar o sinal remotamente
2. isolar processo do display
3. padronizar sinais
4.5. Cadeia de medição (measuring
chain)
Seqüência de elementos de um
instrumentos ou sistema de medição
formando o trajeto do sinal de medição,
desde o estimulo (entrada) até a resposta
(saída). O instrumentista diz: malha de
medição (measuring loop).
Uma cadeia de medição de temperatura
pode ser formada por: termopar, fios de
extensão, junta de referência e indicador
de temperatura.
4.6. Sistema de medição (measuring
system)
Conjunto completo de instrumentos de
medição e outros equipamentos
associados para executar uma
determinada medição. Em certos casos,
eqüivale à cadeia ou malha de medição.
Um sistema de medição pode incluir
medidas materializadas e reagentes
químicos.
Sistema de medição instalado de modo
permanente é chamado de instalação de
medição.
4.7. Indicador (indicator)
Instrumento de medição que sente uma
variável e apresenta o resultado
instantâneo em uma escala com ponteiro
ou através de dígitos.
Exemplos:
1. voltímetro
2. frequencímetro
3. termômetro
4. manômetro
A indicação pode ser analógica,
(contínua ou discreta), através de escala e
ponteiro ou digital, através de dígitos.
Um indicador pode apresentar os
valores de várias grandezas
independentes, de modo simultâneo ou um
valor de cada vez, de modo selecionável
manual ou automaticamente.
O indicador pode também estar
associado às funções de
1. transmissão
2. registro
3. controle
O leigo também chama o indicador de
relógio, mostrador ou medidor, que são
nomes ambíguos e devem ser evitados.
4.8. Registrador (recorder)
Instrumento de medição que sente uma
variável e imprime o resultado historico ou
de tendência em um gráfico através de
penas com tinta.
Exemplos:
1. registrador de temperatura
2. registrador de vazão, pressão e
temperatura
O registro pode ser contínuo, com uma
a quatro penas independentes ou pode ser
discreto, quando cada ponto de registro é
feito um de cada vez, em uma seqüência
fixa definida (registrador multiponto).
Um registrador pode apresentar os
valores de várias grandezas
independentes, de modo simultâneo ou um
valor de cada vez, de modo selecionável
manual ou automaticamente.
O registrador pode também estar
associado às funções de
1. indicação
2. controle
4.9. Totalizador (totalizer)
Instrumento de medição que determina
o valor de uma grandeza por meio do
acúmulo dos valores parciais, durante
determinado intervalo de tempo. É também
chamado de integrador. Geralmente a
integração é feita em relação ao tempo. O
totalizador multiplica a variável totalizada
por um intervalo de tempo, de modo que a
integração da velocidade é distância, da
potência é energia, da vazão volumétrica é
volume.
Exemplos:
1. totalizador de potência elétrica, que
apresenta o valor totalizado no
tempo em energia.
2. totalizador de vazão, que apresenta
o valor totalizado no tempo em
volume ou massa.
Vocabulário de Metrologia
177
3. totalizador de velocidade, que
apresenta o valor totalizado no
tempo em distância.
O totalizador pode receber em sua
entrada sinal analógico ou digital. Sua
saída é sempre um contador. Quando um
totalizador pára de totalizar, a sua saída
fica congelada no último valor acumulado.
O display do contador é geralmente
digital, porém é possível ter display
analógico.
4.10. Instrumento analógico (analog
instrument) e digital (digital instrument)
O fato de um instrumento ser analógico
ou digital depende de quatro parâmetros,
cada um podendo analógico ou digital:
1. sinal
2. função
3. tecnologia
4. display
Na prática, quando se fala de um
instrumento analógico ou digital, está-se
referindo implicitamente ao display e não
necessariamente aos outros três
parâmetros. Assim, instrumento analógico
é aquele que apresenta a indicação
através do conjunto escala e ponteiro e
instrumento digital é aquele que apresenta
a indicação através de dígitos.
4.11. Mostrador (display, dial)
Mostrador é a parte do indicador que
apresenta a indicação. Quando analógico,
é o conjunto escala e ponteiro e quando
digital, o conjunto de dígitos.
O mostrador pode ter diferentes
1. formatos: circular, reto horizontal,
reto vertical,
2. tamanhos
3. cores
4. princípios de operação ou
acionamento: eletrônico,
pneumático ou mecânico
4.12. Índice (index)
Parte fixa ou móvel de um dispositivo mostrador,
cuja posição em relação às marcas da escala define
o valor indicado.
O índice pode ser
1. ponteiro
2. ponto luminoso
3. superfície de um líquido
4. pena de registrador
5. lâmpadas ou LEDs (diodo emissor
de luz) que se acendem em um
conjunto
4.13. Escala (scale)
Régua graduada do indicador, em
ordem crescente ou decrescente, contínua
ou discreta, sobre a qual um ponteiro se
posiciona para fornecer o valor indicado da
medição. No conjunto escala e ponteiro,
um dos dois é fixo e o outro, móvel.
Geralmente, a escala é fixa e o ponteiro é
móvel.
A graduação da escala pode ser
uniforme ou linear ou pode ser não linear
específica.
Quanto maior a escala e o número de
marcas (divisões), maior é a precisão e
resolução da indicação e maior é a
quantidade de algarismos significativos no
resultado da indicação.
Escala de valor de referência ou escala
de referência convencional é usada para
comparar grandezas específicas, como a
escala de dureza Mohs, escala de pH,
escala de índice de octanas para gasolina.
4.14. Escala com zero suprimido
(supressed zero scale)
Escala cuja faixa de indicação não inclui
o valor zero. Por exemplo, escala do
termômetro clinico, que vai de 35 a 42
o
C.
4.15. Escala com zero elevado
(elevated zero scale)
Escala cuja faixa de indicação onde o
valor 0% é negativo e por isso o zero está
elevado em relação ao 0%. Por exemplo,
escala de termômetro que vai de -20 a 50
o
C. O valor 0
o
C está elevado em relação
ao 0% (-20
o
C).
4.16. Escala expandida (expanded
scale)
Escala na qual parte da faixa de
indicação ocupa um comprimento da
escala que é desproporcionalmente maior
do que outras partes.
Vocabulário de Metrologia
178
4.17. Sensor (sensor)
Sensor é o elemento de um instrumento
de medição ou de uma malha de medição
que é diretamente afetado pela quantidade
medida. O sensor detecta a variável,
gerando um sinal proporcional a ela.
Nomes alternativos de sensor: detector,
elemento primário, elemento transdutor,
captador, probe.
Em função de seu sinal de saída, o
sensor pode ser mecânico (saída é um
deslocamento ou movimento) ou eletrônico
(saída é uma tensão ou variação de
parâmetro eletrônico, como resistência,
indutância, capacitância).
O sensor depende umbilicalmente da
variável medida, ou seja, o sensor é
determinado pela variável medida.
Exemplos:
1. termopar, que gera uma tensão em
função da diferença da temperatura
medida e a de referência
2. detector de temperatura a
resistência (RTD) que varia a
resistência elétrica em função da
temperatura medida
3. placa de orifício que gera uma
pressão diferencial proporcional ao
quadrado da vazão volumétrica
medida
4. bourdon C que gera um pequeno
deslocamento em função da
pressão aplicada
5. bóia de um sistema de medição de
nível
6. tubo magnético de vazão que gera
uma fem proporcional à vazão
volumétrica de um líquido
eletricamente condutor que passa
em seu interior
Às vezes, o sensor indica apenas a
presença ou ausência de uma grandeza,
sem fornecer necessariamente o seu valor
numérico. Por exemplo, detector de
vazamento de gases, papel tornasol para
indicar apenas se uma solução é ácida ou
básica.
4.18. Faixa de indicação (range of
indication)
Conjunto de valores compreendidos
entre 0 e 100% das indicações. O 0% é o
limite inferior e o 100% é o limite superior
da indicação.
A faixa de indicação pode ser expressa
em unidade de engenharia ou em
percentagem.
Para o indicador analógico, a faixa de
indicação é igual à faixa da escala.
O início da escala (0%) e o fim da
escala (100%) podem ser iguais a zero,
negativos ou positivos.
4.19. Amplitude de faixa (span of
indication)
Diferença algébrica, em valor absoluto,
do limite máximo (100%) e mínimo (0%) da
faixa de indicação. Exemplos:
1. Largura da faixa de 0 a 100
o
C é
100
o
C
2. Largura da faixa de 20 a 100
o
C é
80
o
C
3. Largura da faixa de -20 a 100
o
C é
120
o
C
4. Largura da faixa de -40 a -20
o
C é
20
o
C
4.20. Escala linear (linear scale)
Escala linear possui graduações ou
marcações uniformemente separadas. O
instrumento possui escala linear quando há
uma relação constante entre as saídas e
entradas de todos os componentes da
malha de medição, incluindo o sensor.
Quando aparece uma não linearidade
na malha, ela pode ser corrigida
imediatamente por alguma operação não
linear inversa, através de circuito,
instrumento ou programa. Quando o sinal
de medição que chega à escala é linear,
usa-se uma escala linear; quando for não
linear, usa-se uma escala não linear
específica. As escalas não lineares mais
utilizadas em instrumentação são a
logarítmica (escala do ohmímetro
analógico) e a raiz quadrática (associada à
medição de vazão com placa de orifício,
geralmente chamada de quadrática – o
que é incorreto!).
Vocabulário de Metrologia
179
5. Características do
Instrumento de Medição
Alguns dos termos utilizados para
descrever as características de um
instrumento de medição podem ser
igualmente aplicáveis a sensores,
condicionadores de sinal ou sistema de
medição e também a medida materializada
ou material de referência certificada.
5.1. Faixa nominal (nominal range)
Faixa de indicação que se pode obter
em uma posição específica dos controles
de um instrumento de medição.
A faixa nominal coincide geralmente
com a faixa de medição ou de calibração
do instrumento.
5.2. Valor nominal (nominal value)
Valor teórico, arredondando ou
aproximado de uma característica do
instrumento de medição que auxilia na sua
utilização. Exemplos:
1. Resistor padrão de 100 Ω.
2. Recipiente volumétrico de 1 L
3. Concentração da quantidade de
matéria de uma solução de ácido
clorídrico, HCl, de 0,1 mol/L
4. 24
o
C como temperatura de
referência para calibração de um
instrumento.
5.3. Condições de Utilização (rated
operating conditions)
Condições de uso para as quais as
características metrológicas especificadas
de um instrumento de medição mantém-se
dentro dos limites especificados.
As condições de utilização geralmente
especificam faixas ou valores aceitáveis
para a quantidade medida e para as
grandezas de influência, como valor e
freqüência da alimentação, ruídos
externos, posição, vibração mecânica,
temperatura e pressão ambientes.
5.4. Condições Limites (limiting
conditions)
Condições extremas nas quais um
instrumento de medição resiste sem danos
e degradação das características
metrológicas especificadas, as quais são
mantidas nas condições de funcionamento
em utilizações subsequentes.
As condições limites de armazenagem,
transporte e operação podem ser
diferentes.
As condições limites podem incluir
valores limites para a quantidade medida e
para as grandezas de influência.
5.5. Condições de Referência
(reference conditions)
Condições de uso prescritas para
ensaio de desempenho de um instrumento
de medição ou para intercomparação de
resultados de medições.
As condições de referência geralmente
incluem os valores de referência ou as
faixas de referência para as grandezas de
influência que afetam o instrumento de
medição.
5.6. Constante de um instrumento
(instrument constant)
Fator pelo qual a indicação direta de um
instrumento de medição deve ser
multiplicada para se obter o valor indicado
do mensurando ou de uma grandeza
utilizada no cálculo do valor do
mensurando.
Instrumentos de medição com diversas
faixas com uma única escala, têm várias
constantes que correspondem, por
exemplo, a diferentes posições de um
mecanismo seletor.
Quando a constante é igual a 1, ela
geralmente não é indicada no instrumento.
Quando não se diz qual é a constante,
entende-se que ela é igual a 1.
Medidores de vazão possuem uma
constante, que relaciona o seu sinal de
saída com o valor da vazão medida. Este
fator K ou constante deve ser
periodicamente calibrada.
5.7. Característica de resposta
(response characteristic)
Relação entre a saída (resposta) e a
entrada (estímulo) de um instrumento, sob
condições definidas. Exemplos: a força
eletromotriz de saída do termopar como
função da entrada de temperatura.
Vocabulário de Metrologia
180
A relação pode ser expressa por uma
equação matemática, tabela numérica ou
gráfico.
Quando a saída varia em função do
tempo, a forma característica de resposta é
a função de transferência da resposta
dividida pela da entrada.
5.8. Sensibilidade (sensitibility)
Variação da saída (resposta) de um
instrumento de medição dividida pela
correspondente variação da entrada
(estímulo). A sensibilidade nem sempre é
linear e pode depender do valor da
entrada.
5.9. Limiar de mobilidade
(discrimination, threshold)
Maior variação da entrada (estímulo)
que não produz variação detectável na
saída (resposta) de um instrumento de
medição, sendo a variável no sinal de
entrada lenta e uniforme.
O limiar de mobilidade pode depender,
por exemplo, do ruído, atrito e também do
valor da entrada (estímulo).
5.10. Resolução (resolution)
Menor diferença entre indicações de um
dispositivo mostrador que pode ser
percebida significativamente.
Para mostrador digital, é a variação na
indicação quando o dígito menos
significativo (o da extrema direita) varia de
um dígito.
5.11. Zona morta (dead zone)
Intervalo máximo no qual uma entrada
(estímulo) pode variar em ambos os
sentidos, sem produzir variação na saída
(resposta) de um instrumento de medição .
A zona morta pode depender da taxa de
variação.
A zona morta, algumas vezes, pode ser
deliberadamente ampliada, de modo a
prevenir variações na saída (resposta)
para pequenas variações na entrada
(estímulo).
5.12. Estabilidade (stability)
Aptidão de um instrumento de medição
em conservar constantes suas
características metrológicas ao longo do
tempo.
A estabilidade pode ser estabelecida em
relação a outra grandeza que não o tempo,
mas isto deve ser explicitamente
declarado.
A estabilidade pode ser quantificada de
vários modos, por exemplo:
1. pelo tempo no qual a característica
metrológica varia de um valor
determinado ou
2. em termos da variação de uma
característica em um determinado
período de tempo.
5.13. Discriminação (transparency)
Aptidão de um instrumento de medição
em não alterar o valor da quantidade
medida.
5.14. Deriva (drift)
Variação lenta de uma característica
metrológica de um instrumento de
medição. Geralmente a deriva é devida à
variação da temperatura ambiente ou do
tempo ou de ambos.
5.15. Tempo de resposta
Intervalo de tempo entre o instante em
que uma entrada é submetido a uma
variação brusca e o instante em que a
resposta atinge e permanece dentro de
limites especificados em torno do seu valor
final estável.
5.16. Exatidão da medição
Exatidão é o grau de concordância entre
o resultado de uma medição e um valor
verdadeiro do mensurando
1. Exatidão é um conceito qualitativo
2. O termo precisão não deve ser
usado para exatidão.
3. A exatidão está relacionada com os
erros sistemáticos do instrumento.
4. A exatidão é obtida através da
calibração periódica do instrumento.
Vocabulário de Metrologia
181
5.17. Classe de exatidão
Classe de instrumentos de medição que
satisfazem a certas exigências
metrológicas destinadas a conservar os
erros dentro de limites especificados. A
classe de exatidão é geralmente indicada
por um número ou símbolo adotado por
convenção e denominado índice de
classe.
5. 18. Repetitividade (de resultados
de medições)
Repetitividade é o grau de concordância
entre os resultados de medições
sucessivas do mesmo mensurando feitas
sob as mesmas condições de medição A
repetitividade representa o grau de
dispersão de várias medidas repetidas
feitas de um mesmo valor do mensurando.
1. Estas condições são chamadas de
condições de repetitividade
2. As condições de repetitividade
incluem
o mesmo procedimento de
medição
o mesmo observador
o mesmo instrumento de
medição, usado sob as mesmas
condições
o mesmo local
repetições em um curto período
de tempo
3. A repetitividade pode ser expressa
quantitativamente em termos da
dispersão característica dos
resultados.
4. A repetitividade é a precisão do
instrumento.
5. A precisão está relacionada com os
erros aleatórios do instrumento.
6. A precisão é mantida através da
manutenção programada do
instrumento.
5.19. Reprodutibilidade
Reprodutibilidade é a proximidade de
consenso entre os resultados de medições
sucessivas do mesmo mensurando feitas
sob condições diferentes de medição
1. Uma expressão válida da
reprodutibilidade requer a
especificação das condições
variadas.
2. As condições variadas podem
incluir:
- princípio de medição
- método de medição
- observador
- instrumento de medição
- padrão de referencia
- local
- condições de uso
3. A reprodutibilidade pode ser
expressa quantitativamente em
termos da dispersão característica
dos resultados.
4. Os resultados são aqui entendidos
como os resultados corrigidos.
5.20. Erro
Um resultado correto da medição não é
o valor do mensurando - isto é, ele está
com erro - por causa da medição
imperfeita da grandeza realizada devido a
variações aleatórias das observações
(efeitos aleatórios), determinação
inadequada das correções para os efeitos
sistemáticos e o conhecimento incompleto
de certos fenômenos físicos (também
efeitos sistemáticos). Nem o valor da
grandeza realizada nem o valor do
mensurando pode ser conhecido
exatamente; tudo que pode ser conhecido
são seus valores estimados. No exemplo
acima da medida da espessura da chapa
pode estar com erro, isto é, pode diferir do
valor do mensurando (a espessura da
chapa), por causa de cada uma das
seguintes contribuições para um erro
desconhecido para o resultado da
medição:
a) pequenas diferenças entre as
indicações do micrômetro quando é
repetidamente aplicada à mesma
grandeza realizada;
b) calibração imperfeita do micrômetro;
c) medição imperfeita da temperatura e
da pressão aplicadas;
d) conhecimento incompleto dos efeitos
da temperatura, pressão barométrica
e umidade na peça ou no micrômetro
ou em ambos.
O resultado de uma medição menos um
valor verdadeiro da grandeza medida (não
precisamente quantificável por que o valor
verdadeiro cai em algum ponto
desconhecido dentro da faixa de
incerteza).
Vocabulário de Metrologia
182
5.22. Limite de Erro Admissível
Valor extremo de um erro admissível
por especificação, norma, legislação, para
um dado instrumento de medição.
5.23. Erro de um instrumento de
medição
Indicação de um instrumento de
medição menos um valor verdadeiro da
grandeza de entrada correspondente.
Como, na prática, não existe um valor
verdadeiro, usa-se o valor verdadeiro
convencional, dado por um padrão
confiável. Para uma medida materializada,
a indicação é o valor atribuído a ela e o
valor verdadeiro convencional é o
fornecido por padrão rastreado.
5.24. Erro no ponto de controle
Erro de um instrumento de medição em
uma indicaçãoo especificada ou em um
valor especificado do mensurando,
escolhido para controle do instrumento.
5.25. Erro no zero (zero error)
Erro no ponto de controle de um
instrumento de medição para o valor zero
do mensurando. Um instrumento apresenta
erro de zero, quando sua saída for
diferente de zero para entrada igual a zero.
Diz se que um instrumento apresenta erro
de zero quando a curva real de calibração
que deveria passar pela origem, não
passa.
5.26. Erro no span (span error)
Um instrumento apresenta erro de zero,
quando a inclinação de sua curva de
calibração for diferente da inclinação
nominal. Diz se que um instrumento
apresenta erro de span quando a curva
real de calibração tem inclinação diferente
da ideal.
5.27. Erro intrínseco (intrinsic error)
Erro de um instrumento de medição,
determinado sob condições de referência.
5.28. Tendência (bias)
Erro sistemático da indicação de um
instrumento de medição. A tendência de
um instrumento de medição é normalmente
estimada pela média dos erros de
indicação de um número apropriado de
medições repetidas.
5.29. Isenção de Tendência (freedom
from bias)
Aptidão de um instrumento de medição
dar indicações isentas de erro sistemático.
5.30. Erro fiducial (fiducial error)
Erro de um instrumento de medição
dividido por um valor especificado para o
instrumento. O valor especificado é
geralmente chamado de valor fiducial e
pode ser, por exemplo, a amplitude da
faixa nominal ou o limite superior da faixa
nominal do instrumento de medição.


Vocabulário de Metrologia
183
6. Conceitos estatísticos
As definições dos termos básicos estatísticos dados aqui foram tiradas da ISO 3534-1
[7]
.
Esta norma deve ser a primeira fonte consultada para as definições de termos não incluídos
aqui.


6.1. Estatística
Uma função das variáveis aleatórias da
amostra.
Uma estatística, como uma função de
variáveis aleatórias, é também uma
variável aleatória e como tal, assume
diferentes valores para a amostra. O valor
da estatística obtida usando-se os valores
observados nesta função pode ser usado
em um teste estatístico ou com uma
estimativa de um parâmetro da população,
tal como uma média ou um desvio padrão.
6.2. Probabilidade
Um número real na escala 0 a 1
atribuído a um evento aleatório.
A probabilidade pode se referir a uma
freqüência relativa de ocorrência em longo
período de tempo ou a um grau de
confiança que um evento possa ocorrer.
Para um alto grau de confiança, a
probabilidade é próxima de 1.
6.3. Variável aleatória
Uma variável que pode tomar qualquer
valor de um específico conjunto de valores
e com a qual é associada uma
distribuição de probabilidade.
1. Uma variável aleatória que pode
tomar somente valores isolados é
chamada de discreta. Uma variável
aleatória que pode tomar qualquer
valor dentro de um intervalo finito ou
infinito é chamada de contínua.
2. A probabilidade de um evento A é
denotada por Pr(A) ou P(A).
Variável aleatória centrada
Uma variável aleatória cuja expectativa
é igual a zero.
Se a variável aleatória X tem uma
expectativa igual a µ, a variável aleatória
centrada correspondente é (X - µ).
6.5. Função distribuição
Uma função dando, para cada valor x, a
probabilidade que a variável aleatória X
seja menor ou igual a x:

F(x) = Pr(X ≤ x)
Distribuição de probabilidade (de uma
variável aleatória
Uma função dando a probabilidade que
uma variável aleatória tome qualquer valor
dado ou pertença a um dado conjunto de
valores.
A probabilidade de um conjunto inteiro
de valores da variável aleatória é igual a 1.
Função densidade de probabilidade
(para uma variável aleatória contínua)
A derivada (quando ela existir) da
função distribuição:

f(x) = dF(x)/dx

f(x)dx é o elemento probabilidade:

f(x)dx = Pr(x < X < x +dx)
Função massa da probabilidade
Uma função dando, para cada valor x
i

de uma variável aleatória discreta, a
probabilidade p
i
que a variável aleatória X
seja igual a x
i
:
p
i
= Pr(X = x
i
)
Desvio padrão (de uma variável
aleatória ou de uma distribuição de
probabilidade
A raiz quadrada positiva da variância:

) X ( V = σ
Momento central de ordem 1
Em uma distribuição de uma única
característica, a média aritmética da q
a

Vocabulário de Metrologia
184
potência da diferença entre os valores
observados e sua média x é:

=

n
1 i
q
i
) x x (
n
1

O momento central de ordem 1 é igual a
zero.
Momento central de ordem q
Em uma distribuição com uma variável,
a expectativa da q
a
potência da variável
aleatória centrada (X - µ):

E[(X - µ)
q
]
O momento central de ordem 1 é a
variância da variável aleatória X.
Distribuição normal; distribuição de
Laplace-Gauss
A distribuição de probabilidade de uma
variável aleatória continua X, a função de
densidade de probabilidade de que é
f x e
x
( ) =

− |
\

|
.
|
1
2
1
2
2
σ π
µ
σ


para -∞ < x < +∞
µ é a expectativa e σ é o desvio padrão
da distribuição normal.
Distribuição t; (Student)
A distribuição t ou distribuição de
Student é a distribuição de probabilidade
de uma variável aleatória continua t cuja
função densidade de probabilidade é

p t
t
( , ) ν
πν
ν
ν ν
ν
=
+
¸

(
¸
(

¸

(
¸
(
+

¸

(
¸
(

+ |
\

|
.
|
1
1
2
2
1
2
1
2
Γ
Γ


onde Γ é a função gama e ν > 0. A
expectativa da distribuição t é zero e sua
variância é ν/(n - 2) para ν > 2. Quando n
→ ∞, a distribuição t se aproxima da
distribuição normal com µ = 0 e σ=1.
A distribuição probabilidade da variável
( ) / ( ) z s z
z
− µ é a distribuição t se a variável
aleatória z é normalmente distribuída com
expectativa µ
z
, onde z é a média
aritmética de n observações
independentes z
i
de z, s(z
i
) é o desvio
padrão experimental de n observações e
n / ) z ( s ) z ( s
i
= é o desvio padrão
experimental da média z com n = ν - 1
graus de liberdade.
6.6. Parâmetro
Uma grandeza usada para descrever a
distribuição de probabilidade de uma
variável aleatória.
6.7. Característica
Uma propriedade que ajuda a identificar
ou diferenciar entre itens de uma dada
população.
A característica pode ser quantitativa
(para variáveis) ou qualitativa (para
atributos)
6.8. População
A totalidade de itens sob consideração.
No caso de uma variável aleatória, a
distribuição de probabilidade é considerada
para definir a população desta variável.
6.9. Freqüência
O número de ocorrências de um dado
tipo de evento ou o número de
observações caindo em uma classe
específica.
Distribuição de freqüência
A relação empírica entre os valores de
uma característica e suas freqüências ou
suas freqüências relativas.
A distribuição pode ser graficamente
apresentada como um histograma, gráfico
de barra, polígono de freqüência
cumulativa ou como uma tabela de duas
vias.
Vocabulário de Metrologia
185
6.10. Expectativa (de uma variável
aleatória ou de uma distribuição de
probabilidade; valor esperado;
média
1. Para uma variável aleatória discreta X
tomando os valores xi dentro das
probabilidades pi, a expectativa, se existir,
é:

µ = =

E X p x
i i
( )

a soma sendo estendida sobre todos os
valores de xi, que pode ser tomado por X.
2. Para uma variável aleatória contínua
X tendo a função densidade de
probabilidade f(x), a expectativa, se existir,
é

µ = =

E X xf x dx ( ) ( )

a integral sendo estendida sobre todo o
intervalo de variação de X.
6.11. Desvio padrão
O desvio padrão é a raiz quadrada
positiva da variância.
Uma vez que uma incerteza padrão do
Tipo A é obtida tomando a raiz quadrada
da variância estatisticamente calculada, é
geralmente mais conveniente quando
determinando uma incerteza padrão do
Tipo B para avaliar um desvio padrão não
estatístico equivalente primeiro e depois
obter a variância equivalente elevando ao
quadrado o desvio padrão.
O desvio padrão da amostra é um
estimador não polarizado do desvio padrão
da população.
Desvio padrão experimental
Desvio padrão para uma série de n
medições do mesmo mensurando é a
grandeza s(q
k
) caracterizando a dispersão
dos resultados e dado pela fórmula:

s q
q q
n
k
k
k
n
( )
( )
=


=

2
1
1


q
k
sendo o resultado da k
a
medição e q
sendo a média aritmética dos n resultados
considerados
1. Considerando a série de n valores
como uma amostra de uma
distribuição, q é uma estimativa não
polarizada da média µ
q
e s
2
(q
k
) é
uma estimativa não polarizada da
variância σ
2
, desta distribuição.
2. A expressão s q n
k
( ) / é uma
estimativa do desvio padrão da
distribuição de q e chamado de
desvio padrão experimental da
média.
3. O desvio padrão experimental da
média é, às vezes, chamado
incorretamente de erro padrão da
média.
6.12. Estimativa
A operação de atribuir, a partir de
observações em uma amostra, valores
numéricos para os parâmetros de uma
distribuição escolhida como o modelo
estatístico da população da qual a amostra
é retirada.
Um resultado desta operação pode ser
expresso como um valor único (ponto
estimado; ou como um intervalo estimado.
Estimador
Uma estatística usada para estimar um
parâmetro da população.
Estimado
O valor de um estimador obtido como
um resultado de uma estimativa.
Intervalo estatístico de cobertura
Um intervalo para o qual se pode
estabelecer, com um dado nível de
confiança, que ele contem no mínimo uma
proporção especificada da população.
1. Quando dois limites são definidos
por estatística, o intervalo tem dois
lados. Quando um dos dois limites
não é finito ou consiste do limite da
variável, o intervalo é de um lado.
2. Também chamado de intervalo de
tolerância estatística. Este termo não deve
ser usado porque ele pode causar
confusão com intervalo de tolerância.
Vocabulário de Metrologia
186
Coeficiente de confiança, nível de
confiança
A probabilidade que o valor da grandeza
medida caia dentro da faixa cotada de
incerteza.
Graus de liberdade
Em geral, o número de termos em uma
soma menos o número de limitações nos
termos da soma.
Média aritmética
A soma dos valores dividida pelo
número de valores.
1. O termo média pode se referir a um
parâmetro da população ou ao
resultado de um cálculo dos dados
obtidos em uma amostra.
2. A média de uma única amostra
aleatória tomada de uma população
é um estimador não polarizado da
média de sua população. Porém,
outros estimadores, tais como média
geométrica, média harmônica,
mediana ou moda, podem também
ser usados.
6.13. Variância
Uma medida da dispersão, que é a
soma dos quadrados dos desvios de
observações de sua média dividida por um
menos o número de observações.
Por exemplo, para n observações x
1
,
x
2
,..., x
n
com média
x
n
x
i
i
n
=
=

1
1


a variância é
s
n
x x
i
i
n
2 2
1
1
1
=


=

( )

1. A variância da amostra é um
estimador não polarizado da
variância da população.
2. A variância é n/(n - 1) vezes o
momento central de ordem 2.
A variância definida aqui é mais
apropriadamente chamada de estimativa
da amostra da variância da população. A
variância de uma amostra é usualmente
definida para ser o momento centro de
ordem 2 da amostra.

A variância de uma variável aleatória é
a expectativa de seu desvio quadrático em
relação a sua expectativa. Assim, a
variância da variável aleatória z com
função densidade de probabilidade p(z) é
dada por

σ µ
2 2
( ) ( ) ( ) z z p z dz
z
= −



onde µ
z
é a expectativa de z. A variância
σ
2
(z) pode ser estimada por

s z
n
z z
i i
i
n
2 2
1
1
1
( ) ( ) =


=



onde
z
n
z
i
i
n
=
=

1
1

e z
i
são n observações independentes de
z.
1. O fator (n -1) na expressão de s
2
(z
i
)
vem da correlação entre z
i
e z e
reflete o fato que há somente (n - 1)
itens independentes no conjunto {zi -
z )
2. Se a expectativa µ
z
de z é
conhecida, a variância pode ser
estimada por:

s z
n
z
i i
i
n
2 2
1
1
( ) ( ) = −
=

µ

A variância da média aritmética das
observações, no lugar da variância das
observações individuais, é a medida
apropriada da incerteza de um resultado
da medição. A variância de uma variável z
deve ser cuidadosamente distinguida da
variância da média z . A variância da
média aritmética de uma série de n
observações independentes z
i
de z é dada
por

σ
σ
2
2
( )
( )
z
z
n
i
=

e é estimada pela variância experimental
da média
s z
s z
n n n
z z
i
i
i
n
2
2
2
1
1
1
( )
( )
( )
( ) = =


=


Vocabulário de Metrologia
187
Variância (de uma variável aleatória ou
de uma distribuição de probabilidade
A expressão do quadrado da variável
aleatória centrada

σ
2 2
= = − V X E X E X ( ) {[ ( )] }
6.14. Covariância
A covariância de duas variáveis
aleatórias é uma medida de sua
dependência mútua. A covariância de
variáveis aleatórias y e z é definida por:

cov(y,z) = cov (z,y) = E{[y-E(y)][z - E(z)]}

que leva a

cov(y,z) = cov (z,y)

= − −
∫ ∫
( )( ) ( , ) y z p y z dydz
y z
µ µ

= −
∫ ∫
yzp y z dydz
y z
( , ) µ µ

onde p(y,z) é a função densidade de
probabilidade conjunta de duas variáveis y
e z. A covariância cov(y,z)] também
denotada por ν(y,z)] pode ser estimada por
x(y
i
,z
i
) obtido de n pares independentes de
observações simultâneas y
i
e z
i
de y e z,
s y z
n
y y z z
i i i i
i
n
( , ) ( )( ) =

− −
=

1
1
1

onde
z
n
z
i
i
n
=
=

1
1


A covariância estimada de duas médias
y e z é dada por s( y , z ) = s(y
i
,z
i
)/n
Matriz de covariância
Para uma distribuição de probabilidade
multivariável, a matriz V com elementos
iguais às variâncias e covariâncias das
variáveis é chamada de matriz covariância.
Os elementos diagonais, ν(z,z) = σ
2
(z) ou
s(z
i
,z
i
) = s
2
(z
i
), são as variâncias e os
elementos fora da diagonal, ν(y,z) ou
s(y
i
,z
i
) são as covariâncias.
6.15. Correlação
A relação entre duas ou várias variáveis
aleatórias dentro de uma distribuição de
duas ou mais variáveis aleatórias.
Muitas medidas estatísticas de
correlação medem somente o grau de
relação linear.
Coeficiente de correlação
O coeficiente de correlação é uma
medida da dependência mútua relativa de
duas variáveis, igual à relação de suas
covariâncias para a raiz quadrada positiva
do produto de suas variâncias. Assim,

ρ ρ
ν
ν ν
ν
σ σ
( , ) ( , )
( , )
( , ) ( , )
( , )
( ) ( )
y z z y
y z
y y z z
y z
y z
= = =

com estimativas

r y z r z y
s y z
s y y s z z
s y z
s y s z
i i i i
i i
i i i i
i i
i i
( , ) ( , )
( , )
( , ) ( , )
( , )
( ) ( )
= = =


O coeficiente de correlação é um
número puro tal que -1 ≤ ρ ≤ +1 ou -1 ≤
r(y
i
,z
i
) ≤ +1.
Notas
1. Como r e r são números puros na
faixa de -1 a +1 inclusive, enquanto
as covariâncias são usualmente
grandezas com dimensões físicas e
tamanhos inconvenientes, os
coeficientes de correlação são
geralmente mais úteis que as
covariâncias.
2. Para distribuições de probabilidade
multivariáveis, a matriz de
coeficientes de correlação é
usualmente dada no lugar da matriz
de covariância. Desde que ρ(y,y) = 1
e r(y
i
,y
i
) = 1, os elementos da
diagonal desta matriz são 1.
3. Se as estimativas de entrada x
i
são
correlatas e se uma variação δ
i
em x
i

produz uma variação δ
j
em x
j
, então
o coeficiente de correlação
associado com x
i
e x
j
é estimado
aproximadamente por

r x x
u x
u x
i j
i j
j i
( , )
( )
( )
=
δ
δ

Vocabulário de Metrologia
188
Esta relação pode servir como base
para estimar experimentalmente os
coeficientes de correlação. Ela também
pode ser usada para calcular a variação
aproximada em uma estimativa de entrada
devido à variação em outra se o coeficiente
de correlação for conhecido.
6.16. Independência
Duas variáveis aleatórias são
estatisticamente independentes se sua
distribuição de probabilidade conjunta é o
produto de suas distribuições de
probabilidades individuais.
Se duas variáveis aleatórias são
independentes, sua covariância e
coeficiente de correlação são zeros, mas o
inverso nem sempre é verdade.
6.17. Representação gráfica
A Fig. 1. mostra algumas das idéias
discutidas na cláusula 3 deste trabalho e
neste Anexo. Ela ilustra por que o foco
deste trabalho é a incerteza e não o erro.
O erro exato de um resultado de uma
medição é, em geral, desconhecido e
desconhecível. Tudo que se pode fazer é
estimar os valores das grandezas de
entrada, incluindo correções para os
efeitos sistemáticos reconhecidos, junto
com suas incertezas padrões (desvios
padrão estimados), ou de distribuições de
probabilidade desconhecidos que são
amostradas por meio de observações
repetidas ou de distribuições subjetivas ou
a priori baseadas em um pool de
informação disponível e então calcular o
resultado da medição dos valores
estimados das grandezas de entrada e a
incerteza padrão combinada das
incertezas padrão destes valores
estimados. Somente se há uma base boa
para acreditar que tudo isso possa ser feito
corretamente, com nenhum efeito
sistemático significativo tendo sido omitido,
pode-se assumir que o resultado da
medição é uma estimativa confiável do
valor do mensurando e que sua incerteza
padrão combinada é um medida confiável
do erro possível.
1. Na Fig. 1(a) as observações são
mostradas como um histograma
para fins ilustrativos.
2. A correção para um erro é igual ao
negativo da estimativa do erro.
Assim, na Fig. 1 e na Fig. 2, uma
seta que ilustra a correção para um
erro é igual em comprimento mas
aponta no sentido oposto à seta que
ilustra o erro e vice-versa. O texto da
figura torna claro se uma seta
particular ilustra uma correção ou
um erro.
Fig. 2 mostra algumas das idéias
ilustradas na Fig. 1 mas de modo diferente.
Mais ainda, ela também mostra a idéia que
pode haver muitos valores do mensurando
se a definição do mensurando é
incompleta (entrada g da figura). A
incerteza resultante deste definição
incompleta como medida pela variância é
avaliada da medição de realizações
múltiplas do mensurando, usando o
mesmo método, instrumentos, local.
Na coluna Variância as variâncias são
entendida serem as variâncias u
i
2
(y)
definidas na eq. (11); assim elas se somam
linearmente, como mostrado.

Apostila\Incerteza CalculoIncerteza1.doc 01 DEZ 97
Vocabulário de Metrologia
189






















































Fig. 1. Ilustração gráfica de valor, erro e
incerteza
(a) Conceitos baseados em grandezas observáveis
Média aritmética não
corrigida das observações
Média aritmética
corrigida das
A média aritmética
corrigida é o valor
estimado do mensurando
e o resultado da medição
Incerteza padrão da média
não corrigida devida à
dispersão das
observações
Correção de todos
efeitos sistemáticos
Incerteza padrão
combinada da média
Inclui a incerteza da média
não corrigida devida à
dispersão das observações e
à incerteza da correção
(b) Conceitos baseados em grandezas desconhecidas
Distribuição desconhecida (aqui
assumida ser normal) da população
inteira de observações não
corrigidas possíveis
Distribuição desconhecida da
população inteira de observações
corrigidas possíveis
Erro desconhecido devido a todos
efeitos sistemáticos conhecidos
Erro desconhecido na média corrigida devido ao
erro aleatório desconhecido na media não
corrigida e ao erro desconhecido na correção
aplicada
Erro residual desconhecido na média
corrigida devido ao efeito sistemático não
conhecido.
Média da população desconhecida
(expectativa) com desvio padrão
desconhecido (indicado pelas linhas
verticais)
Erro aleatório desconhecido da média
não corrigida das observações
Valor do mensurando
não conhecido
Vocabulário de Metrologia
190
Grandeza



a) Observações não
corrigidas





b) Média aritmética não
corrigida das
observações

c) Correção de todos os
efeitos sistemáticos
conhecidos



d) Resultado da
medição




e) Erro residual
(desconhecível)



f) Valor do mensurando
(desconhecível)



g) Valores da
mensurando devidos à
definição incompleta
(desconhecível)


h) Resultado final da
medição


Valor
(não em escala)




































Variância
(não em escala)




























Valor crescente
Única
Fig. 2. Ilustração gráfica de valores, erro e incerteza
(Não inclui a variância devida à
definição incompleta do
mensurando)


191
B
Normas ISO 9000


1. Introdução
As normas de qualidade ISO
apareceram de uma necessidade
crescente de os países garantirem, de
algum modo, a qualidade de todas as
práticas de fabricação e para garantir um
certo nível de consistência no valor dos
produtos e serviços. Elas foram adotadas
no Brasil em 1990, porém apareceram na
Europa no início dos anos 1980 e foram
adotadas nos EUA em 1987. A Europa
adotou estas normas como parte de seu
tratado do mercado comum, estabelecendo
que sem a certificação ISO não há
negócio. Embora isso seja exagerado, os
países envolvidos concordam que este
conjunto de normas de qualidade são
muito importantes no mercado mundial.
As normas ISO 9000 são uma série de
cinco normas - ISO 9000, 9001, 9002,
9003 e 9004 - usadas para documentar,
implementar e demonstrar um programa de
garantia da qualidade da empresa. Elas
fazem isto, de um modo muito genérico,
apresentando três modelos de sistema de
qualidade, resumidos nas normas ISO
9001, 9002 e 9003.
A ISO 9001 é o modelo para projeto e
desenvolvimento, produção, instalação e
serviço. A ISO 9002 se aplica à produção e
instalação e a ISO 9003 se aplica à
inspeção e teste finais. O guia para o uso
destas normas está incluído na ISO 9000 e
o guia para desenvolver o gerenciamento
de qualidade e os elementos do sistema
estão descritos na ISO 9004. As definições
dos conceitos de qualidade estão descritas
em outro documento, ISO 8402, Quality
Vocabulary.
As normas não fornecem informações
específicas de como fabricar ou fabricar
um produto com qualidade. As normas não
garantem que o fabricante certificado
fornece um produto com qualidade. As
normas apenas garantem que um
fabricante possui um sistema de qualidade
no local e que estes procedimentos do
programa de qualidade estão
documentados e são observados por todos
os empregados.
As normas são escritas de um ponto de
vista de contrato com duas partes. Elas
são projetadas para modelar um sistema
de qualidade que irá encorajar um
vendedor a satisfazer as exigências de
qualidade que um comprador pode esperar
do produto final.
As normas ISO 9000 não foram escritas
pela e para a Comunidade Européia, mas
por uma organização mundial, com mais
de 100 membros, em Genebra, Suíça. O
Brasil é representado pela ABNT
(Associação Brasileira de Normas
Técnicas), uma empresa não
governamental responsável pelas normas
brasileiras.
Em 1992, aproximadamente 52 países,
incluindo o Brasil, já tinham adotado
oficialmente as normas ISO 9000. Como
as normas são muito genéricas, qualquer
país pode fazer pequenas modificações e
alterações de linguagem e publicá-las com
títulos diferentes.
A certificação ISO 9000 é dolorosa para
companhias que não estão preparadas.
Pode-se levar mais de um ano para se
ficar pronto para uma primeira auditoria. O
processo de auditoria em si pode levar de
meses até alguns anos. Mesmo uma
companhia que já tenha um programa de
gerenciamento de qualidade pode ter muito
Normas ISO 9000

192
trabalho para ficar de conformidade com as
exigências do certificador ISO. As normas
não são específicas, mas simplesmente
exigem que "todos os instrumentos sejam
calibrados corretamente" e que seja
"escrito um manual de qualidade".
2. Aspectos Legais
A norma ISO 9000 é voluntária, porém
se torna compulsória para muitos
fabricantes e fornecedores das principais
firmas internacionais, especialmente em
eletrônica, computadores, aeroespacial,
transporte e nuclear. As industriais que já
possuem suas próprias normas rigorosas,
como farmacêutica e de alimentos,
também adotam a ISO 9000 como norma
adicional.
A ISO 9000 é aceita por todos os
órgãos nacionais de normas. Em algumas
situações, ela substitui outras normas
nacionais. No Brasil, a série de normas foi
traduzida e adaptada pela ABNT,
assumindo a numeração NB 900X - ISO
900X (X variando de 0 a 4) e registrada no
INMETRO como NBR 1900X. Nos EUA, as
normas ISO são distribuídas através da
ANSI e pela American Society for Quality
Control (ASQC) e os documentos são
ANSI/ASQC Q90 a Q94.
Ela é um mecanismo pronto para
incorporar e controlar os regulamentos
compulsórios. A ISO 9000 é uma norma
para um sistema de gerenciamento
integrado da qualidade no ambiente
industrial.
A conformidade com a norma ISO 9000
pode:
1. reduzir desperdícios,
2. diminuir tempo de paralisação
3. eliminar a ineficiência da mão de obra
4. aumentar a produtividade.
A norma se envolve no projeto, desenvolvimento,
produção, instalação, inspeção, ensaios finais e
assistência técnica pós venda. Ela possui implicação
entre fornecedor e cliente.
A norma ISO 9000 relaciona os cinco
grupos legais de interesse:
1. cliente
2. proprietário
3. fornecedor
4. empregador
5. sociedade
Ela menciona explicitamente a saúde a
segurança no local de trabalho, proteção
do meio ambiente, conservação de energia
e dos recursos naturais. Também se
dedica a discussões de bom senso a
respeito da qualidade. Ela capacita os
usuários com maior consistência, clareza e
compreensão.
A norma pode não transformar todo o
processo industrial em algo altamente
produtivo, mas eliminará muitos erros e
confusões nas comunicações e fornecerá
um sistema pratico de controle. Por tudo
isso, hoje há um crescimento epidêmico da
ISO 9000 no Brasil e no mundo.
3. Histórico
A norma ISO 9000 foi publicada em
1987 pela ISO (International Organization
for Standartization - Organização
Internacional de Normalização). Ela se
baseou principalmente na norma inglesa
BS 7750.
A norma relaciona e trata de:
1. normas do produto
2. calibração e medição
3. sistemas de gerenciamento da
qualidade.
A maior parte dos produtos utilizados na
vida cotidiana apresenta normas.
A maioria das atividades humanas
utiliza medições, que precisam ser aceitas.
Estas medições devem estar monitoradas
pelos órgãos nacionais de calibração e
medição.
A calibração e a medição dentro do
processo industrial constituem parte
integrante da norma. O treinamento de
todo o pessoal envolvido é exigido pela
norma.
Qualidade é adequação ao uso. É a
conformidade às exigências e
especificações. É o produto projetado e
fabricado para executar apropriadamente a
função prevista.
O gerenciamento da qualidade envolve:
1. definição dos objetivos, feita através de
procedimentos detalhados, atribuídos a
cada etapa, desde a compra dos
componentes até a expedição do
produto acabado.
2. normas, atribuídas a componentes,
fornecedores, fabricação e
Normas ISO 9000

193
conformidade com especificações dos
produtos.
3. sistema. A definição dos objetivos e os
procedimentos não são suficientes. É
necessário um sistema de medição para
o suprimento, materiais recebidos,
desempenho no processo, inspeção
final e expedição. Também é necessário
um sistema de testes e aferições dos
equipamentos de ensaio.
Deve-se fazer certo desde a primeira
vez. Deve-se prevenir em vez de
acompanhar e corrigir. O sistema
satisfatório opera virtualmente sem
inspeção final e sem departamento de
controle da qualidade. O controle é
preditivo antecipatório (feedforward) e não
a realimentação negativa (feedback)
A demonstração da norma ISO 9000 é
aberta, transparente. É uma atitude, um
estilo de vida. Torna acessível o chão de
fábrica, expõe cada setor, mostra a relação
entre os membros da equipe, mostrando
ao cliente uma organização aberta.
4. Normas ISO
Há cinco normas internacionais
relacionadas com a garantia da qualidade,
conhecidas como ISO 9000.
4.1. ISO 9000
ISO 9000 - Gerenciamento da
Qualidade e Normas de Garantia da
Qualidade (1987) - Diretrizes para Seleção
e Uso

ISO 9000-1 - Projeto do Comitê (rev.
1992). Projeto funcional planejado para
1996 (1992)

ISO 9000-2 - Diretrizes Genéricas para
a Aplicação da ISO 9001, ISO 9002 e ISO
9003 - Projeto da norma ISO/DIS 9000-2
(1992)

ISO 9000-3 - Diretrizes para Aplicação
da ISO 9001 em Desenvolvimento,
Suprimento e Manutenção do Software -
1991 como ISO 9000-3.

ISO 9000-4 - Aplicação de
Gerenciamento de Confiança - 1992 (IEC
300-1).
4.2. ISO 9001
ISO 9001 - Sistemas de Qualidade -
Modelo de Garantia da Qualidade no
Projeto, Desenvolvimento, Produção,
Instalação e Assistência Técnica - 1987,
Rev. JUL 1994, Projeto funcional para
1996.
A ISO 9001 destina-se a empresas que
precisam assegurar a seus clientes
conformidade às exigências especificadas
é atendida por todo ciclo, desde o projeto
até a assistência técnica pós venda. É a
norma mais abrangente e completa pois
trata do projeto, desenvolvimento,
produção, instalação e assistência técnica.
A norma estabelece a noção de revisão
do contrato, com definição e
documentação do contrato, resolução de
diferenças da proposta e avaliação da
capacidade do fornecedor de atender as
exigências contratuais.
No controle do projeto, envolve o
planejamento, atribuição de atividades,
organização de interfaces, entradas e
saídas e verificação do projeto. Inclui
alterações no projeto, aprovação e
distribuição do documento, controlando as
alterações no documento.
O restante da norma é rotineiro: inclui
compra, identificação e rastreabilidade do
produto, controle da produção, inspeção e
ensaio. A inspeção, medição e calibração
tanto do ensaio como do próprio
equipamento de medição estão incluídas,
pois isso constitui controle de produtos
não-conformes. Manuseio,
armazenamento, empacotamento e
expedição também são tratados, pois são
registros da qualidade, auditoria e
treinamento.
4.3. ISO 9002
ISO 9002 - Sistemas de Qualidade -
Modelo de Garantia da Qualidade na
Produção e Instalação - 1987, Rev. 1992,
Projeto funcional para 1996.
A ISO 9002 demonstra a capacidade do
fornecedor na produção e instalação. É
menos rígida que a 9001. É a mais comum
para fabricantes.
Normas ISO 9000

194
4.4. ISO 9003
ISO 9003 - Sistemas de Qualidade -
Modelo de Garantia da Qualidade em
Inspeção e Ensaio Finais - 1987, Rev.
1992, Projeto funcional para 1996.
A ISO 9003 demonstra a capacidade de
inspeção e ensaio de produtos. Quase
metade dos elementos da ISO 9004 é
exigida neste caso. Ela inclui controle de
documentação, identificação do produto e
marcação, controle de produtos
reprovados nos ensaios específicos,
sistema de manuseio e armazenamento,
controle de equipamento de medição e
ensaio, técnicas estatísticas e treinamento.
4.5. ISO 9004
ISO 9004 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes - 1987.
A ISO 9004 trata de todas as formas de
serviços, inclusive de fabricação e
fornecimento de produtos.

ISO 9004-1 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes - Rev. 1992, Projeto
funcional para 1996.

ISO 9004-2 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes para Serviços -
1991.
ISO 9004-3 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes para Materiais
Processados - Projeto da norma ISO/DIS
9004-3 (1992)

ISO 9004-4 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes para
Aperfeiçoamento da Qualidade - Projeto da
norma ISO/DIS 9004-4 (1992)

ISO 9004-5 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes para Planos de
Qualidade - Projeto do comitê ISO/DIS
9004-5 (1991)

ISO 9004-7 - Gerenciamento da
Qualidade e Elementos do Sistema da
Qualidade - Diretrizes para Gerenciamento
da Configuração - Projeto do comitê
ISO/DIS 9004-7 (1992)
4.6. Outras normas ISO
ISO 8042 (1986), revista em 1992 -
Vocabulário do Gerenciamento da
Qualidade e Garantia da Qualidade.

ISO 10011-1 - Diretrizes para Auditoria
dos Sistemas da Qualidade - Auditoria
(1990)
ISO 10011-2 - Diretrizes para Auditoria
dos Sistemas da Qualidade - Critérios de
Qualificação para Auditores do Sistema da
Qualidade (1991)

ISO 10011-3 - Diretrizes para Auditoria
dos Sistemas da Qualidade -
Gerenciamento dos Programas de
Auditoria (1991)

ISO 10012-1 - Requisitos de Garantia
da Qualidade para Equipamento de
Medição - Sistema de Confirmação
Metrológico para Equipamento de Medição
(1992)

ISO 10012-2 - Requisitos de Garantia
da Qualidade para Equipamento de
Medição - Controle do Processo de
Medição (Projeto funcional, data
imprevista)

ISO 10013 - Diretrizes para
Desenvolvimento de Manuais da
Qualidade - Projeto do comitê ISO/CD
10013 (1992)

ISO XXXXX - Economia em Qualidade -
Projeto funcional, data e número ainda
desconhecidos.
Normas ISO 9000

195
5. Filosofia da Norma
A filosofia da norma não é ensaiar com
o propósito de encontrar falhas e sim ter o
produto adequado na primeira vez e usar a
inspeção e o ensaio para garantir sua
conformidade. O princípio é prevenção e
não deteção.
A ISO 9000 exige a verificação
completa do produto para acrescentar às
inspeciones e aos ensaios durante a
produção e recomenda:
1. a verificação total de cada produto
proveniente da produção, incluindo
nova verificação na ordem de compra
ou amostragem do lote e
amostragem contínua,
2. auditoria das unidades
representativas da amostra.
5.1. Controle e manutenção do
equipamento
Antes da ISO 9000 havia maior
consideração quanto ao controle da
produção e da engenharia de manutenção.
Na década de 1980, a manutenção foi
identificada como fator secundário apenas
quanto à eficácia que produziria uma
economia considerável, se controlada.
Com relação à norma ISO 9000, é
impossível operar uma fabrica dentro de
um nível satisfatório de gerenciamento da
qualidade sem um programa de
manutenção preventiva. Porém, além da
manutenção, o equipamento deve ser
verificado quanto a tendências e precisão,
de modo regular e recalibrado sempre que
necessário.
Na revisão de 1994, a ISO 9001 exige a
manutenção adequada de equipamentos
para assegurar a continuidade da
capabilidade do processo (art. 4.9 – g)
5.2. Controle do equipamento de
medição e ensaio
Não basta testar a precisão de um
medidor; é necessário um sistema para
controlar a exatidão dele quanto a
medição. Isto implica em laboratórios de
ensaio e calibração e centros nacionais de
calibração, envolvendo toda espécie de
medição, química, elétrica, eletrônica,
física e pneumática. Uma companhia de
grande porte deve ter um laboratório
interno próprio de calibração e ensaio,
porém, deverá rastrear seus equipamentos
contra um centro nacional.
A norma exige:
1. especificação e aquisição
adequadas: amplitude, tendências,
precisão, robustez e durabilidade
2. calibração inicial antes do uso
3. solicitação periódica para calibração
4. evidencia documentaria dos itens
anteriores
5. rastreabilidade quanto às normas de
referência
6. ação corretiva, quando necessário.
O artigo seminal da norma ISO 9001 é o
4.11. Controle de equipamentos de
inspeção, medição e ensaios., com dois
sub itens:
1. Generalidades
2. Procedimento de controle
5.3. Calibração do equipamento
Todo equipamento usado para medir
qualquer parâmetro, que se estiver
impreciso pode afetar criticamente a
qualidade, deve ser incluído no sistema de
calibração. Deve existir um Procedimento
de Calibração, que inclua a lista de
equipamentos que requerem calibração e
qual a frequência de calibração exigida.
Deve ser feito um Cronograma de
Calibração. Todo equipamento pertencente
ao sistema de calibração deve ter uma
etiqueta afixada com detalhes sobre a
próxima data de calibração.
Toda calibração segue uma norma
nacional. Quando o equipamento estiver
fora da calibração, será removido
imediatamente e levado para o Gerente da
Qualidade. Se possível, o equipamento
deve ser substituído e enviado para
recalibração. Deve haver um Procedimento
de ação corretiva, com instruções.
O cronograma deve ser cumprido. Para
cada item do sistema de calibração, há um
arquivo com detalhes dos resultados de
todas as calibrações.
Todos os operadores dos equipamentos
de inspeção e ensaios são responsáveis
para garantir que o equipamento esteja
aferido, verificando as etiquetas.
Todo item do equipamento de medição
e ensaio deve ter um número de inventário,
que é atribuído no recebimento.
Normas ISO 9000

196
Deve-se garantir que todo equipamento
usado com propósitos de medição seja
adequado à sua aplicação.
Os itens de equipamento de medição e
ensaio classificados como inativos ou
usados como referência e que não exijam
calibração devem ser identificados como
tal, através de uma etiqueta de Calibração
Não Exigida.
Deve-se garantir que todos os
fornecedores ou subcontratados utilizados
no projeto e fabricação do dispositivo
tenham um sistema de calibração
satisfatório, através de auditorias de
fornecedores.
6. Equipamento de Inspeção,
Medição e Teste
A cláusula 4.11 da Norma ISO 9000
apresenta de controle de equipamentos de
inspeção, medição e ensaios. Ela se aplica
a equipamentos usados na satisfação das
exigências das inspeções de recebimento,
processo e final e teste. É útil enfocar este
elemento da perspectiva de que cada
sistema de medição é um processo
envolvendo materiais, equipamentos,
procedimentos, pessoas e condições
ambientes.

O fornecedor deve estabelecer e manter
procedimentos documentados para
controlar, calibrar e manter os
equipamentos de inspeção, medição e
ensaios (incluindo software de ensaio)
utilizados pelo fornecedor para demonstrar
a conformidade do produto com os
requisitos especificados. Os equipamentos
de inspeção, medição e ensaios devem ser
utilizados de tal forma que assegurem que
a incerteza das medições seja conhecida e
consistente com a capacidade de medição
requerida.

Deve-se manter um controle suficiente
sobre todos os sistemas de controle
usados no desenvolvimento, fabricação,
instalação e serviço de um produto para
fornecer confiança em qualquer decisão ou
ação baseada nos dados de medição. O
controle deve ser exercido sobre
indicadores locais, instrumentos, sensores,
equipamento de teste e programas de
computador. Além disso, a instrumentação
de processo que pode afetar as
características especificadas de um
produto ou serviço deve ser controlada
convenientemente.
Para os sistemas de medição de
produto e serviço, os métodos estatísticos
são ferramentas valiosas para conseguir e
demonstra conformidade com as
especificações. Em particular, os métodos
estatísticos são ferramentas preferidas no
preenchimento da exigência global que
"equipamento deve ser usado de modo
que garanta que a incerteza da medição
seja conhecida e seja consistente com a
capacidade de medição requerida". Estes
métodos podem também ser usados para
monitorar e manter sistemas críticos de
medições em um estado de controle
estatístico.

O fornecedor irá
a) determinar as medições a serem
feitas e a exatidão requerida e selecionar
os equipamentos apropriados de inspeção,
medição e ensaios com exatidão e
precisão necessárias;

O fornecedor precisa identificar todas as
medições necessárias para demonstrar
que o produto está de conformidade com
as necessidades. Isto inclui as medições
do produto comprado, medições de
controle de processo e medições do
produto acabado ou serviço. Em termos
gerais, sempre que o instrumento de
inspeção, medição e teste fornece dados
requeridos pelo sistema de qualidade,
então o equipamento deve ser identificado,
controlador, calibração e mantido de
acordo com as especificações da cláusula
4.11.
O equipamento referido aqui é restrito
ao usado para controlar e verificar a
qualidade do produto. A instrumentação da
planta e os equipamentos de testes
fornecidos para a segurança, controle
ambiental, conservação de energia ou
material, podem permanecer fora do
sistema de qualidade. Porém, inclua todos
os equipamentos críticos de inspeção,
teste ou medição no sistema de garantia
da qualidade para medições, independente
do objetivo.
Normas ISO 9000

197
Para cada equipamento de medição e
teste deve ser especificado e selecionada
aquele que fornece a precisão, exatidão,
robustez e confiabilidade nas condições
reais de serviço.

O fornecedor irá
b) identificar todos dos equipamento de
inspeção, medição e ensaios que possam
afetar a qualidade do produto e calibrá-los
e ajustá-los a intervalos prescritos ou antes
do uso, contra equipamentos certificados
tenham uma relação valida conhecida com
padrões nacional ou internacionalmente
reconhecidos. Quando não existirem tais
padrões, a base usada para calibração
deve ser documentada;

A calibração de equipamento de
inspeção, medição e teste deve incluir o
seguinte:
1. Verificação inicial da calibração antes
de colocar em operação, verificando
a conformidade com a exatidão e
precisão necessárias. O software e
procedimentos de controle de
equipamento automático de teste
também devem ser verificados.
2. Fazer verificações programadas
periódicas dos sistemas de medição.
Quando fora do critério de aceitação,
fazer recalibração, ajustes ou
reparos para restabelecer a exatidão
e precisão em operação. A
recalibração geralmente deve ser
feita somente quando os testes
indicarem que o sistema de medição
estiver estatisticamente fora de
controle. Recalibração excessiva
pode aumentar a variabilidade total.
3. Fazer a rastreabilidade dos padrões
de calibração até os padrões
nacionais e internacionais, se eles
existirem. Quando reconhecidamente
estes padrões não existirem, usar
padrões internos. A preparação e
testes destes padrões internos
devem estar de acordo com
procedimentos documentados e
aprovados.
Uma orientação nas exigências gerais
para garantir a qualidade da calibração
pode ser encontrada na norma
ANSI/ASQC Standard M1-1987 -
Calibration Systems.
A indústria de processo freqüentemente
usa materiais de referência internos, juntos
com métodos estatísticos para validar o
processo completo de medição. O uso de
um material de referência certificado para
verificar a exatidão (incerteza sistemática)
geralmente invalida somente parte de um
dado processo de medição.

O fornecedor irá
c) definir o processo empregado para a
calibração de equipamentos de inspeção,
medição e ensaios, incluindo detalhes
como: tipo de equipamento, identificação
única, localização, frequência de
conferência, método de conferência,
critérios de aceitação e a ação a ser
tomada quando os resultados forem
insatisfatórios;

O fornecedor deve considerar a
seguinte recomendação nos
procedimentos de desenvolvimento e
documentação:
1. Os procedimentos de calibração
devem ser documentados,
aprovados, mantidos e controlados
como uma parte do sistema de
qualidade. Estes procedimentos
devem definir o critério de aceitação
ou limites e frequência dos testes.
2. O critério de aceitação deve ser a
precisão e exatidão requeridas para
o teste mais exigente para que este
equipamento é usado.
3. O intervalo de tempo entre as
verificações de calibração e
manutenção devem ser razoáveis
para a necessidade: o fornecedor
determinar isto baseado na
experiência e conhecimento de como
o equipamento é usado. O
equipamento e, onde apropriado, os
materiais usados no teste devem ser
verificados, calibrados e mantidos de
acordo com procedimentos escritos.
4. Onde um sistema de medição é
determinado estar fora de controle ou
fora dos limites de aceitação, fazer a
ação corretiva. A revisão dos
registros de controle estatístico é
geralmente necessária e útil para
identificar quando e se ações
corretivas são necessárias. Se os
registros estatísticos mostram que o
Normas ISO 9000

198
processo de medição está fora de
controle (i.e., existe uma causa
especial), o usuário deve remover a
causa antes da recalibração.

O fornecedor irá
d) identificar equipamento de inspeção,
medição e ensaios com um indicador
adequado, ou registros de identificação
aprovados, para mostrar a situação da
calibração;

Fabricantes de instrumentos padrão de medição
especificam e, geralmente, fornecem certificação da
precisão e exatidão de seus equipamentos, quando
entregues. Estas especificações ou certificados de
capacidade devem ser comparadas com as
exigências do processo, contrato, sistema de
qualidade e métodos de teste. A verificação da
capacidade do dispositivo contra a especificação ou
certificado do fabricante é recomendada. Esta
informação deve ser incluída na documentação do
sistema de qualidade para o equipamento de
inspeção, medição e teste.
Na indústria de processo, são comuns
equipamentos e procedimentos de
medição complexos. O desenvolvimento
de sistemas especiais de medição deve
incluir determinações da precisão e
exatidão. Considerar, inclusive, o
laboratório do comprador nos estudos de
métodos de testes para produtos
acabados. Estes estudos devem ser
conduzidos usando procedimentos aceitos,
como a norma ASTM 4691-87 Standard
Practice for Conducting an Interlaboratory
Test Program to Determine the Precision of
Test Methods.
A avaliação de qualquer capacidade de
sistema de medição deve incluir estudos
da variação devido a amostragem. Na
indústria petroquímica, a variância devida
aos procedimentos de amostragem é
geralmente muito significativa. O controle
de procedimentos de amostragem é uma
parte necessário do controle do sistema de
medição.
Onde é usado software de computador,
como parte do sistema de medição, é
necessário testar o desempenho do
software antes dele ser usado para liberar
material para uso ou venda.

O fornecedor irá
e) manter registros de calibração para
os equipamentos de inspeção, medição e
ensaios;
f) avaliar e documentar a validade dos
resultados de inspeção e ensaios
anteriores quando os equipamentos de
inspeção, medição ou ensaios forem
encontrados fora de aferição;
Um método muito usado para evidenciar
a calibração é a colocação de etiquetas
físicas em cada peca do equipamento de
inspeção, medição e teste. A etiqueta é
marcada com a identificação do
dispositivo, o status corrente de sua
calibração, a identificação da pessoa que
fez a calibração e a próxima data de
calibração.
Na indústria petroquímica, onde
centenas de dispositivos de medição são
usados no processo de produção,
alternativas práticas podem ser usadas,
como registros baseados em computador
com condições de verificar o status da
calibração. O usuário deve ser capaz de
demonstra que o sistema efetivamente
evita o uso de medição de um
equipamento critico de inspeção, medição
e teste quando sua data de calibração está
vencida.
Além do status de calibração, os
registros de cada parte do equipamento de
inspeção, medição e teste, devem incluir
todos os dados da cláusula 4.11 (c).
A manutenção de rotina e a verificação
da precisão e exatidão dos sistemas de
medição durante a produção devem incluir
o arranjo dos dados obtidos usando
amostras de referência ou padrão.
Para cada sistema de medição incluído
no escopo desta exigência, é necessário
identificar o equipamento e materiais
usados para fazer as medições. Os
materiais particulares (p. ex., soluções
analíticas padrão soluções buffer) devem
ser identificadas por um número de
etiqueta ou de algum outro modo que
satisfaça as exigências de segurança e
indique a data de expiração do material.
Normas ISO 9000

199

O fornecedor irá
g) assegurar que as condições
ambientais sejam adequadas para
calibrações, inspeções, medições e
ensaios que estejam sendo executados;

Quando um sistema de medição é
encontrado fora de calibração ou fora do
controle estatístico, esta parte do sistema
requer uma análise das medições
anteriores obtidas com o sistema de
medição. Os produtos originados enquanto
as medições estavam erradas podem
requerer novos testes para verificar a
conformidade com as especificações. Os
registros devem ser mantidos dos
resultados da verificação da medição,
incluindo qualquer substituição de
medições incorretas nos registros do
sistema de qualidade.

O fornecedor irá
h) assegurar que o manuseio,
preservação e armazenamento dos
equipamento de inspeção, medição e
ensaios sejam tais que a exatidão e a
adequação ao uso sejam mantidas;
j) proteger as instalações de inspeção,
medição e ensaios, incluindo tanto
materiais e equipamentos como software
para ensaios, contra ajustes que poderiam
invalidar as condições de calibração.

Esta seção da Normal contem
exigências para garantir que a capacidade
de todo equipamento de inspeção,
medição e teste é protegido contra dano ou
ajustes errados. Dispositivos apropriados
de proteção, blindagens e instruções de
trabalho devem ser incorporados ao
sistema de qualidade para proteger este
equipamento. As condições ambientais
apropriadas para o sistema de medição
devem ser continuamente mantidas.

A situação de inspeção e ensaios do
produto deve ser identificada através de
meios adequados, os quais indiquem a
conformidade ou não do produto com
relação a inspeção e ensaios realizados. A
identificada da situação de inspeção e
ensaios deve ser mantida como definido no
plano de qualidade ou procedimentos
documentados, ao longo da produção ,
instalação e serviços associados do
produto, para assegurar que somente
produto aprovado pela inspeção e ensaios
requeridos ou liberado sob concessão
autorizada seja expedido, utilizado ou
instalado.

A exigência relacionando o
equipamento ou programa de computador
de teste se aplica a tais coisas como:
1. moldes ou tintas usadas para
preparar amostras para teste
2. plaquetas padrão de cor
3. amostras de referência usadas para
avaliar aparência, fragrância e outros
fatores
4. programa de sistema de teste para
análise de espectro
5. equipamento de cromatógrafos a gás
Os registros e dados de projeto,
desenvolvimento, controle do sistema de
medição devem ser mantidos. O usuário
sempre pode requerer e rever estes dados
para verificar se os sistemas fornecidos
são adequados.
7. Certificação pela ISO 9000
7.1. Projeto
Introdução
Atualmente, no Brasil, há uma busca
frenética da certificação pela ISO 9000.
Para tal, qualquer firma deve ter um
Sistema de Calibração e Calibração dos
instrumentos. O ponto de partida da
implantação de um Sistema eficiente e
eficaz é o treinamento de todo o pessoal
envolvido no processo. O pessoal deve ter
curso de Metrologia onde sejam mostrados
as bases teóricas e os aspectos técnicos
para começar a dominar com segurança o
sistema e passar a trabalhar de modo
Normas ISO 9000

200
sistemático e transparente para implantar o
Sistema de Qualidade que seja aceito e
certificado conforme as normas ISO 9000.
Somente a perseverança e insistência
de um pessoal chave fará o sistema
funcionar. O seguimento sistemático e o
rastreamento contínuo de todos os passos
do processo nas áreas envolvidas, através
de auditorias sérias, deve sustentar o
Sistema e lhe dar credibilidade.
Lógica do Sistema
Deve-se ter um Diagrama de Fluxo
(Flow Chart) para cada atividade do
sistema e para a elaboração dos
Procedimentos. Este diagrama deve ser
claro, objetivo e eficaz.
Deve-se desenvolver Procedimentos
Administrativos, Procedimentos Técnicos
para classes de instrumentos e Tabelas
Técnicas para os instrumentos específicos.
Todos estes procedimentos, mesmo com
enfoques diferentes, devem ser
consistentes entre si.
Deve-se ter, no mínimo, os seguintes
Procedimentos
1. Composição da Malha de
Instrumentos, para fins de cálculo de
incertezas instaladas,
2. Composição da Malha de
Instrumentos, para fins de cronograma de
calibração
3. Calibração dos instrumentos
componentes da Malha, como sensores,
transmissores, conversores, indicadores,
registradores, fios de extensão de
termopares.
Abrangência
O Sistema de Calibração e Ajuste deve
incluir todas as malhas que impactam a
qualidade, direta ou indiretamente e que
garantam a continuidade operacional da
planta. A sistemática deve garantir que
qualquer alteração (retirada ou colocação)
deva ser feita por consenso entre os
responsáveis envolvidos (Operação e
Manutenção), a qualquer momento.
Em instrumentação, se medem,
monitoram e controlam as variáveis de
processo por vários motivos, entre os quais
se destacam:
1. qualidade,
2. segurança,
3. custódia,
4. balanço de processo,
5. economia de energia,
6. ecologia e
7. saúde ocupacional
Atualmente, como o Programa de
Calibração e Ajuste dos Instrumentos é o
que possui o melhor marketing
promocional e tem o suporte da alta
direção da empresa, todas as áreas
tendem a incluir neste programa outros
instrumentos que não impactam a
qualidade, mas que devem ser
periodicamente calibrados e aferidos. Esta
filosofia deve ser alterada e paralelo ao
programa de Calibração e Ajuste dos
Instrumentos da Qualidade, devem ter
outros programas, igualmente cumpridos,
relacionados com segurança, custódia,
balanço, conservação de energia, ecologia
e saúde ocupacional.
Todo instrumento apresenta incerteza
devida à precisão e incerteza devida à
exatidão. É necessário haver um programa
de manutenção preventiva e corretiva do
instrumento para garantir sua precisão e é
necessário haver um programa de
calibração para garantir sua exatidão. Por
isso, o Sistema de Garantia da Qualidade
deve contemplar o Sistema de Calibração
– Ajuste e um Sistema de Manutenção
Preventiva e Corretiva.
A filosofia do Sistema deve considerar
apenas as malhas abertas de indicação e
registro. Nas malhas de controle, somente
o sensor, condicionador de sinal e
indicador ou registrador fazem parte do
sistema, não entrando o controlador nem o
elemento final de controle.
Também faz parte do Sistema e
geralmente é esquecido pelo pessoal de
Instrumentação, o Sistema de Calibração
dos Instrumentos de Laboratório e por isso
deve haver comunicação e consenso entre
os sistemas da Manutenção e do
Laboratório.
Linguagem
A linguagem empregada nos
procedimentos deve ser simples e clara,
empregando-se termos conhecidos por
todos os envolvidos, necessitando de um
mínimo de definições adicionais.
Deve haver uma consolidação dos
procedimentos e uma padronização de
linguagem, pois alguns procedimentos
Normas ISO 9000

201
serão usados em mais de uma área
(Manutenção e Laboratório).
O início da sabedoria é chamar as
coisas pelos seus próprios nomes.
Todos os instrumentos do Sistema
devem ser cadastrados, incorporando os
símbolos usados nas normas de
simbologia de instrumentos e usando os
termos consagrados pela Instrumentação.
Dados Técnicos
Somente o essencial deve ser escrito
nos procedimentos administrativos,
técnicos e relatórios. Qualquer dado
técnico só deve ser escrito e constar em
um documento se for utilizado pelo
usuário.
Deve-se padronizar a linguagem técnica
e usar somente termos em português; e.g.,
usar faixa em vez de range. e largura de
faixa em vez de span.
Tabelas
Na elaboração de tabelas para registros
de calibração e ajuste, deve-se colocar a
unidade da grandeza em um quadro
superior, uma única vez e não deve ser
repetida em todas os quadros da tabela.
Tolerâncias
As tolerâncias ou incertezas devem ser
expressas em
1. unidades de engenharia,
preferivelmente
2. na mesma unidade, para que se
possa verificar diretamente a adequação
ao uso da malha instalada
3. quando expressa em percentagem,
esclarecer se é percentagem do fundo de
escala ou do valor medido
4. algarismos significativos consistentes
entre si e com a precisão dos
instrumentos.
Unidades de engenharia
Assim como os procedimentos devem
ser escritos em português gramaticalmente
correto, as unidades de engenharia, com
nomes e símbolos corretos devem ser as
do SI (símbolo de Sistema Internacional de
Unidades).
Abreviaturas e símbolos
Os nomes e símbolos das unidades
estão claramente definidos no SI e devem
ser seguidos. Na documentação, deve-se
também padronizar de nomes e de
abreviaturas de nomes.
Deve se fazer um procedimento para
abreviar os nomes de áreas, equipamentos
e instrumentos, pois isso é fundamental
para se ter uma manipulação correta dos
dados nos programas de computador,
definindo a quantidade de letras na
abreviatura, uso do ponto e do espaço e
colocação de preposição.
Quantidade de documentos
Há uma crítica generalizada de que o
Sistema de Calibração e Ajuste envolve
muita papelada e que esta papelada é
inútil e perda de tempo. É muito difícil
mudar a mentalidade de uma pessoa que
durante anos fez o seu trabalho sem
documentá-lo e sem preencher relatórios e
registros. É muito difícil convencer alguém
a escrever o que ele faz e ele acreditar que
estes registros são úteis para a melhoria
de seu trabalho e não é um meio para
patrulhar o seu trabalho.
Numa auditoria do sistema de qualidade
da ISO 9000, inicialmente o auditor verifica
se a documentação trata dos elementos da
qualidade. Posteriormente, ele visita os
locais, coletando e analisando evidências
para verificar se os controles do sistema,
descritos na documentação estão sendo
implementados e funcionando
adequadamente.
Uma planta típica, com algumas
dezenas de malhas incluídas no Sistema
de Qualidade da ISO 9000 deve ter
necessariamente um cadastro de
instrumentos, procedimentos
administrativos e técnicos, registros de
calibração e ajuste. Quando os processos
são simples e com muitas malhas iguais
repetidas, a quantidade de procedimentos
se torna relativamente pequena.
A evidência do cumprimento de um
sistema de qualidade é a documentação,
que deve ser simples e agradável.
Registre o que realmente é feito e não
perca tempo com o que deveria ser feito.
Use sempre os procedimentos
existentes, que devem ser simples,
resumidos, exatos, completos,
compreensíveis e úteis.
Faça sempre como está escrito.
Escreva tudo de importante que é feito.
Normas ISO 9000

202
7.2. Implementação
Organização
O maior obstáculo à implantação do
Sistema é passar a mensagem da
Qualidade a todos os funcionários. O
processo exige a participação consciente e
voluntária de todos os funcionários
simultaneamente, além de um
gerenciamento competente e dedicado
prioritariamente ao sistema.
Para que o Sistema de Calibração da
Qualidade seja implementado com
sucesso é necessário:
1. Identificar os instrumentos de
processo sobressalentes que devem
estar separados dos outros não
pertencentes ao Sistema de
Qualidade.
2. Identificar e separar os instrumentos
sem condição de uso, não calibrado,
não pertencente ao Sistema de
Qualidade.
3. Armazenar os instrumentos em locais
adequados e previstos para tal,
cuidando-se da limpeza, ordenação,
seleção e separação. Seguir as
recomendações do fabricante,
quanto à posição e condições
ambientais.
4. As atividades de reparo e calibração
devem ser demonstravelmente
separadas, de modo que o
responsável pelo reparo de um
instrumento nunca esteja envolvido
na subsequente calibração e
certificação deste instrumento.
5. Ter disciplina na organização da
documentação, separando os
registros diferentes e agrupando na
mesma pasta os registros do mesmo
tipo, sempre em ordem cronológica.
6. Fazer as correções e revisões dos
procedimentos administrativos e
técnicos, quando necessário e
sempre de modo oficial. Atuar para
modificar e não modificar sem atuar,
fazendo correções a lápis nos
procedimentos, de modo informal.
7. Fazer registros de não conformidade
devida a instrumentos de processo
com defeito.
8. Ter sempre Procedimento Técnico
para fazer calibração e manutenção
de instrumento específico e não usar
apenas o manual do fabricante, que
não o substitui totalmente.
9. Controlar uso de instrumento com
Restrição de Uso por causa da
calibração incompleta devida à falta
de padrões secundários adequados.
10. Justificar o estabelecimento da
freqüência de calibração de cada
instrumento, através de critério
técnico confiável e evidente.
11. Usar o instrumento padrão somente
com o correspondente Registro de
Calibração.
12. Evitar que as não conformidades se
repitam contínua e sistematicamente,
através de ações corretivas, atuando
nas causas e não nos efeitos.
Infra-estrutura
Deve-se ter uma Oficina de
Manutenção, cuidando da calibração dos
instrumentos de processo e um Laboratório
de Metrologia calibrando estes
instrumentos de calibração.
Estabelecer uma política clara e definida
nos procedimentos para utilizar os
instrumentos que atendam as exigências
metrológicas, principalmente entre os
instrumentos padrão das áreas (padrões
terciários) e os instrumentos padrão do
Laboratório de Metrologia (padrões
secundários).
Estabelecer mecanismos para que a
modernização dos instrumentos de
controle de processo implique também na
modernização consistente dos
instrumentos de calibração e ajuste destes
instrumentos do processo.
Informatização e instrumentação
No Brasil, ainda há poucos
computadores usados como ferramenta de
suporte para a manutenção preventiva e
corretiva dos instrumentos. Qualquer
sistema confiável e eficiente de Calibração
deve alterar consistente e dinamicamente
os intervalos de calibração e isso só pode
ser feito se houver um programa de
computador, que seja entendido e aplicado
por todos os envolvidos. Para este
programa ser futuramente empregado, é
necessário que todo o pessoal já tenha
familiaridade com a informática. Porém,
somente o computador não resolve; é
Normas ISO 9000

203
necessário se criar antes uma infra-
estrutura organizacional eficiente.
Formação e qualificação do pessoal
O investimento nos equipamentos deve
ser complementado com o investimento no
pessoal. Toda pessoa necessita de
treinamento e sempre o faz, por
programação ou por acidente. A pessoa
bem treinada fica motivada para fazer
melhor o seu trabalho e a um menor custo
para a empresa.
Para dominar o Sistema de Calibração e
Ajuste de Instrumentos, toda pessoa
envolvida deve ter conhecimentos sólidos
de Instrumentação, Metrologia e
Estatística. O treinamento do pessoal é tão
importante na qualidade que é mencionado
nas cláusulas 4.18 (ISO 9001), 4.17 (ISO
9002) e 4.11 (ISO 9003).
Gerência
O gerenciamento do Sistema de
Calibração e Ajuste deve ser bem
dominado por todos os supervisores das
áreas, que devem ter o total apoio da alta
direção.
Este apoio significa
1. quadro de pessoal suficiente,
2. facilidade de obtenção de micro-
computadores modernos,
3. facilidade de compra de
equipamentos de calibração e ajuste
adequados,
4. facilidade de se programar e
executar treinamento do pessoal.
Documentação
A documentação do sistema deve ser
atual, conservada, divulgada entre todos
os envolvidos e bem dominada pela
maioria. No sistema de qualidade, é muito
útil a troca de experiência entre as áreas,
pois se aprende com os erros dos outros.
É demorado aprender tudo sozinho. É
também fundamental aprender com as
experiências bem sucedidas de outras
empresas, mesmo de outra atividade
totalmente diferente, como Xerox, IBM,
Petrobrás, Vale do Rio Doce, Copene,
Celpav e CSN.
Faltam encontros internos agendados
onde se possa levantar e discutir
problemas potenciais, disseminar
experiências que deram certo e corrigir
rumos.
Catálogos
Os catálogos técnicos dos instrumentos
são úteis para se fazer corretamente sua
manutenção e calibração. Aliás, um critério
para o cadastro e escolha do fabricante de
instrumento deve ser a disponibilidade de
catálogos claros e úteis. Os catálogos de
instrumentos são a fonte de consulta para
a determinação das incertezas dos
instrumentos e por isso eles devem ter as
informações acerca de exatidão e precisão
bem explícitas.
Procedimentos
O Sistema de Calibração de uma planta
pode envolver dezenas e até centenas de
procedimentos administrativos e técnicos.
Toda calibração correta envolve o
instrumento a ser calibrado, padrões,
operador e um procedimento escrito. O
procedimento escrito de calibração é o
meio de tirar o máximo do bom
equipamento e do operador treinado,
definindo a interligação, seqüência de
passos da calibração, dados a serem
tomados e o grau de conformidade a ser
conseguido.
O procedimento deve refletir a maneira
pela qual as coisas são realmente feitas. O
objetivo de um procedimento é assegurar
que uma tarefa seja feita do mesmo modo,
chegando-se aos mesmos resultados, feita
pela mesma pessoa em tempos diferentes
ou feita por pessoas diferentes,
simultaneamente. Para tornar a tarefa
objetiva, o procedimento deve tirar toda
subjetividade e vontade do operador.
O procedimento administrativo (PA)
deve indicar quando se deve fazer os
ajustes necessários e o procedimento
técnico (PR) e o registro (PP) devem
indicar especificamente a classe de
incerteza dos instrumentos padrão usados,
os valores encontrados e os valores limites
para se fazer os ajustes de calibração.
Por exemplo, deve haver um
Procedimento Administrativo relacionado
com a calibração de registradores
eletrônicos, um Procedimento Técnico
relacionado com determinado registrador
eletrônico, com entrada de milivoltagem de
termopar e deve haver uma tabela com
valores específicos para determinada
aplicação de registro de temperatura.
Normas ISO 9000

204
No mínimo, um procedimento
administrativo deve ter os seguintes
tópicos:
1. política
2. objetivo
3. escopo
4. responsabilidades
5. definições
6. documentos associados
7. diagrama de blocos (flowchart)
8. descrição do diagrama de blocos
9. procedimento
10. distribuição e registros
Registros
Nos registros devem ser anotadas as
leituras dos instrumentos e nada mais que
as leituras.
No mínimo, um registro de calibração e
ajuste deve ter os seguintes campos:
1. identificação do instrumento (serial,
tag, fabricante, modelo
2. valores encontrados antes do ajuste
3. valores lidos depois do ajuste
4. valores limites aceitáveis
5. instrumentos padrão utilizados com
rastreabilidades válidas
6. local de calibração, com condições
ambientais estabelecidas
7. critério de aceitação
8. data de calibração - ajuste
9. data da próxima calibração
programada
10. nome e assinatura do executante
11. nome e assinatura do responsável
pela aprovação
12. correções devidas à temperatura
diferente da teórica e outros fatores.
É comum se encontrar registros
sucessivos com as leituras idênticas e
redondinhas (4,00; 6,00; 8,00; 10,00;
12,00; 16,00; 18,00 e 20 mA cc). Isto é
estatisticamente impossível de ocorrer.
Estas anotações indicam que o
instrumentista não leu corretamente as
leituras dos instrumentos, mas escreveu os
valores nominais esperados ou então usou
instrumento com classe de precisão
insuficiente. Estes registros não podem ser
considerados evidências de calibração.
Estes registros são totalmente inúteis e
não permitem o Controle Estatístico de
Processo que já é recomendado pela
norma ISO 9001 (JUL 94) e certamente
será obrigatório na próxima revisão.
Os registros preenchidos devem ser
aprovados pelo Chefe de Divisão e pelo
Supervisor da área. Esta aprovação deve
ser séria e feita somente após a leitura
atenciosa dos dados registrados.
Deve-se ser íntegro, escrevendo o que
se lê e não o que deva dar e nem o que o
chefe quer.
Equipamentos e instrumentos
Instalações de Processo
A maioria das instalações de medição e
controle de processo está adequada para
as necessidades metrológicas do
processo. Mesmo uma instrumentação
pneumática, com mais de dez anos de uso,
pode ser adequada para atender as
necessidades metrológicas de um
processo pouco exigente.
Oficinas de Manutenção e de Reparo
A oficina de Manutenção e Reparo deve
ser reaparelhada para se adequar às
exigências do Sistema de Calibração e
Ajuste. Deve-se ter um ambiente limpo e
agradável de se trabalhar, com locais
adequados para se armazenar e separar
os instrumentos de processo e de teste.
Laboratório de Metrologia
O Laboratório de Metrologia deve ser a
referência metrológica de todas as áreas
da empresa (Manutenção, Produção,
Laboratório). Com dinheiro suficiente,
qualquer pessoa pode sair por aí e
comprar um instrumento de calibração, que
sozinho não garante boas calibrações. A
chave é um conjunto fixo de procedimentos
e a disciplina em sua aplicação. Por isso, o
Laboratório de Metrologia deve ser o
modelo de disciplina e rigor no
cumprimento dos procedimentos escritos.
O Laboratório deve produzir uma listagem
ou gráfico que mostre as variáveis físicas,
como pressão, temperatura, voltagem ou
corrente elétrica que podem ser calibradas
e a exatidão correspondente.
O Laboratório de Metrologia deve ter
instrumentos padrão que sejam mais
precisos que os instrumentos calibrados.
Nenhuma norma estabelece números
obrigatórios de relação entre incerteza do
padrão e do instrumento calibrado, pois
esta relação depende do risco associado
com o processo de medição, que varia
Normas ISO 9000

205
para cada processo, por isso sugerindo
varias relações. Algumas normas sugerem
e justificam determinadas relações (MIL
STD 45662 recomenda o mínimo de 4:1, o
INMETRO recomenda 3:1), mas são
apenas sugestões. Se uma empresa
determina que a relação mínima entre as
incertezas do instrumento calibrado e do
padrão seja de 3:1, todos devem entender
e administrar as conseqüências desta
relação, principalmente o Laboratório de
Metrologia.
Consistentemente, o Laboratório de
Metrologia deve ter métodos de calibração
mais rigorosos e controlados. O
Laboratório de Metrologia deve ter
métodos de calibração monitorados por
computador, onde seja possível se calibrar
muito mais pontos, diminuir a probabilidade
de erros, apresentar certificados de
calibração com melhor estética e mais
compreensíveis ao usuário.
O Laboratório de Metrologia deve ter um
ambiente controlado; com a temperatura
igual a 23 ± 5
o
C, umidade relativa entre 20
a 60%. A pressão atmosférica, gravidade e
campos de interferência de rádio
frequência (RF) devem ser conhecidos. A
temperatura influi em comprimento, área,
volume e nos parâmetros elétricos
indiretos das substâncias. A umidade
altera a isolação de plásticos e placas de
circuito impresso e a condução de
superfícies. A pressão atmosférica afeta o
empuxo e o peso das massas. A
calibração de instrumentos de pressão
absoluta requer o conhecimento exato da
pressão atmosférica. A aceleração da
gravidade local deve ser conhecida,
quando se tem padrões de pressão a
pistão e a peso morto. Embora os
instrumentos geralmente não sejam
sensíveis à iluminação, os operadores o
são.
Estes cuidados e exigências do
Laboratório de Metrologia devem ser bem
entendidos, pois seu objetivo é calibrar e
aferir os instrumentos padrão que calibram
os instrumentos de processo. O
Laboratório de Metrologia de uma empresa
é para atender as exigências do chão de
fábrica e não um laboratório científico para
enviar foguetes no espaço sideral. As
sugestões das normas estabelecem
também uma relação máxima entre as
incertezas do instrumento calibrado e do
padrão, tipicamente em 10:1. Ter padrões
acima desta relação é um desperdício de
dinheiro e não há nenhuma vantagem
prática detectável. Por isso, toda aquisição
de padrão deve ser criteriosamente
analisada sob o ponto de vista metrológico
e econômico.
A empresa deve estabelecer a sua
política, definindo o número de degraus da
cadeia de rastreabilidade metrológica e
deve seguir esta política. A filosofia
recomendada para a cadeia metrológica de
uma empresa de tamanho médio seria:
1. instrumentos de processo,
2. padrões terciários, mantidos nas
oficinas de área, para calibrar os
instrumentos de processo,
3. padrões secundários, mantidos no
Laboratório de Metrologia, para
calibrar os padrões terciários,
4. os padrões secundários, calibrados
fora da empresa
O Laboratório de Metrologia é a
interface entre a empresa e os laboratórios
externos, preferivelmente os da Rede
Brasileira de Calibração. Para ser eficiente,
o Laboratório deve
1. Garantir através de pedido bem
especificado que todo instrumento
enviado para os laboratórios externos
seja calibrado e ajustado e não
apenas aferido.
2. Exigir que os padrões usados na
calibração tenham uma determinada
incerteza (sugestão: mínima de 5
vezes). Quando se tem um
instrumento calibrado com incerteza
igual à do padrão, o instrumento
herda a incerteza do padrão e a
incerteza da medição com o
instrumento calibrado é igual à soma
das duas incertezas.
3. Devolver o instrumento e não pagar o
serviço quando estas exigências não
forem cumpridas.
4. Exigir que o algorítmo de cálculo de
incerteza seja definido
5. Solicitar a probabilidade ou o limite
de incerteza real (2σ ou 3σ)
O Laboratório de Metrologia deve
orientar claramente, de modo didático, o
uso de instrumento degradado ou
estabelecer Procedimento para a
adequação ao uso deste instrumento.
Normas ISO 9000

206
7.3. Comprovação Metrológica
Introdução
Na implantação do Sistema de
Calibração e Ajuste para a certificação da
ISO 9000, há as seguintes etapas:
1. o Processo lista as malhas de
instrumentos que impactam a
qualidade do produto, estabelecendo
os limites de incerteza para cada
grandeza indicada,
2. a Instrumentação calcula ou mede as
incertezas dos instrumentos já
instalados, comprados sem nenhuma
critério metrológico, há muitos anos
atrás,
3. faz-se o consenso, para adequar ao
uso os instrumentos instalados,
quando algumas tolerâncias
requeridas devem ser aumentadas,
mantendo-se os instrumentos
existentes ou alguns instrumentos
são mudados, com incertezas
menores, para atender as incertezas
requeridas.
Estas tarefas envolvem vários conceitos
importantes de Instrumentação, que se não
forem bem entendidos e aplicados, dá
resultados totalmente errados. Para isso, é
necessário entender e usar corretamente
1. O conceito de malha de
instrumentos, que tipicamente possui
um sensor, um condicionador de
sinal e um instrumento de display.
2. O discernimento de detectar os
instrumentos que afetam a incerteza
da medição em malhas
multivariáveis, com vários
condicionadores de sinal; e.g., malha
de indicação de vazão com
compensação de pressão e
temperatura.
3. O comportamento do operador na
sua tomada de decisão, se usa a
indicação do indicador, a indicação
do controlador, o registro ou a
totalização. Tem-se uma malha com
um tacômetro, um conversor, um
indicador local, um indicador no
painel e um registrador de painel;
onde apenas o indicador de painel é
usado pelo operador para tomar
decisões.
4. O conceito de multiplexação, mesmo
quando mecânica, quando se tem
vários sensores, vários registradores
e um único indicador, podendo ter
várias combinações de malhas.
5. O conceito de modularidade aplicado
à instrumentação de SDCD e CLP,
onde a malha de indicação inclui a
interface entrada/saída (I/O) e a
indicação do monitor de vídeo (tubo
de raio catódico).
6. As informações contidas nos
catálogos dos fabricantes, onde os
dados metrológicos são incompletos,
errados por má fé ou por
incompetência ou inexistentes,
7. O bom senso para se usar fatores de
degradação e drift, devidos ao
envelhecimento, influência do meio
ambiente agressivo e do padrão de
calibração indevido, determinando-se
estes fatores através de dados
estatísticos e experimentos de
laboratório.
Composição das malhas
Para fins de qualidade, a malha de
instrumentos inclui apenas o elemento
sensor, elemento condicionador de sinal e
o instrumento de display (indicador ou
registrador). Não é necessário considerar
os instrumentos de controle e o elemento
final de controle.
O que Sistema cuida é que a indicação
esteja dentro dos limites de incerteza
estabelecidos pelo processo. Ocorre uma
não conformidade quando se pensa que a
indicação está correta e se verifica que ela
está errada, quando se faz a aferição do
instrumento indicador. A partir dessa não
conformidade, devem ser tomadas ações
corretivas e preventivas, inclusive rastrear
o produto, quando isso for previsto por
contrato.
Quando há problemas no controlador ou
no elemento final de controle, o produto sai
fora da especificação e instantaneamente,
o operador percebe a não conformidade e,
em linha com o processo, atua no
processo para levar a indicação para os
limites previstos pelo processo.
Cálculos de incertezas das malhas
No cálculo das incertezas das malhas
do Sistema de Qualidade, o algoritmo de
cálculo típico é aquele onde a incerteza
Normas ISO 9000

207
total é a raiz quadrada da somas dos
quadrados das incertezas individuais.
Os cálculos das incertezas devem ter a
referência bibliográfica (catálogo de
fabricante, literatura técnica, registro).
Compatibilidade metrológica
A incerteza da malha de instrumentos
instalada deve ser menor que a incerteza
requerida pelo processo. Este menor é
vago, e por isso deve ser definida uma
relação numérica entre estas incertezas
(não use adjetivos, use números),
consistente com a política metrológica de
toda a empresa, pois há implicações nas
incertezas dos padrões terciários,
secundários e em toda cadeia de
rastreabilidade.
Geralmente, as incertezas requeridas
pelo processo são arbitrariamente
estabelecidas pela Produção ou; quando
há critérios, eles não são informados à
Instrumentação. Em algumas situações, os
valores das incertezas requeridas pelo
processo são estabelecidos depois que a
Instrumentação calcula os valores das
incertezas instaladas.
Há casos em que a incerteza calculada
é maior que a requerida pelo processo.
Mas, como a empresa já funciona há
muitos anos e o seu produto está dentro da
especificação nominal, pode-se concluir
que
1. a incerteza requerida pelo processo
está errada e poderia ser maior ou
2. a malha de instrumentos não impacta
a qualidade final do produto.
Calibração por malha
Não imagine quando puder calcular e
não calcule quando puder medir.
O aceitável é considerar a incerteza
medida do instrumento não-conforme
associada com as incertezas máximas
dadas pelo catálogo dos fabricantes dos
instrumentos. Porém, é preferível medir a
incerteza da malha, em vez de calcular a
incerteza total a partir das incertezas dos
instrumentos componentes. Isto é
conseguido facilmente, desde que a
empresa faça a calibração por malha e não
por instrumento. Além de se ter um
tratamento mais realista das não
conformidades, tem-se várias outras
vantagens, tais como:
1. gasta-se menos tempo na calibração
por malha, pois uma malha típica tem
três instrumentos,
2. a calibração é mais confiável, pois
não se tem o risco de descalibrar o
instrumento na retirada, transporte e
recolocação dos instrumentos,
3. a calibração é mais exata, pois todos
os efeitos da instalação são
considerados naturalmente.
4. tem-se a medição e não o cálculo da
incerteza, coerente com a
recomendação metrológica de não
imaginar quando puder calcular e
não calcular quando puder medir..
Obviamente, a calibração por malha tem
algumas desvantagens, como:
1. necessidade de reescrever os
procedimentos orientados para
calibração de instrumentos
individuais,
2. disponibilidade de padrões que
possam ser usados na área
industrial,
3. necessidade de medir as condições
de calibração (temperatura, umidade,
ambiente).
Como conclusão, é vantajoso se fazer a
calibração por malha (como regra) e, em
caso de não-conformidade, fazer a
calibração dos instrumentos individuais
(exceção).
Prevendo esta tendência mundial, os
fabricantes de instrumentos de teste e
calibração desenvolveram vários
instrumentos multitarefa para executar
calibrações na área industrial (Altek,
Beamex, Eutron, Fluke, Hathaway,
Rochester, Ronan, Transmation, Unomat).
Revisão 2000 da ISO 9000
As normas ISO 9000 terão uma revisão
em 2000. Já há testes de implementação
do rascunho (draft) desta revisão, antes da
finalização e publicação das normas ISO
9001 e 9004.





208
Conclusão final
Mesmo com as dificuldades inerentes à mudança de hábitos e motivação de pessoal,
ao ceticismo de uns e à omissão de outros, um Sistema de Calibração e Ajuste dos
Instrumentos pode funcionar bem e receber a certificação ISO 9002.
Todo mundo deve ter um treinamento contínuo, para haver um posicionamento
mental orientado para a equipe e para elevar o moral e a eficácia do pessoal.
Como recomendações finais, tem-se:
1. programar e executar um treinamento de todo pessoal envolvido no Sistema.
2. estabelecer com critério a lista das malhas que impactam a qualidade e garantem a
continuidade operacional da planta, com as suas respectivas incertezas.
3. fazer criteriosamente os cálculos das incertezas das malhas requeridas pelo
processo, considerando os parâmetros de especificações nominais, drift e
influências da instalação,
4. fazer um Manual de Qualidade e escrever um conjunto de documentos,
principalmente os procedimentos técnicos e administrativos, adequando os
conceitos de instrumentação e uniformizando a terminologia;
5. estabelecer uma política e procedimentos do Laboratório de Metrologia, tornando-o
centro de referência de todas as áreas da empresa, estabelecendo a comunicação
adequada com a Produção e Laboratório,
6. implantar um sistema adequado de microcomputadores na Oficina de Manutenção,
Laboratório de Metrologia e Laboratório Químico-Físico,
7. escolher um programa de gerenciamento do Sistema de Calibração e Aferição que
atenda as especificidades da empresa e rode nos computadores acima;
8. adquirir instrumentos de teste e aferição (padrões terciários) em quantidade
apropriada e com precisão metrologicamente consistente;
9. implantar um sistema de Controle Estatístico do Processo para os dados dos
registros de calibração;
10. estabelecer uma filosofia de calibração do sistema para aferição por malha, como
regra e aferição por instrumento, como exceção;

Apostila\Metrologia ApB-ISO9000.doc 26 MAI 97(Substitui 04 JUN 96)


209
C
Rede Brasileira de Calibração
Laboratório Cidade,
UF
Telefone Grandeza
s
ABCP – Associação Brasileira de Cimento Portland São Paulo, SP (011) 268-5111 Dimensão
Força
ABSI - Indústria e Comércio Ltda São Paulo, SP (011) 914-8987 Pressão
Balitek – Instrumentos e Serviços Ltda São Paulo, SP (011) 215-0088 Dimensão
Pressão
Ceman – Central de Manutenção Ltda Camaçari, BA (071) 832-8586 Dimensão
Pressão
Cepel - Centro de Pesquisas de Energia Elétrica Rio de
Janeiro, RJ
(021) 767-2111 Eletricidade
Tempo
Certi - Fundação Centro Regional em Tecnologias
Inovadoras
Florianópolis,
SC
(0482) 34-3000 Dimensão
Força
Pressão
Cetec - Fundação Centro Tecnológico de Minas
Gerais
Belo
Horizonte, MG
(031) 486-1000 Força
Cetemp/Senai RS - Centro Tecnológico de
Mecânica de Precisão
Porto Alegre,
RS
(051) 592-5618 Dimensão
CMPJ – Centro de Mecânica de Precisão de
Joinville
Joinville, SC (047) 432-0133 Dimensão
Copel – Companhia Parananense de Energia Curitiba, PR (041) 366-2020 Eletricidade
CSN – Companhia Siderúrgica Nacional Volta
Redonda, RJ
(0243) 44-705 Dimensão
CST – Companhia Siderúrgica Tubarão Vitória, ES (027) 348-2162 Eletricidade
Pressão
Temperatura
CTA - Centro Técnico Aeroespacial São José dos
Campos, SP
(012) 340-3355 Dimensão
Dresser Indústria e Comércio Ltda – Divisão de
Manômetros Willy
São Paulo,
SP
(011) 453-5477 Pressão
Ecil S.A. Piedade, SP (0152) 44-3000 Temperatura
Embraco – Empresa Brasileira de
Compressores
(047) 441-2686 Dimensão
Fucapi – Fundação Centro de Análise, Pesquisa
e Inovação Tecnológica
(092) 237-5858 Dimensão
Furnas Centrais Elétricas SA Furnas, MG (035) 523-1001 Eletricidade
Tempo
Ibametro – Instituto Bahiano de Metrologia,
Normalização e Qualidade Industrial
Simões Filho,
BA
(071) 394-1172 Massa
IEE/USP - Instituto de Eletrotécnica e Energia da
Universidade de São Paulo
São Paulo, SP (011) 815-2423 Eletricidade
IFM - Instituto Fluminense de Metrologia SC
Ltda
Petrópolis,
RJ
(0242) 21-2652 Eletricidade
Pressão
Temperatura
INPE - Instituo Nacional de Pesquisas
Espaciais
São José dos
Campos, SP
(012) 325-6274 Eletricidade
Tempo
Instituto Presbiteriano Mackenzie São Paulo, (011) 236-8766 Dimensão
Rede Brasileira de Calibração

210
SP Força
INT - Instituto Nacional de Tecnologia Rio de
Janeiro, RJ
(021) 253-9294 Força
IOPE Instrumentos de Precisão Ltda São Paulo,
SP
(011) 265-4577 Temperatura
IPEI - Instituto de Pesquisas e Estudos
Industriais
São Bernardo
do Campo,
SP
(011) 419-0200 Dimensão
IPT - Instituto de Pesquisas Tecnológicas do
Estado de São Paulo SA
São Paulo,
SP
(011) 268-2211 Dimensão
Eletricidade
Força
Massa
Pressão
Temperatura
K&L Assistência Técnica em Instrumentos de
Medição
(0474) 26-1712 Dimensão
Mitutoyo do Brasil Indústria e Comércio Ltda São Paulo, SP (011) 478-4544 Dimensão
Naka Instrumentação Industrial Ltda São Paulo, SP (011) 417-1177 Pressão
PUC/RJ - Pontifícia Universidade Católica do Rio
de Janeiro
Rio de
Janeiro, RJ
(021) 259-5197 Dimensão
Força
Pressão
Temperatura
PUC/RS - Pontifícia Universidade Católica do Rio
Grande do Sul
Porto Alegre,
RS
(051) 339-1511 Eletricidade
Rádio
freqüência
Senai/RJ – Cetec de Metal Mecânica Euvaldo Lodi Rio de Janeiro (021) 569-1322 Dimensão
Sharp do Brasil S.A. Manaus, AM (092) 614-2533 Dimensão
Tempo
Siemens S.A. São Paulo, SP (011) 833-4405 Dimensão
Força
Pressão
Tempo
Tektronix Indústria e Comércio Ltda São Paulo, SP (011) 3741-
8417
Eletricidade
Tempo
Tridmensional Leka’s Medições Ltda Rio de
Janeiro, RJ
(021) 270-5888 Dimensão
Triel Engenharia Ltda Santos, SP (013) 227-5666 Eletricidade
Pressão
Unicamp - Centro de Tecnologia da Universidade
Estadual de Campinas
Campinas, SP (0192) 39-1103 Dimensão
Yokogawa Elétrica do Brasil Indústria e Comércio
Ltda
São Paulo, SP (011) 548-2666 Eletricidade
Tempo


Fonte| CQ Qualidade, Maio 1997, p. 42

Apostila\Metrologia ApD-RedeCalibração.doc 26 MAI 97 (Substitui 11 MAI 96)


211
D
Fundamentos da Qualidade
Objetivos de Ensino
1. Apresentar a história da qualidade.
2. Conceituar qualidade e listar sua terminologia, características e aspectos.
3. Mostrar as três filosofias básicas de qualidade, segundo Deming, Crosby e Juran

1. História da Qualidade
1.1. Primórdios
As técnicas de qualidade são usadas
desde os tempos antigos. Há quatro mil
anos atrás, os egípcios mediam as pedras
que usavam nas suas pirâmides. Os
gregos e romanos mediam os edifícios e
aquedutos para garantir que eles estavam
de conformidade com as especificações.
As estruturas e arquiteturas dos romanos
para edifícios, igrejas, pontes, estradas até
hoje causam admiração e inspiração.
Durante a Idade Média até os anos
1900, a produção de bens e serviços era
confinada a indivíduos isolados ou grupos
pequenos de indivíduos. A qualidade era
determinada e controlada pelo próprio
indivíduo ou pelo grupo. Este período foi
chamado de Controle de Qualidade do
Trabalhador Os artesões especificavam,
mediam, controlavam e garantiam a
qualidade das tintas, roupas, tapeçaria,
esculturas e arquiteturas. Para garantir a
uniformidade, os estudantes e aprendizes
cumpriam rigorosos programas de
treinamento e acompanhamento dos
mestres. O volume da produção era
pequeno. O autor do trabalho se orgulhava
dele e esta motivação garantia a
qualidade.
1.2. Qualidade Moderna
Segundo Feingenbaum, a função
qualidade nas organizações modernas, a
partir de 1900 evoluiu através dos
seguintes estágios:
1. supervisor
2. inspeção
3. controle de qualidade
4. garantia da qualidade
5. gerenciamento da qualidade total
Supervisor
Entre 1900 e 1920, tem-se o período
chamado de Controle de Qualidade do
Supervisor A Revolução Industrial gerou a
produção em massa. O resultado foi o
especialista. O indivíduo não era mais
responsável pelo produto inteiro, mas
somente de uma porção ou parte do
produto. A desvantagem deste enfoque é a
perda do senso de acompanhamento e
identificação do trabalhador com o seu
produto. Nesta configuração apareceu a
figura do supervisor, que é responsável
pela coordenação das diferentes tarefas e
operações. O supervisor que dirigia a
operação se tornou o responsável pela
qualidade do produto final.
Inspeção
A qualidade moderna começou na
década de 1920. O período de 1920 e
1940 foi chamado de Controle de
Qualidade por Inspeção. O volume de
produção aumentou, com um grande salto.
Os produtos e os processos se tornaram
mais complicados. Como o número de
Fundamentos da Qualidade

212
trabalhadores se reportando ao supervisor
se tornou muito grande, ficou impossível o
supervisor controlar rigorosamente as
operações individuais de cada trabalhador.
Os inspetores verificavam a qualidade do
produto após determinadas operações e
no final. Havia padrões para serem
comparados com os produtos. Quando
haviam discrepâncias entre o padrão e o
item do produto, os itens eram separados.
Os itens não-conformes podiam ser
retrabalhados e quando isso não fosse
possível, rejeitados.
Os primeiros grupos de qualidade eram
os departamentos de inspeção. Durante a
produção, os inspetores mediam os
produtos contra especificações. Os
departamentos de inspeção não eram
independentes; eles geralmente se
reportavam ao departamento de fabricação
cujos esforços eles inspecionavam. Isso
apresentava um conflito de interesses, pois
o departamento de inspeção rejeitava uma
batelada de produtos não-conformes e o
departamento de fabricação queria
aproveitar essa batelada de produtos para
venda, independente da qualidade. Havia o
conflito entre as mensagens de "produção
a qualquer custo" e "qualidade é o mais
importante". Neste ambiente, a qualidade
do produto melhorava muito lentamente.
Durante este período, foram
desenvolvidos os fundamentos estatísticos
da qualidade e a Bell Telephone
Laboratories montou uma equipe de
pioneiros do estudo da qualidade, como
Walter A. Stewhart (controle estatístico de
processo), H. G. Romig e H.F. Dodge
(planos de amostragem).
Controle da qualidade
No período de 1940 a 1960, a fase da
evolução é chamada de Controle
Estatístico da Qualidade. Nesta etapa, os
grupos de inspeção evoluíram para os
departamentos de Controle da Qualidade
(QC). O início da Segunda Guerra Mundial
requereu produtos militares sem defeitos.
A qualidade do produto era crucial para
ganhar a guerra e isso somente seria
garantido se o departamento de inspeção
pudesse controlar os processos de
produção. A inspeção de 100%,
geralmente impraticável, foi substituída
pelos planos de amostragem, que foram
aceitos e estudados. Em 1946, formou-se
a American Society for Quality Control
(ASQC). Em 1950, foi desenvolvida a série
de normas MIL-STD-105, associada à
qualidade.
Qualidade, definida como conformidade
com a especificação, era controlada
durante a produção, em vez de ser
inspecionada nos produtos. A
responsabilidade pela qualidade foi
transferida para um departamento
independente (QC), que era agora
considerado o guardião da qualidade. O
departamento QC era separado da
fabricação, para ter autonomia e
independência.
Embora as condições fossem idéias
para se explorar os benefícios do controle
estatístico da qualidade, as indústrias
americanas se mostraram preguiçosas e
pouco interessadas com estas teorias
relacionadas com qualidade. Foi o Japão,
totalmente destruído pela guerra, que
adotou rigorosamente os planos de
controle de qualidade e se submeteu a
programas intensivos de treinamento e
educação. Foram para o Japão, como
consultores e professores, os americanos
W. Edwards Deming (1950) e Joseph M.
Juran (1954).
Garantia da Qualidade
Na década de 1960, o controle da
qualidade evoluiu para Garantia da
Qualidade (QA - quality assurance). O
departamento de garantia da qualidade
assegurava a qualidade do processo e do
produto através de auditorias operacionais,
treinamentos, análises técnicas. Os
consultores de QA atuavam nos
departamentos onde realmente estava a
responsabilidade pela qualidade. O QA é
uma área funcional responsável pela
inspeção dos produtos, calibração dos
instrumentos, teste dos produtos e
inspeção da matéria prima.
Neste período surgiu o conceito de
Defeito Zero (ZD - zero defect), que se
baseava na obtenção de produtividade
através do envolvimento do trabalhador.
Esse conceito era adequado para a NASA
(National Aeronautics and Space
Administration) em lançamento de foguetes
e satélites.
Fundamentos da Qualidade

213
No Japão, surgiu o conceito de círculos
de controle de qualidade, baseado no
estilo participativo do gerenciamento. Este
princípio assume que a produtividade irá
aumentar através de um moral elevado e
motivação, que são obtidos através de
consulta e discussão em grupos informais.
Gerenciamento da Qualidade Total
Na década de 1970, quando o assunto
qualidade se tornou mais crítico, QA evolui
para o Gerenciamento da Qualidade Total
(TQM - total quality management) ou o
gerenciamento da qualidade em toda a
companhia (CWQM - company-wide quality
management).Os grupos de qualidade da
companhia são menores, com mais
autoridade e menor responsabilidade direta
pela qualidade. Por exemplo, o grupo de
qualidade tem autoridade para impedir a
saída de um produto defeituoso da porta
da fábrica, enquanto a responsabilidade do
controle de qualidade atua no operador do
departamento de fabricação.
A qualidade está associada com cada
indivíduo. O programa de qualidade total
envolve toda a organização,
desenvolvendo e implantando uma ética e
cultura de qualidade. O foco do programa é
toda a companhia, orientado para o
usuário e realizado competitivamente.
A qualidade não fica apenas em um
departamento. Para fabricar um produto
com qualidade ou entregar um serviço com
qualidade requer a atenção e envolvimento
de todos da organização. É
responsabilidade da pessoa que faz
diretamente o trabalho, da recepcionista
que atende alegremente as pessoas, da
telefonista que se comunica com o mundo
externo, do gerente que supervisiona os
empregados, do instrumentista que
mantém os instrumentos em operação, do
responsável pela embalagem do produto.
Cada elemento da organização, desde o
comitê executivo que estabelece a política
de qualidade até a recepcionista na
portaria da firma, contribui para o êxito ou
boicote do esforço da qualidade. O comitê
executivo define uma política realística, os
gerentes estabelecem objetivos atingíveis,
os engenheiros projetam produtos
funcionais, confiáveis e atraentes, as
recepcionistas são gentis e eficientes e os
operadores fabricam um produto sem
defeitos.
A orientação para o cliente final é
essencial, pois suas necessidades mudam
e a organização deve detectar essas
variações e se adaptar para atendê-las.
Adaptar significa projetar produtos
estéticos, fabricar produtos sem defeitos,
entregar os produtos em tempo e com
lucro. Uma organização deve projetar e
produzir e entregar o que o cliente quer e
não o que a organização pensa que o
cliente quer.
2. Conceito de Qualidade
A noção de qualidade pode ser dividida
em cinco categorias:
1. transcendental,
2. baseada no produto,
3. baseado no usuário,
4. baseada na fabricação e
5. baseada no valor.
Ainda foram identificados oito atributos
na definição da qualidade:
1. desempenho,
2. características,
3. confiabilidade,
4. conformidade,
5. durabilidade,
6. utilidade,
7. estética e
8. percepção da qualidade.
O termo qualidade pode ser definido de
vários modos, dependendo do enfoque e
perspectiva do usuário. Qualidade é:
1. conformidade com especificações e
normas aplicáveis (Crosby)
2. adequação (fitness) ao uso (Juran)
3. satisfação das vontades,
necessidades e expectativas do
comprador a um custo competitivo
4. adequação do produto ou serviço ao
seu uso pretendido como requerido
pelo usuário.
2.1. Conformidade
Toda organização, se lucrativa ou sem
fins lucrativos, de fabricação, serviços,
privada ou pública, tem especificações e
normas, que são elaboradas por
organizações para medir o desempenho e
corrigir os desvios dos níveis esperados.
Por exemplo, em uma operação de
fabricação, as especificações detalham
Fundamentos da Qualidade

214
limites dimensionais, atributos físicos de
uma característica da qualidade de uma
peça. Em uma operação de serviço, as
normas estabelecem os métodos
aprovados de comportamento ou serviço.
2.2. Adequação ao uso
A associação da qualidade com a
adequação ao uso é de Joseph Juran. É
uma definição baseada no mercado e no
comprador. Um produto ou serviço é
adequado para uso se ele satisfaz as
necessidades e exigências do comprador.
É possível se ter um produto que esteja
de conformidade com o uso em termos de
satisfação do comprador mas não se
conforme com a especificação. A
especificação de acabamento de superfície
foi desenvolvida para um produto de
consumo. A condição do acabamento da
superfície é importante porque ela melhora
a aparência do produto e sua facilidade de
venda. As especificações foram escritas
para todas as superfícies, internas e
externas. Porém, se a superfície interna do
produto não está de conformidade com a
norma e como ela não pode ser vista pelo
comprador, ela não influencia
negativamente na sua decisão de compra
e portanto a não-conformidade é aceita.
Assim, um produto com uma imperfeição
pode ser adequado ao uso se tal
imperfeição não afeta seu desempenho,
segurança ou atração para a venda.
2.3. Satisfação do comprador a um
preço competitivo
A qualidade do produto ou serviço é a
habilidade do produtor ou prestador de
serviço satisfazer as necessidades do
comprador, ainda sendo capaz de ter lucro.
Esta definição envolve os dois lados da
questão: o fornecedor e o comprador. O
comprador é a razão da existência da
organização, mas o fabricante ou o
fornecedor do serviço deve ter o seu lucro.
Muitos clientes não compram um produto
ou serviço, a não ser que ele tenham um
preço razoável.
3. Características da Qualidade
Pode haver um ou mais elementos para
definir o nível de qualidade de um produto
ou serviço. Esses elementos são
chamados de características da qualidade.
Estas características podem ser agrupadas
de vários modos: estrutural, sensorial,
tempo e ético.
As características estruturais incluem as
grandezas físicas como comprimento,
área, volume, massa, peso, resistência,
viscosidade, densidade e muitas outras
variáveis de processo incluídas na
instrumentação e controle do processo. As
características sensoriais incluem o gosto
de uma comida, cheiro de um perfume,
beleza de um modelo. As características
que dependem do tempo incluem a
garantia, confiabilidade, mantenabilidade.
As características éticas incluem
honestidade, cortesia, amizade.
As características da qualidade podem
ser agrupadas em duas grandes classes:
variáveis e atributos.
3.1. Variável
Variável é a característica que pode ser
medida e expressa por um valor numérico,
unidade e um limite de incerteza. São
exemplos de variáveis:
1. o diâmetro de eixo, como 10,0 ±0,1 mm
2. a massa de um corpo, como 8,5 ±0,2
kg
3. a densidade relativa de um fluido em
relação à agua, como 0,8
(adimensional)
4. a resistência elétrica de uma bobina,
como 24 Ω.
5. o volume de um frasco, como 1,0 litro.
3.2. Não-conformidade
Uma não conformidade é uma
característica de qualidade que não
satisfaz a especificação requerida
estabelecida. Por exemplo, seja a
espessura nominal de uma arruela de 5,0
±0,2 mm. Uma arruela com espessura de
5,1 mm é conforme e boa; uma arruela
com 5,3 mm tem a espessura não-
conforme e deve ser retrabalhada para
ficar dentro do especificado.
Uma unidade não-conforme é aquela
que possui uma ou mais não-
Fundamentos da Qualidade

215
conformidades, de modo que a unidade
não é capaz de satisfazer a especificação
estabelecida e portanto, incapaz de
funcionar como previsto. Uma peça com o
peso e o comprimento fora das tolerâncias
estabelecidas é uma unidade não-
conforme e como tal, deve ser
retrabalhada ou se isso não for possível,
rejeitada e jogada fora.
3.3. Atributo
Atributo é uma característica de
qualidade se ela só pode ser classificada
como conforme ou não conforme, boa ou
ruim, satisfaz ou não satisfaz, de acordo
com uma determinada especificação.
O atributo é a característica da
qualidade que geralmente não pode ser
medida em uma escala numérica. Por
exemplo, o cheiro de um perfume, a cor de
um tecido são atributos, pois são
caracterizados como aceitável ou não-
aceitável.
Às vezes, uma variável pode ser
considerada como atributo. Por exemplo, o
diâmetro de um eixo a ser usado em um
conjunto, é rigorosamente uma variável,
com uma dimensão, unidade e tolerância.
O eixo poderia ser medido por um
paquímetro ou micrômetro e o operador iria
classificá-lo como conforme ou não-
conforme. Uma alternativa mais rápida,
seria comparar o diâmetro do eixo com um
padrão ou inserir o eixo em um furo
padrão, de modo que ele seria classificado
rapidamente como conforme ou não-
conforme. A grande vantagem de
considerar o indicador bom ou não-bom é
a economia de tempo no teste.
3.4. Defeito
Defeito está associado com uma
característica de qualidade que não
satisfaz a especificação. A gravidade de
um ou mais defeito em um produto ou
serviço pode determinar se ele é aceitável
ou não (defeituoso). O termo moderno para
item defeituoso é item não-conforme. A
definição do American National Standards
Institute (ANSI) e American Society for
Quality Control (ASQC) é a seguinte
(ANSI/ASQC A3, 1987):
Defeito é um afastamento de uma
característica de qualidade de seu nível ou
estado pretendido que ocorre com uma
gravidade suficiente para fazer o produto
ou serviço associado não satisfazer a
exigência de uso pretendida, de modo
visível
3.5. Padrão e Especificação
Como a definição de qualidade envolve
a satisfação do usuário, as necessidades
do usuário devem ser documentadas. Uma
norma ou especificação se refere ao
estabelecimento preciso que formaliza as
necessidades do usuário. Eles podem ser
referir a produto ou processo ou serviço.
Por exemplo, a especificação de uma peça
pode incluir o diâmetro interno de 4,0 ±0,1
cm, diâmetro externo de 10,0 ±0,2 cm,
comprimento de
12,0 ± 0,3 cm. Isto significa que uma peça
aceitável deve satisfazer cada uma das
dimensões acima, dentro das tolerâncias
estabelecidas.
Segundo o National Institute of
Standards and Technology (NIST),
especificação é um conjunto de condições
e exigências, de aplicação limitada ou
específica, que fornece uma descrição
detalhada do procedimento, processo,
material, produto ou serviço, para uso
principalmente em compra e fabricação.
Normas podem ser referidas ou incluídas
em um especificação.
Norma é um conjunto escrito de
condições e necessidades, de aplicação
geral ou restrita, estabelecida por uma
autoridade ou acordo, para ser satisfeita
por um material, produto, processo,
procedimento, convenção, método de
teste; relacionada com características
físicas, funcionais, desempenho ou de
conformidade.
Padrão é a representação física de uma
unidade de medição ou uma receita que
define o método para se obter uma
unidade de medição.
Fundamentos da Qualidade

216
4. Aspectos da Qualidade
Três aspectos são usualmente
associados com a definição de qualidade:
qualidade de projeto, qualidade de
conformidade e qualidade de desempenho.
4.1. Qualidade de Projeto
A qualidade de projeto trata das
condições restringentes que o produto ou
serviço deve possuir, no mínimo, para
satisfazer as necessidades do usuário.
Isso implica que o produto ou serviço deve
ser projetado para satisfazer minimamente
as necessidades do consumidor.
O projeto deve ser o mais simples e o
mais barato e ainda satisfazer as
expectativas do usuário. A qualidade de
projeto depende de fatores como: tipo do
produto, custo, política de lucro, demanda
do produto, disponibilidade de peças e
materiais e segurança. Por exemplo, seja
um cabo de aço cujo nível de qualidade
requeira uma resistência para suportar 100
kg/cm
2
. Quando se projeta tal cabo,
selecionam-se os parâmetros do cabo para
ele suportar, no mínimo, esta tensão. Na
prática, o cabo é superdimensionado, de
modo que a que a condição desejada seja
excedida. Assim, quando se projeta um
cabo com 25% além da especificação, o
cabo pode suportar tensão de 125 kg/cm
2
.
Geralmente, quando se aumenta o nível
de qualidade projetada, o custo sobe de
modo exponencial. Porém, o valor do
produto aumenta de um modo crescente
no início e depois permanece praticamente
constante, além de um determinado nível
de qualidade. A figura mostra as curvas do
custo do produto e o seu valor. Observa-se
que abaixo do nível de qualidade c, o valor
é sempre menor que o custo do produto;
além do nível, o custo fica maior que o
valor do produto e ele fica impraticável.
Esta curva serve para escolher o nível
mais conveniente de qualidade de projeto.
4.2. Qualidade de conformidade
A qualidade de conformidade implica
que o produto fabricado ou serviço
prestado deve satisfazer as normas
selecionadas na fase de projeto. Com
relação ao setor de fabricação, esta fase
está relacionada com o grau onde a
qualidade deve ser controlada, desde a
compra das matérias primas até a entrega
para o comprador. Esta fase consiste de
três etapas:
1. prevenção de defeito
2. procura de defeito
3. análise do defeito e conserto.
A prevenção de defeito significa evitar a
ocorrência de defeitos e é usualmente
conseguida através de técnicas de controle
estatístico de processo. A procura de
defeito é conduzida através de inspeção,
teste e análise estatística dos dados do
processo. Finalmente, as causas de defeito
são investigadas e são tomadas ações
corretivas.
A qualidade de projeto tem um impacto
na qualidade de conformidade. É claro que
deve ser possível produzir o que é
projetado. Por exemplo, se a especificação
de projeto para o comprimento de um pino
de aço é 20,0 +- 0,2 mm, deve-se ter um
projeto envolvendo ferramentas, materiais
e métodos que produza o pino com esta
especificação. Se o sistema de produção
consegue esta peça com esta
especificação, o produto é fabricado com
esta especificação. Se o processo é capaz
de produzir a peça com especificação de
20,0 ±0,4 mm, a fase do projeto deve ser
revista. Se for possível fabricar pinos
somente com a tolerância de 20,0 ±0,4, a
especificação do produto é alterada. Caso
seja mandatória a especificação de 20,0 ±
0,2 mm, deve-se alterar a ferramenta ou o
método de produção, certamente com
aumento do custo final do produto. Enfim,
deve haver uma constante interação entre
o projeto e a produção de modo que o
projetado possa ser realmente fabricado.
4.3. Qualidade de Desempenho
A qualidade de desempenho está
relacionada com a operação do produto
quando realmente posto para usar ou
quando o serviço foi executado e se mede
o grau de satisfação do consumidor. A
qualidade de desempenho é função da
qualidade de projeto e da qualidade de
desempenho. O teste final do produto é
sempre feito pelo consumidor. A satisfação
de suas expectativas é o principal objetivo.
Se um produto não funciona como é
Fundamentos da Qualidade

217
esperado, deve-se fazer ajustes nas fases
de projeto e de conformidade.


















Fig. 2. Aspectos da qualidade


5. Gerenciamento da Qualidade Total
5.1. Introdução
Em uma economia global, a fabricação
de produtos e a execução de serviços não
possui fronteiras. Uma indústria
automobilística pode ter o gerenciamento
na Alemanha, fabricar o motor no México,
montar o carro no Brasil e vendê-lo e
prestar assistência técnica na Arábia
Saudita. Este carro, da concepção,
fabricação e entrega, deve incorporar
qualidade.
Na Europa, a International Standards
Organization (ISO) desenvolveu normas
(série 9000) para estabelecer uma
linguagem comum e entendimento dos
principais termos e conceitos na qualidade.
Nos Estados Unidos, o American National
Standards Institute (ANSI) é a organização
responsável pela emissão de normas. As
normas ANSI são tecnicamente
equivalentes às normas ISO.
As normas se referem à fabricação de
produtos e execução de serviços, pois
estes parâmetros estão quase sempre
associados. Na maioria dos casos, um
fabricante de produtos é também um
entregador de serviços. Por exemplo,
quando se pede uma refeição no
restaurante, a componente serviço da
comida é tão importante quanto a
componente produto, que é a comida em
si. O maître toma o pedido do cliente com
todas as especificações da comida, o
cozinheiro faz a comida usando produtos
comprados de diversos fornecedores, o
garçom entrega a comida e serve o cliente,
de modo educado e cuidadoso. O
ambiente deve ser adequado para a
conversação, com música ambiente suave
e temperatura adequada. E a conta deve
ser honesta para o cliente e deve dar lucro
ao dono do restaurante.
Quando a qualidade dos bens e
serviços complexos deve ser controlada e
garantida, deve-se implantar um programa
de qualidade total. O objetivo do programa
é medir, detectar, reduzir, eliminar e evitar
deficiências na qualidade. Deficiências
podem ser
1. produtos com defeito
2. serviços descorteses
3. entregas demoradas
4. falta de assistência pós-venda
5.2. Sistema de Qualidade Total
Um sistema de qualidade é estabelecido
na estrutura operacional de toda a
companhia e planta, documentado em
procedimentos efetivos e integrados
relativos ao gerenciamento e trabalhos
técnicos, para orientar as ações
coordenadas das pessoas, máquinas e
informações da companhia e planta do
modo melhor e mais prático possível para
garantir a satisfação da qualidade do
usuário e custos econômicos da qualidade.
5.3. Malha da Qualidade
Os principais elementos da malha de
qualidade de um programa de
gerenciamento de qualidade total,
conforme são os seguintes:
1. Marketing e pesquisa de mercado
2. Projeto, especificação, engenharia e
desenvolvimento do produto
3. Procurement
4. Planejamento e desenvolvimento do
processo
5. Produção
6. Inspeção, teste e exame
7. Embalagem e armazenamento
8. Venda e distribuição
Qualidade
Qualidade de
Conformidade
Qualidade de
Desempenho
Qualidade
de Projeto
Fundamentos da Qualidade

218
9. Instalação e operação
10. Assistência técnica e manutenção
11. Descarte depois do uso
Marketing e pesquisa de mercado
A responsabilidade do marketing é
identificar o mercado, identificar as
necessidades do cliente, desenvolver uma
descrição resumida do produto e
estabelecer um sistema de controle à
realimentação negativa (feedback).
Um mercado pode ser inteiramente
novo, já estabelecido ou um segmento de
um mercado estabelecido. Pode-se
desenvolver um produto totalmente novo
para um mercado novo. Este produto tem
um preço normalmente muito elevado,
para recuperar alguns custos de
desenvolvimento e pesquisa. Esse novo
produto inicialmente não tem competição e
de modo que se alguém quiser comprá-lo,
deve pagar o seu alto preço.
Para um mercado estabelecido, pode-se
ter uma versão melhorada do produto
existente com preço equivalente, ou um
produto similar com preço mais baixo.
Pode-se também desenvolver um produto
especializado para um segmento de um
mercado estabelecido. Esse produto
satisfaz as necessidades de um segmento
específico do mercado alvo.
O marketing também identifica as
necessidades, vontades e expectativas de
produtos e serviços. Quase todo produto
tem um componente serviço associado,
que é tão importante quanto o componente
produto. Por exemplo, quem compra um
microcomputador IBM compra também o
serviço que está associado com o nome
IBM.
Assim que as necessidades do usuário
são identificadas, elas são comunicadas à
organização em termos de um conjunto de
necessidades resumidas em uma
especificação do produto. As necessidades
do cliente se transformam gradualmente
em especificações do produto e do serviço,
como características de desempenho,
estética, embalagem, preço, exigências
legais.
Finalmente, o marketing estabelece
uma informação, monitoração e sistema de
realimentação negativa. As necessidades
do usuário se alteram e uma organização
deve continuamente se acomodar a essas
alterações através do ciclo de vida do
produto. Se não houver esta adaptação, os
produtos e serviços irão envelhecer e não
mais irão satisfazer as necessidades do
usuário.
A maioria dos produtos segue um ciclo
de vida consistindo de quatro estágios:
introdução, crescimento, maturidade e
declínio. Esses quatro estágios mostram o
perfil de vendas de um produto. Quando
um produto é introduzido no mercado, as
vendas podem ser baixas por que as
pessoas ainda não conhecem o produto ou
não conhecem os benefícios resultantes de
seu uso ou o produto pode ter um preço
muito alto. Em seu estágio de crescimento,
através da propaganda, as pessoas tomam
conhecimento de seus benefícios
potenciais ou de sua habilidade de
satisfazer suas necessidades. As vendas
crescem. No estágio de maturidade, os
competidores desenvolvem produtos
melhores com mesmo preço ou produtos
com igual desempenho mas com preço
menor. As vendas permanecem estáveis.
Finalmente, no estágio de declínio, a
competição força a organização
desenvolver novos produtos ou abaixar o
preço do produto existente. De qualquer
modo, as vendas caem.
Projeto, especificação, engenharia e
desenvolvimento do produto
A engenharia usando o resumo do
produto, transforma as necessidades do
usuário em especificações técnicas para
materiais, produtos e processos. No
desenvolvimento do produto, são
considerados os seguintes parâmetros:
necessidades do usuário, custo, facilidade
de fabricação e de teste e qualidade do
projeto.
A engenharia primeiro desenvolve uma
ideia e o conhecimento do que o usuário
quer ou espera. Geralmente, as
necessidades, vontades e expectativas do
usuário são vagas e a engenharia somente
tem uma ideia abstrata do mercado. O
marketing deve obter informações dos
grupos enfocados, amostragens,
pesquisas e outras fontes. O marketing
acredita que a organização pode
desenvolver um produto ou serviço para
satisfazer estas exigências. A engenharia
então determina se é possível desenvolver
Fundamentos da Qualidade

219
o produto dentro do tempo e orçamento
estabelecidos.
Mesmo durante as considerações da
satisfação do cliente, os custos do produto
e sua entrada são sempre considerados.
Se um produto tem um alto preço e uma
imagem de qualidade, ele vende pouco, o
mercado é rico mas não é um mercado de
massa.
Às vezes, o engenheiro projeta um
produto no terminal do computador e não
solicita informação ou ajuda quanto à sua
capacidade de ser construído. Um produto
projetado com pequenas tolerâncias é, às
vezes, impossível de ser fabricado ou
operado. Tolerâncias muito pequenas ou
muito grandes podem resultar em falhas
prematuras, causadas pela interferência de
peças muito encaixadas ou muito folgadas.
A qualidade no projeto é essencial para
um produto final ser livre de defeitos,
seguro e confiável. Projeto ruim causa
falha prematura do produto. Se os erros de
projeto não são corrigidos, eles são
repetidos em cada produtos fabricado. O
projeto bom implica em segurança e
saúde. Se uma planta nuclear não é
projetada e construída com a segurança
em mente, um acidente pode liberar
radioatividade na atmosfera, resultando em
mortes (Chernobyl e Three Mile Island).
O projeto também deve considerar a
confiabilidade, o efeito a longo prazo da
qualidade. Produto confiável é aquele que
raramente se estraga. Quando estragado,
o produto deve ser rapidamente
consertado. O instrumento é considerado
muito disponível quando raramente se
estraga e é facilmente consertado.
Matéria prima
Dependendo do produto e da indústria,
muitos fabricantes usam cerca de 70% de
seu material de fornecedores externos. Um
produto final só é de boa qualidade quando
os seus componentes adquiridos forem de
boa qualidade. Assim, a compra e o
controle de compra das matérias primas e
peças de terceiros são fundamentais para
a qualidade do produto final.
Deve-se selecionar e monitorar os
fornecedores. A seleção dos fornecedores
é um processo formal que avalia os
fornecedores quanto à sua habilidade de
fabricar um produto sem defeito, com
preço competitivo, entregue no tempo
combinado e com suporte de serviço
adequado. A monitoração dos
fornecedores garante que seus produtos
estão de conformidade com as
especificações. A monitoração inclui
auditorias nas dependências do fornecedor
relativas ao seu sistema de qualidade,
teste e melhoria do produto.
Um fabricante é um comprador de seus
fornecedores. O comprador deve
comunicar aos seus fornecedores as suas
especificações detalhadas, com desenhos,
ordens de compra e contratos. As
necessidades do usuário devem incluir:
1. características de qualidade do
produto
2. características de serviço
3. ambiente de operação
4. identificações precisas de estética e
grau de qualidade
5. instruções de inspeção
6. especificações do produto
Processo, planejamento e
desenvolvimento
Os processos de produção, quer sejam
de inspeção, montagem ou fabricação,
devem ser planejados para que operem
corretamente sob condições controladas.
Isto significa que os equipamentos de
fabricação, produção e os instrumentos de
medição são monitorados, calibrados e
controlados conforme programas
elaborados para fabricar produtos sem
defeitos. A variabilidade causada pelos
operadores, materiais, métodos e
máquinas é mantida dentro de limites
mínimos exequíveis. As operações de
produção são detalhadas. As instruções de
trabalho e manutenção são seguidas. O
pessoal envolvido é treinado.
Produção
A produção torna realidade o projeto da
engenharia. Os desenhos e especificações
são transformados em produto. Produção é
um termo abrangente que inclui
montagem, fabricação e inspeção em
linha.
A responsabilidade pela qualidade fica
com o operador e o supervisor de
produção. O supervisor de produção deve
comunicar a importância da qualidade ao
pessoal da linha de montagem. Deve haver
uma dedicação honesta na perseguição e
Fundamentos da Qualidade

220
obtenção da excelência e uma interminável
e contínua melhoria. Se o programa de
qualidade é apenas retórico ou teórico, o
trabalhador da linha de produção ou o
operador do processo sente a
manipulação, rejeita-a e não se empenhará
para que o produto final tenha a qualidade
desejada.
Assim que um processo entra em
operação, ele é controlado manual ou
automaticamente para garantir as
características de qualidade e quantidade
do produto, dentro de limites determinados.
Pode-se implantar o controle estatístico de
processo, que engloba as seguintes idéias
básicas:
1. qualidade é a conformidade com as
especificações
2. processos e produtos variam sempre
3. as variações nos processos e
produtos podem ser medidas
4. as variações seguem padrões
identificáveis
5. as variações devidas a causas
assinaláveis distorcem o formato da
distribuição normal
6. as variações são detectadas e
controladas através do controle
estatístico do processo.
O controle estatístico de processo
envolve a comparação da saída de um
processo ou serviço com uma norma ou
padrão e a tomada de ações corretivas em
caso de discrepância entre as duas. O
controle estatístico também envolve a
determinação da habilidade de um
processo fabricar um produto que satisfaça
as especificações ou necessidades
desejadas.
Inspeção, teste e exame
Inspeção, teste e exame são aplicados
a processos e produtos. O nível de teste
depende do produto, do risco ao
consumidor, risco ao produtor, custo e
legislação vigente. Por exemplo, produtos
envolvendo a saúde e segurança públicas
tem riscos associados com o produtor e o
consumidor, se o produto falha. Este tipo
de produto deve ser regulado por leis
governamentais, que incluem testes e
inspeção. Por exemplo, produtos
alimentícios e farmacêuticos possuem
legislação federal específica, que
estabelece testes, fabricação e
distribuição.
A qualidade do produto é somente tão
exata quanto os instrumentos de medição
usados para verificar sua qualidade. Isto
implica que qualquer instrumento de
medição deve ser exato e preciso para
fornecer o gerenciamento com suficiente
confiança nas decisões e ações baseadas
nas medições. Indicadores locais,
instrumentos e equipamentos de teste
automático devem ser escolhidos para
satisfazer ou exceder as exigências do
usuário. Todo instrumento de medição
deve ser calibrado ou aferido em intervalos
regulares, com padrões apropriados. Todo
padrão, em qualquer nível hierárquico deve
ser calibrado ou aferido também em
intervalos regulares, nas próprias
dependências ou em laboratórios externos.
A qualidade do produto pode ser
verificada através da entrada, em linha
com o processo ou através da inspeção
final. A matéria prima examinada quando
chega. O controle estatístico do processo é
usado para controlar o desempenho em
linha do processo. A inspeção final ocorre
antes que o produto é enviado para a
estocagem ou para o usuário.
O grau e a frequência da inspeção
depende da importância da característica
da qualidade e da capacidade do
processo. Se a qualidade de um produto é
essencial ao desempenho do produto,
então o produto pode ser 100%
inspecionado.
Embalagem e armazenamento
A qualidade somente pode ser mantida
se os produtos são embalados,
armazenados, manipulados e
transportados adequadamente. A
embalagem adequada protege o conteúdo
contra perigos devidos a vibração, choque
mecânico, calor, abrasão e corrosão.
Alguns produtos requerem cuidados
especiais no armazenamento, manipulação
e embalagem. Por exemplo, circuitos
eletrônicos integrados devem ser
embalados em sacos envelopes
antiestáticos; produtos alimentícios
perecíveis devem ser transportados em
containers refrigerados; equipamentos que
entram em contato direto com oxigênio,
Fundamentos da Qualidade

221
cloro ou outro oxidante forte deve ser
isento de pó e óleo.
Vendas e distribuição
Assim que o produto é vendido, ele
deve ser entregue ao comprador em
estado intacto, no prazo combinado e de
modo cortês. Se o produto é danificado
durante o transporte, o problema deve ser
tratado efetiva e eficientemente com o
comprador. Se o pessoal de entrega é mal
educado, cria-se uma má impressão do
produto, mesmo antes de ser usado. É
importante monitorar e corrigir essa
situação porque ela afeta as vendas
futuras.
Instalação e operação
Produtos industriais complexos podem
requerer ferramentas, equipamentos,
métodos especializados ou pessoal
treinado para a sua instalação e operação.
Em um mínimo, as máquinas e produtos
complexos devem ter manuais detalhados
e claros, que descrevem a instalação e
operação seguras. A documentação de
instalação e operação inclui instruções de
montagem, reparo, instalação e operação,
lista de peças de reposição e informação
de serviço do produto.
Assistência técnica e manutenção
Assim que o produto é vendido, o
comprador de um produto técnico ou
complexo poderia requerer assistência
técnica para manter sua operação.
Assistência técnica pode se resumir em
responder perguntas por telefone. Serviço
pós-venda de equipamento complexo pode
significar o envio de um técnico
especializado para reparar, substituir,
manter ou modificar uma peça sofisticada
do equipamento. A assistência técnica pós-
venda cria lealdade ao produto ou à marca,
que gera novas vendas.
Jogada fora depois do uso
Após o uso, um produto descartável
deve ser jogado fora de modo adequado e
seguro. Se o produto não tem mais vida
útil, ele deve ser jogado fora. Porém, um
produto pode ter sua vida estendida,
quando reparável. Se ele deve ser jogado
fora, isso deve ser feito de modo a não
prejudicar a segurança, saúde ou
ambiente. Por exemplo, a legislação cuida
e regula o lixo de produtos químicos
tóxicos.
Depois que um produto sai da malha de
qualidade, a malha recomeça com um
outro produto, novo ou melhorado. Há
muito poucos produtos ou serviços que
não seguem a malha da qualidade, por que
os produtos devem se adaptar às
variações do mercado ou desaparecer.











Modo detecção – inspeção













Modo prevenção – controle de processo

Fig. 6. Comparação entre operações de
inspeção e prevenção




Consumidor
Máquina
Operador
Material
Métodos
Ambiente
Process Inspeçã
Valor adicionado Custo adicionado
Produto retrabalhado
Custo adicionado
Produto descartado
Custo adicionado
Máquina
Operado
r
Material
Métodos

Processo
Consumido
r satisfeito
Mediçã
Valor adicionado
Ajustes
Fundamentos da Qualidade

222





























Fig. 4. Malha típica de qualidade, conforme ANSI/ASQC Norma Q94: Quality Management
and Quaality System Elements – Guide lines.



Jogado fora depois do
Assistência técnica e
manutenção
Marketing e pesquisa de
Engenharia do projeto e
especificação do produto
Instalação e operação
Venda e distribuição
Embalagem e
Inspeção, teste e
Produção
Planejamento e
desenvolvimento do processo
Compra de matéria
prima e peças
Fundamentos da Qualidade

223
6. Inspeção e Prevenção
6.1. Inspeção
A prevenção de defeitos, não
conformidades, falhas e imperfeições é a
filosofia básica do programa de qualidade.
A prevenção diminui os defeitos, melhora
os processos e eventualmente diminui os
custos. Os conceitos de inspeção e
prevenção são diferentes.
As entradas são as mesmas nos
processos de inspeção e prevenção:
máquina, operador, material, método e
ambiente. Cada uma dessas entradas é
uma causa potencial de dispersão ou
variação das características do produto. As
operações de fabricação ou montagem
processam as entradas, adicionando valor
em cada passo operacional.
Um processo pode ter de um até 100
passos. No final do primeiro passo ou no
centésimo passo, um operador pode
inspecionar ou testar o produto para
verificar sua conformidade com a
especificação. Se aceitável, o produto é
embalado e enviado para o comprador. Se
rejeitado, o produto é jogado fora ou
enviado de volta para o processo para
retrabalho. Pelo tempo que o produto é
processado, adiciona-se valor ao produto
em termos de trabalho direto, matérias
primas, equipamento e treinamento. Neste
ponto, se um produto é jogado fora ou
retrabalhado, perde-se valor.

6.2. Modo Prevenção
No modo prevenção, as entradas são as
mesmas. Também, o processo pode ter de
um a 100 passos e adiciona-se valor em
cada passo. No modo prevenção, o
processo é controlado. A diferença básica
entre inspeção e prevenção é que durante
o processo, o operador continuamente
mede peças e ajusta o processo se a
característica desvia dos limites
calculados. O operador evita que ocorram
defeitos, controlando a saída da operação.
O objetivo é enviar produtos sem defeitos
ao usuário.
7. Medição
A qualidade é somente tão boa quanto o
instrumento de medição.
A medição é importante por que a
qualidade das decisões de gerenciamento
subsequentes é somente tão confiável
quanto os dados obtidos através dos
instrumentos de medição. Muitas análises
de qualidade assumem que os dados da
medição são exatos e precisos, mas nem
sempre isso é garantido. Os instrumentos
de medição podem ser de má qualidade
(imprecisos) ou descalibrados (inexatos).
Mais ainda, os instrumentos podem estar
podem estar mal aplicados, abusados,
ultrapassados e estragados.
Assim como o produto de um processo
de fabricação pode variar durante um
período de tempo, a saída de um
instrumento complexo de medição pode
variar com o tempo. O controle da
qualidade é responsável pela seleção do
instrumento apropriado e pela manutenção
de sua exatidão. A exatidão é estabelecida
e mantida através de um programa
sistemático de calibração periódica,
armazenamento seguro e manuseio
correto.
A medição exata requer:
1. unidades de medição do SI
2. seleção do instrumento de exatidão
necessária
3. calibração dos instrumentos após
abuso, queda, defeito
4. calibração periódica dos instrumentos
5. calibração envolvendo padrões com
exatidão de 4 a 10 vezes melhor que
a do instrumento calibrado
6. programa de aferição e calibração
dos padrões envolvidos (trabalho,
transferência e referência)
7. operação e manutenção feita por
pessoal treinado e motivado.
Fundamentos da Qualidade

224
8. Algumas Filosofias de
Qualidade
8.1. Introdução
Várias pessoas fizeram grandes
contribuições no campo do controle da
qualidade. Aqui serão vistas as
contribuições de três pioneiros que tiveram
um papel fundamental na adoção e
integração da garantia e do controle da
qualidade na indústria, através de seus
ensinamentos, artigos, livros e
consultorias. Estes pioneiros são W.
Edwards Deming, Philip B. Crosby e
Joseph M. Juran Todas as filosofias
centram a qualidade no gerenciamento e
no seu comprometimento com o programa
da qualidade.
8.2. W. Edwards Deming e sua
filosofia
W. E. Deming foi um consultor que se
tornou famoso com o trabalho de qualidade
feito no mundo industrial japonês, a partir
do término da Segunda Grande Guerra.
Ele era matemático e físico, com PhD. da
Universidade de Yale, em 1928. Ele tinha
um grande conhecimento de estatística
que ele aplicou no controle de qualidade.
Em 1950 ele foi convidado pela União
de Cientistas e Engenheiros Japoneses
(JUSE) para ir ao Japão. Até esta data o
Japão tinha uma reputação ruim em
qualidade e estava falido depois da guerra.
Mesmo com estas condições iniciais
adversas, Deming conseguiu desenvolver
e inocular produtos japoneses com
qualidade. Durante os últimos 40 anos o
produto japonês passou a ser sinônimo de
qualidade. O Japão passou a fabricar
relógios melhores que os suíços, máquinas
fotográficas melhores que as japonesas,
equipamentos eletrônicos melhores que os
americanos, navios melhores que os
escandinavos. A melhoria da qualidade
não foi repentina, de um dia para outro,
mas foi um processo lento e contínuo. Até
hoje são válidos e aplicados os princípios
de Deming no Japão. O americano Deming
foi agraciado com a Medalha de Segunda
Ordem do Tesouro Sagrado pelo
imperador Hirohito e no Japão existe o
Prêmio Deming para pessoas ou firmas
que tenham se destacado no campo da
qualidade. Já foram ganhadoras do Prêmio
Deming firmas como Toyota, Nissan,
Nippon Steel e Hitachi. A Texas
Instruments foi a primeira firma americana
a ganhar este prêmio (1985).
É irônico que o primeiro nome em
qualidade no Japão seja um americano. A
verdade é mais estranha que a versão. As
firmas americanas rejeitaram as idéias de
Deming, logo depois da guerra. Neste
período a demanda era muito grande, a
qualidade aceitável. Como tudo que era
produzido era vendido, pouco se fez para
melhorar a qualidade. Não houve uma
visão a longo prazo e nem evolução.
Somente depois que os produtos
japoneses substituíam os produtos
americanos, nos Estados Unidos, é que as
indústrias americanas começaram a adotar
a filosofia de controle e garantia de
qualidade. Esta adaptação era o único
meio de sobrevivência - não havia outra
alternativa.
Filosofia
A filosofia de Deming enfatiza o
gerenciamento. Quase 85% dos problemas
da indústria podem ser resolvidos apenas
por gerenciamento. Estas tarefas envolvem
mudança no sistema de operação e não
são influenciadas pelos trabalhadores. Os
trabalhadores tem a responsabilidade de
comunicar a informação que eles tem
sobre o sistema para o gerente, de modo
que ambos trabalhem em harmonia. Para
Deming a organização é uma entidade
integrada. Deve haver um planejamento a
longo prazo e um plano de ação a curto
prazo. Por exemplo, no Brasil, só se pensa
em ganhos rápidos e imediatos.
Deming acredita na adoção de
programa de qualidade total e enfatiza a
natureza contínua e interminável do
controle da qualidade e na sua melhoria.
Tal programa leva inevitavelmente para os
objetivos estabelecidos, maior
produtividade e menores custos totais a
longo prazo. Ele elimina o erro de se
pensar que o aumento da qualidade
também aumenta os custos e diminui a
produtividade. A filosofia de Deming
oferece um plano de ação para se obter
resultados a longo prazo. Ele afirma a
necessidade de se desenvolver uma
Fundamentos da Qualidade

225
cultura na organização onde se
abandonam os objetivos imediatos, como
os lucros trimestrais. A filosofia de
qualidade deve ser adotada, praticada e
usada como um meio de vida na
organização. Os princípios devem ser
reaprendidos e refinados baseando-se na
experiência acumulada de cada firma. No
centro da filosofia está a necessidade de
os gerentes e trabalhadores falarem a
mesma linguagem e a linguagem sugerida
pelo matemático Deming é a estatística. A
filosofia Deming só produz resultados
notáveis quando todo o pessoal envolvido
com o processo entende os princípios
fundamentais de estatística para usar no
controle e melhoria do processo. Assim, as
idéias fundamentais tratam do
entendimento e uso de ferramentas
estatísticas e uma mudança na atitude de
gerenciamento Os 14 pontos de Deming
fornecem uma referência para a ação aos
gerentes e um caminho a ser seguido para
ser competitivo por muito tempo.
Enfim, quando ele aponta para a lua, ele
olha a lua e não a ponta do dedo!
14 pontos de Deming
O foco da filosofia de Deming está no
gerenciamento. Para Deming, o gerente
não pode fugir da responsabilidade e tentar
culpar os outros. Embora uma minoria dos
problemas sejam devidos aos
fornecedores ou trabalhadores, a maioria
dos problemas é devida ao gerenciamento.
Deve-se alterar fundamentalmente o estilo
de gerenciamento e a cultura da empresa.
Na filosofia de Deming a gerência deve
criar um ambiente de segurança para os
trabalhadores sentirem orgulho de seu
trabalho e serem recompensados de
acordo. Os gerentes e trabalhadores
devem trabalhar juntos, como uma equipe,
para lidar com os fornecedores e
investidores. A cultura da organização
deve remover o medo do sistema de modo
que os trabalhadores possam se sentir
confortáveis em recomendar alterações do
produto ou do processo. Deve haver
confiança entre empregados e gerentes.
Os 14 pontos de Deming fornecem o
sentido da direção. Os métodos de Deming
incorporam ferramentas estatísticas. A
adoção destes princípios garantem e
sustentam a produtividade e competição
da companhia por muito tempo.
1. Crie e publique para todos os
empregados a declaração dos
objetivos e propósitos da
companhia. O gerenciamento
deve demonstrar constantemente
a responsabilidade de seguir esta
declaração.
2. Aprenda a nova filosofia, a alta
gerência e todo mundo.
3. Entenda o objetivo da inspeção
para a melhoria dos processos e
redução dos custos.
4. Acabe com a prática de
considerar o negócio somente na
base do preço final.
5. Melhore constantemente e pelo
futuro todo o sistema de produção
e serviços.
6. Institucionalize o treinamento
7. Ensine e institucionalize a
liderança.
8. Elimine o medo. Crie confiança.
Crie um clima de inovação.
9. Otimize através dos objetivos e
propósitos da companhia os
esforços da equipe, grupos e
pessoal técnico.
10. Elimine os exageros para a força
de trabalho.
11. Elimine as cotas numéricas para
a produção. Em vez disso,
entenda e institua métodos para a
melhoria. Elimine o gerenciamento
por objetivos. Em vez disso,
entenda as capacidades do
processo e como melhorá-las.
12. Remova as barreiras que tiram o
orgulho da mão de obra das
pessoas.
13. Encoraje a educação e a
competência de todos.
14. Aja para acompanhar a
transformação
8.3. Philip B. Crosby e sua filosofia
Philip B. Crosby trabalhou 14 anos na
ITT como responsável pelas operações de
qualidade da companhia em todo o mundo
e atualmente é o presidente da Philip
Crosby Associates (1979).
O enfoque Crosby começa com uma
avaliação do sistema de qualidade
existente. Sua grade de gerenciamento da
Fundamentos da Qualidade

226
qualidade fornece um método de identificar
onde está a operação de qualidade
existente e aponta as operações que
podem ser melhoradas. Esta grade é
dividida em cinco estágios de maturidade:
1. incerteza (uncertainty)
2. despertar (awakening)
3. conhecimento (enlightenment)
4. julgamento (wisdom)
5. certeza (certainty)
Há seis categorias de gerenciamento
que ajudam na avaliação do processo:
1. entendimento e atitude do
gerenciamento
2. status da qualidade da organização
3. manipulação do problema
4. custo da qualidade como % de
vendas
5. ações para a melhoria da qualidade
6. sumário da postura de qualidade da
companhia.
4 premissas do gerenciamento da
qualidade
Para entender o significado de
qualidade, Crosby identificou quatro
premissas do gerenciamento da qualidade:
1. Definição de qualidade: qualidade
significa conformidade com
necessidades.
2. Sistema para obtenção da qualidade:
o enfoque racional é a prevenção de
defeitos.
3. Padrão de desempenho: o único
padrão de desempenho é zero
defeito.
4. Medição: a medição do desempenho
é o custo da qualidade, que inclui
refugo, retrabalho, serviço, inspeção
e teste.
14 passos para a melhoria da qualidade
Crosby também tem o número
cabalístico de 14 passos para a melhoria
da qualidade.
1. Comprometimento da gerência
2. Equipe de melhoria da qualidade
3. Medição da qualidade
4. Avaliação do custo da qualidade
5. Despertar da qualidade
6. Ação corretiva
7. Ad hoc comitê para programa de
zero defeito
8. Treinamento de supervisores
9. Dia do zero defeito
10. Estabelecimento de objetivo
11. Remoção da causa de erro
12. Reconhecimento
13. Seminários de qualidade
14. Faça isso sempre.
8.4. Joseph M. Juran e sua filosofia
O engenheiro e advogado Joseph M.
Juran é o fundador e presidente emérito do
Instituto Juran, que oferece consultoria e
treinamento de gerenciamento em
qualidade. Desde 1924 Juran desenvolve
uma carreira na indústria como
engenheiro, árbitro e diretor, além de ter
sido administrador do governo e professor
universitário. Possui vários livros sobre
planejamento, controle, gerenciamento e
melhoria da qualidade. Começou a dar
cursos no Japão (1954) e depois repetiu os
seminários durante mais de 30 anos, em
mais de 40 países e todos os continentes.
Juran define qualidade como
adequação ao uso. O foco da qualidade é
a necessidade do usuário final. Há várias
não-uniformidades em uma companhia que
atrapalham o desenvolvimento de um
processo, como
1. Há funções múltiplas, como
marketing, projeto e
desenvolvimento, fabricação e venda
do produto, onde cada função se
julga a mais importante, a única e a
especial.
2. A presença de níveis hierárquicos na
estrutura da organização cria grupos
de pessoas com diferentes
responsabilidades. Estes grupos
variam em formação e tem diferentes
conceitos acerca da qualidade.
3. Há várias linhas de produto que
diferem em mercado, processos de
produção, causando uma perda de
unidade.
Juran propõe um modo universal de
pensar qualidade. Este conceito deve ser o
mesmo para todas as funções, níveis de
gerenciamento e ilhas de produto. A
qualidade requer continuamente
1. planejamento
2. controle
3. melhoria.
Planejamento
O planejamento da qualidade inclui:
1. Identificação do cliente, interno e
externo.
Fundamentos da Qualidade

227
2. Determinação das necessidades do
cliente.
3. Desenvolvimento das características
do produto que atendam as
necessidades do cliente.
4. Estabelecimento dos objetivos da
qualidade que satisfaçam igualmente
às necessidades dos clientes e
fornecedores, a um custo combinado
mínimo.
5. Desenvolvimento de um processo
que possa fabricar as características
necessárias do produto.
6. Prova da capacidade do processo.
Controle
O controle da qualidade inclui:
1. Escolha das características a serem
controladas
2. Escolha das unidades de medição.
3. Estabelecimento das medições.
4. Estabelecimento das especificações
e padrões.
5. Medição do desempenho real.
6. Interpretação da diferença entre o
real versus o padrão.
7. Eliminação das diferenças.
Melhoria
A melhoria da qualidade envolve:
1. Prova da necessidade da melhoria.
2. Identificação dos projetos específicos
para a melhoria.
3. Organização para conduzir os
projetos.
4. Organização dos diagnósticos para
descobrir as causas.
5. Procura das causas.
6. Tomada de ações corretivas.
7. Prova de que as ações corretivas são
efetivas nas condições de operação.
8. Fornecimento de controle para
manter os ganhos.
8.5. Comparação das Três Filosofias
As três filosofias de qualidade de
Deming, Crosby e Juran tem o mesmo
objetivo de desenvolver um sistema
integrado de qualidade total com uma
atuação contínua na melhoria. Há muitas
semelhanças e algumas diferenças entre
estes três planos. Como disseram Lowe e
Mazzeo, são três pastores e uma única
religião.
Definição
A definição de Deming trata a qualidade
como uma uniformidade previsível do
produto, conseguida através do controle
estatístico do processo. A qualidade do
produto é refletida na qualidade do
processo, que é o seu foco de atenção. A
sua definição não dá muita importância ao
usuário final, como o fazem Crosby e
Juran. Deming inclui o usuário no conceito
de processo estendido.
Crosby define qualidade como
conformidade à necessidade. A
necessidade é formulada em função do
usuário. O desempenho de zero defeito
implica em procurar estar sempre
satisfazendo um conjunto de exigências.
Juran define qualidade como
adequação do produto a um uso
estabelecido e incorpora o usuário. A
definição relaciona claramente a satisfação
da necessidades do cliente.
Compromisso da gerência
Todos os três especialistas enfatizam a
importância do comprometimento da alta
gerência no programa de qualidade.
Deming fala da criação de um objetivo
permanente e constante em direção à
melhoria da qualidade e define as tarefas
da gerência.
Crosby fala da criação de uma cultura
de qualidade, que só pode ser obtida
através do envolvimento da gerência.
Juran fala do planejamento, controle e
melhoria do processo de qualidade com o
suporte da gerência em todos os níveis.
Assim, em todas as três filosofias, o
suporte da alta gerência é fundamental.
Estratégia
Deming estabelece uma estratégia para
a alta gerência. A gerência deve seguir os
primeiros 13 pontos e deve criar uma
estrutura para promover continuamente
esses 13 pontos em um ciclo interminável
de aprimoramento (o 14
o
ponto cria esta
estrutura).
O enfoque de Crosby é estruturado. Seu
segundo ponto sugere a criação das
equipes de melhoria de qualidade.
Juran recomenda a criação de equipes
de pessoas para orientar o processo de
melhoria da qualidade, diagnosticando e
resolvendo os eventuais problemas.
Fundamentos da Qualidade

228
Medição
Os três especialistas consideram a
qualidade uma entidade possível de ser
medida, assumindo diferentes graus. Às
vezes, se quer saber os efeitos da boa
qualidade em dinheiro, em economia, em
aumento de produtividade. Um objetivo
fundamental da estratégia de qualidade é
eliminar refugos e retrabalho, que irá
reduzir o custo da produção e aumentar a
produtividade. O custo total da qualidade
pode medido dividindo-se a qualidade em
itens como prevenção, avaliação, falha
interna e externa. É mais difícil medir o
custo da não-qualidade ou o prejuízo
provocado pela não-satisfação do cliente.
Crosby dizia que a qualidade é grátis, é a
não-qualidade que custa.
Processo interminável
Todas as três filosofias de Deming,
Crosby e Juran acreditam em um processo
sem fim de melhoria da qualidade. Os 14
pontos de Deming são repetitivos em
relação à melhoria da qualidade e há o
ciclo PDCA (Plan-Do-Check-Act - planejar,
fazer, verificar e agir). Crosby e Juran
recomendam o ciclo contínuo de planejar,
controlar e melhorar a qualidade.
Educação e treinamento
É fundamental para a melhoria da
qualidade a existência de um pessoal que
seja treinado na filosofia e nos aspectos
técnicos da qualidade. Deming se refere ao
treinamento em seu ponto 6, que
recomenda o treinamento de todos os
empregados e no ponto 13 que descreve a
necessidade de retreinamento para se
manter sintonizado com as mudanças das
necessidades do cliente, através de
alterações no produto e no processo.
A educação é também citada por
Crosby em seu ponto 8, que enfatiza a
necessidade do desenvolvimento de uma
cultura de qualidade dentro da organização
para haver um clima propício à qualidade.
Juran não fala explicitamente em
educação e treinamento. Porém, estes
conceitos estão implícitos, por causa da
necessidade de diagnosticar os defeitos e
determinar as ações corretivas, só possível
com um pessoal com conhecimento do
processo e das relações causa e efeito do
sistema.
Eliminação das causas dos problemas
Deming usa os termos causas especiais
e causas comuns para denominar os
problemas que aparecem devido à
ocorrência de algo imprevisto ou que
sejam inerentes ao sistema,
respectivamente. Exemplos de causas
especiais são os problemas devidos à
qualidade inferior de um vendedor não-
qualificado ou uso de uma ferramenta
inadequada. As causas comuns não
possuem razões especiais e podem ser
eliminadas com mudanças no sistema.
Exemplos de causas comuns são a
variabilidade natural da máquina e da
capacidade do operador.
Deming e Juran estabelecem que cerca
de 85% dos problemas são controláveis
pelo gerenciamento. Assim, ações de
gerenciamento podem eliminar diretamente
os problemas ou podem fornecer a
autoridade e as ferramentas para os
trabalhadores eliminarem os problemas.
O centro da filosofia de Deming é o uso
de técnicas estatísticas para a identificação
das causas especiais e das causas
comuns. Deming atribui as variações fora
dos limites de controle como especiais.
Estas variações podem ser controladas
pelo operador e os operadores devem
tomar providências para eliminá-las. As
variações dentro dos limites de controle
são consideradas comuns. Estas variações
são controláveis pelo gerenciamento e
requerem ação da sua parte para serem
removidas.
Juran diz que as causas especiais criam
problemas esporádicos e as causas
comuns criam problemas crônicos. Juran
fornece recomendações detalhadas para
identificar os problemas esporádicos. Por
exemplo, os erros do operador podem ser
acidentais, propositais ou devidos a
treinamento inadequado e técnica
imprópria.
Juran e Crosby fornecem
especificações para se obter o
desempenho padrão de zero defeito.
Crosby sugere a ação para a remoção da
causa de erro em seu ponto 11.
Estabelecimento de objetivo
Deming diz claramente que se deve
evitar estabelecer objetivos numéricos
arbitrários. Ele acha que objetivos
Fundamentos da Qualidade

229
numéricos impedem, em vez de apressar a
implementação de um sistema de
qualidade total. Não se deve estabelecer
objetivos de curto prazo baseados em
níveis de produtividade sem considerar a
qualidade. Deming não vê necessidade de
objetivos de curto prazo pois enfatiza que o
processo de melhoria da qualidade nunca
acaba.
Crosby e Juran recomendam o
estabelecimento de objetivos. O ponto 10
de Crosby trata do estabelecimento de
objetivos, onde os empregados sob a
orientação dos seus supervisores, devem
estabelecer objetivos mensuráveis mesmo
para curto prazo, de 30 a 90 dias. Juran
recomenda um programa anual de
melhoria de qualidade com objetivos
estabelecidos. Ele acredita que tais
objetivos ajudam na medição do sucesso
dos projetados de qualidade aplicados em
um dado ano. Os objetivos devem se
basear nas necessidades dos
consumidores. O desempenho do
programa é medido pela obtenção dos
objetivos numéricos estipulados.
Plano estrutural
Os 14 pontos de Deming para a
melhoria da qualidade enfatizam o uso de
ferramentas estatísticas em todos os
níveis. Primeiro, se leva o processo para
um estado de controle estatístico, através
de cartas de controle e depois procura-se
melhorar o processo. A eliminação das
causas especiais para levar o processo
para o estado de controle ocorre nos níveis
inferiores da estrutura da organização.
Quando essas causas são removidas e o
processo fica sob controle estatístico,
requer a atenção dos níveis superiores da
gerência para conseguir melhoria
adicional. O plano de Deming é de baixo
para cima.
Crosby enfatiza uma mudança na
cultura de gerenciamento. Depois de se
implantar a nova cultura, se propõe um
plano para gerenciar a transição. O se
plano é de cima para baixo.
Juran enfatiza a melhoria da qualidade
através de um enfoque projeto-por-projeto.

Apostila\Metrologia. ApA-FundQual.doc 27 MAI 97 (Substitui 27 MAI 96)
Referências Bibliográficas

230
Referências Bibliográficas
01. Almeida, G. Sistema Internacional de Unidades (SI), Lisboa, Platano, 1988.
02. Arnold, K.L., Guia Gerencial para a ISO 9000, Rio de Janeiro, Editora Campus, 1995.
03. Anthony, D.M., Engineering Metrology, Oxford, Pergamon, 1986.
04. AT & T Technologies, Statistical Quality Control Handbook, Charlotte, Delmar, 1984.
05. Banks, J., Principles of Quality Control, New York, John Wiley, 1989.
06. Barney, G.C., Intelligent Instrumentation, 2
a
. ed., Longon, Prentice Hall, 1988.
07. Benedict, R.P., Fundamentals of Temperature, Pressure and Flow Measurements, 2
a
.
ed., New York, John Wiley, 1977.
08. Bentley, J.P., Principles of Measurement Systems, 2
a
. ed., Singapore, Longman, 1983.
09. Berkov, V., Metrologie Industrielle, Moscow, MIR, 1983.
10. Besterfield, D.H., Quality Controle, 4
a
. ed., Englewood Cliffs, Prentice-Hall, 1994.
11. Cheremisinoff, N.P. & Cheremisinoff, P.N., Unit Conversions and Formulas, Ann
Arbor, Butterworth, 1980.
12. Connell, B., Process Instrumentation Applications Manual, New York, McGraw-Hill,
1996.
13.Coyne, G.S., Laboratory Handbook of Materials, Equipment, & Technique, Englewood
Cliffs, Prentice-Hall, 1992.
14. Cox, D.R., Planning of Experiments, Singapore, John Wiley, 1958.
15. Dally, J.W., Riley, W.F. & McConnell, K.G., Instrumentation for Engineering
Measurements, 2
a
. ed., Singapore, John Wiley, 1993.
16. Dieck, R.H., Measurement Uncertainty - Methods and Applications, Research Triangle
Park, ISA, 1992.
17. Dieter, G.E., Engineering Design, 2
a
. ed., Singapore, McGraw-Hill, 1991.
18. Doebelin, E.0., Engineering Experimentation, Singapore, McGraw-Hill, 1995.
19. Doebelin, E.0., Measurement systems, 4
a
. ed., Singapore, McGraw-Hill, 1990.
20. Figliola, R.S. & Beasley, D.E., Theory and Design for Mechanical Measurements, 2
a
.
ed., Singapore, John Wiley, 1995.
21. Fleming, M.C. & Nellis, J.G., Essence of Statistics for Business, Hertfordshire, Prentice
Hall, 1991.
22. Fluke, Calibration: Philosophy in Pratice, Everett, Fluke, 1994
23. Friesth, E.R., Metrication for Manufacturing, New York, Industrial Press, 1978.
24. Gibbings, J.C., Systematic Experiment, Cambridge, Cambridge University Press, 1986.
25. Grant, E.L. & Leavenworth, R.S., Statistical Quality Control, 6
a
. ed., Singapore,
McGraw-Hill, 1977.
26. Halpern S., Assurance Sciences - Introduction to Quality Control & Reliability,
Englewood Cliffs, Prentice-Hall, 1978.
27. Hamburg, M. & Young, P., Statistical Analysis for Decision Making, 6a. ed., Orlando,
Dryden, 1994.
28. Hicks, C.R., Fundamental Concepts in Design of Experiments, 3
a
. ed., New York, Holt,
Rinehart and Winston, 1982.
29. Hoel, P.G., Elementary Statistics, 4
a
. ed., Singapore, John Wiley, 1976.
30. Holman, J.P., Experimental Methods for Engineers, 6
a
. ed., Singapore, McGraw-Hill,
1994.
31 Hutchins, G.B., Introduction to Quality - Control, Assurance and Management, New York,
Macmilan, 1991.
32. Hutchins, G.B., ISO 9000 - Um Guia Completo, São Paulo, Makron, 1994.
33. Jones, B.E., Instrumentation, Measurement, and Feedback, London, McGraw-Hill, 1977.
34. Jones, L.D. & Chin, A.F., Electronic Instruments and Measurements, 2
a
. ed., Englewood
Cliffs, Prentice-Hall, 1991.
Referências Bibliográficas

231
35. Juran, J.M. & Gryna, F.M., Quality Planning and Analysis, 3
a
. ed., Singapore, McGraw-
Hill, 1993.
36. Kalvelagen, E. & Tijms, H.C., Exploring Operations Research & Statistcs , Englewood
Cliffs, Prentice-Hall, 1990.
37. Karim, G.A. & Hamilton, A.B., Metrication, Boston, IHRDC, 1981.
38. Kateman, G.A. & Pijpers, F. W., Quality Control in Analytical Chemistry, New York, John
Wiley, 1981.
39. Kume, H., Metodos Estatisticos para Melhoria da Qualidade, São Paulo, Editora Gente,
1993.
40. MacLean, G.E., Documenting Quality for ISO 9000 and Other Industry Standards,
Milwaukee, ASQC Press, 1993.
41. Mayne, R. & Margolis, S., Introduction to Engineering, New York, McGraw-Hill, 1982.
42. Meloun, M., et alt., Chemometrics for Analytical Chemistry, Chichester, Ellis Horwood,
1992.
43. Mitra, A., Fundamentals of Quality Control and Improvement, New York, Macmilan,
1993.
44. Montgomery, D.C. & Runger, G.C., Applied Statistics and Probability for Engineers,
New York, John Wiley, 1994.
45. Morris, A. S., Principles of Measurement and Instrumentation, Wiltshire, Prentice Hall,
1993.
46. Nachtigal, C.L., Instrumentation & Control, New York, John Wiley, 1990
47. Nakra, B.C. & Chaudhry, K.K., Instrumentation Measurement and Analysis, New Delhi,
Tata McGraw-Hill, 1985.
48. Noltingk, B.E. (editor), Instrumentation - Reference Book, 2
a
. ed., Surrey, Butterworths-
Heinemann, 1995.
49. Ott, E.R. & Schilling, E.G., Process Quality Control, 2
a
. ed., New York, Mc-Graw-Hill,
1990.
50. Phadke, M.S., Quality Engineering Using Robust Design, Englewood Cliffs, Prentice-
Hall, 1989.
51. Pedde, L.D., Foote, W.E. et alt., Metric Manual, Denver, US Government Printing Office,
1978.
52. Pennella, C.R., Managing the Metrology System, Milwaukee, ASQC Quality Press, 1992.
53. Pyzdek, T. & Berger, R.W., Quality Engineering Handbook, New York, Marcel Dekker,
1992.
54. Ray, M.S., Engineering Experimentation, Cambridge, McGraw-Hill, 1992.
55. Rothery, B., ISO 9000, São Paulo, Makron, 1993.
56. Rowbotham, G.E., Engineering and Industrial Graphics Handbook, New York, McGraw-
Hill Book, 1982.
57. Santos Jr., M.J. & Irigoyen, E.R.C., Metrologia Dimensional, Porto Alegre, EUFRGS,
1985.
58. Souto, F.C.R., Visão da Normalização, Rio de Janeiro, Qualitymark, 1991.
59. Sydenham, P.H., Measuring Instruments: Tools of Knowledge and Control, London,
Peter Peregrinus, 1979.
60. Taylor, J.R., Quality Control Systems, Singapore, McGraw-Hill, 1989.
61. Taylor, J.R., Error Analysis, 2
a
ed., Sausalito, University Science Books, 1997.
62. Waeny, J.C., Controle Total da Qualidade Metrológica, São Paulo, Makron, 1992.

Referências Bibliográficas

232
Normas
1. ABNT NBR ISO 8402, Gestão da qualidade e garantia da qualidade - Terminologia, DEZ
1994
2. ABNT NB 9000, Normas de gestão da qualidade e garantia da qualidade - Diretrizes para
seleção e uso, JUN 1990
3. ABNT NB 9000-2, Normas de gestão da qualidade e garantia da qualidade - Parte 2:
Diretrizes gerais para a aplicação das NBR 19001, NBR 19002 e NBR 19003, FEV 1994
4. ABNT NB 9000-3, Normas de gestão da qualidade e garantia da qualidade - Parte 3:
Diretrizes gerais para a aplicação da NBR 19001 ao desenvolvimento, fornecimento e
manutenção de software, NOV 1993.
5. ABNT NB 9000-4, Normas de gestão da qualidade e garantia da qualidade - Parte 4:
Guia para gestão do programa de dependabilidade, NOV 1993
6. ABNT NB ISO 9001 - ISO 9001, Sistemas da qualidade - Modelo para garantia da
qualidade em projetos/desenvolvimento, produção, instalação e assistência técnica, JUN
1990.
7. ABNT NB 9002 - ISO 9002, Sistemas da qualidade - Modelo para garantia da qualidade
em produção, instalação e serviços associados, DEZ 1994.
8. ABNT NBR ISO 9004-2, Gestão da qualidade e elementos do sistema da qualidade -
Parte 2: Diretrizes para serviços, NOV 1993
9. ABNT NBR ISO 9004-3, Gestão da qualidade e elementos do sistema da qualidade -
Parte 3: Diretrizes para materiais processados, FEV 1994
10. ABNT NBR ISO 9004-4, Gestão da qualidade e elementos do sistema da qualidade -
Parte 4: Diretrizes para melhoria da qualidade, NOV 1993
11. ABNT NBR ISO 10011-1, Diretrizes para auditoria de sistemas da qualidade - Parte 1:
Auditoria, JUL 1993
12. ABNT NBR ISO 10011-2, Diretrizes para auditoria de sistemas da qualidade - Parte 2:
Critérios para qualificação de auditores de sistema da qualidade, JUL 1993
13. ABNT NBR ISO 10011-3, Diretrizes para auditoria de sistemas da qualidade - Parte 3:
Gestão de programas de auditoria, JUL 1993
14. ANSI/ASQC M1-1987, American National Standard for Calibration Systems, JUN 1987.
15. ISO 9001, 2a. ed., Quality systems - Model for quality assurance in design, development,
production, installation and servicing, Jul 1994
16. ISO 9004, 1a. ed., Quality management and qality system elements - Part 2: Guidelines
for services, AUG 1991
17. ASTM E 691-79, Conducting na Interlaboratory Test Program to Determine the Precision
of Test Methods, Apr, 1980.
18. NIS 80 - Guide to Expression of Uncertainties in Testing, NAMAS, Sep 1994.
19. NIS 3003 - The Expression of Uncertainty and Confidence in Measurement for
Calibrations, NAMAS, May 1995.
20. ISO Guide 25 - Guide to the Expression of Uncertainty in Measurement
21. Western European Calibration Cooperation, WECC Doc. 19, 1989, Guidelines for the
Expression of the Uncertainty of Measurement in Calibrations.
22. INMETRO, Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia,
Duque de Caxias, Inmetro, 1995.

Apostilas\Metrologia BiblioMetro.DOC 19 ABR 01
(Substitui 27 MAI 96)

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->