quinta-feira, 1 de outubro de 2015

Conceitos Básicos

Conceitos Básicos

         Medir é estabelecer uma relação numérica entre uma grandeza e outra, de mesma espécie,
tomada como unidade. Medidas elétricas só podem ser realizadas com a utilização de instrumentos
medidores, que permitem a quantificação de grandezas cujo valor não poderia ser determinado
através dos sentidos humanos

Erros nas medidas elétricas

        Erros são inerentes a todo o tipo de medidas e podem ser minimizados, porém nunca
completamente eliminados. Em medidas elétricas, costuma-se considerar três categorias de erros:

a) Grosseiros
São sempre atribuídos ao operador do equipamento e, de uma maneira geral, pode-se dizer
que resultam da falta de atenção. A ligação incorreta do instrumento, a transcrição equivocada do
valor de uma observação ou o erro de paralaxe são alguns exemplos. Esses erros podem ser
minimizados através da repetição atenta das medidas, seja pelo mesmo observador ou por outros.

b) Sistemáticos
         Devem-se as deficiências do instrumento ou do método empregado e às condições sob as
quais a medida é realizada. Costuma-se dividi-los em duas categorias:
         • Instrumentais, inerentes aos equipamentos de medição, tais como escalas mal graduadas,
oxidação de contatos, desgaste de peças e descalibramento. Podem ser minimizados usando-se
instrumentos de boa qualidade e fazendo-se sua manutenção e calibração adequadas.
        • Ambientais, que se referem às condições do ambiente externo ao aparelho, incluindo-se
aqui fatores tais como temperatura, umidade e pressão, bem como a existência de campos elétricos
e/ou magnéticos. Para diminuir a incidência desses  erros pode-se trabalhar em ambientes
climatizados e providenciar a blindagem dos aparelhos em relação a campos eletromagnéticos.
c) Aleatórios
Também chamados erros acidentais, devem-se a fatores imponderáveis (incertezas), como
a ocorrência de transitórios em uma rede elétrica e ruídos provenientes de sinais espúrios. Como
não podem ser previstos, sua limitação é impossível.

        No tratamento de erros os termos exatidão e precisão - embora sejam muitas vezes usados
como sinônimos - têm significado diferentes:

        • Exatidão: é a propriedade que exprime o afastamento que existe entre o valor lido no
instrumento e o valor verdadeiro da grandeza que se está medindo.
        • Precisão: característica de um instrumento de medição, determinada através de um
processo estatístico de medições, que exprime o afastamento mútuo entre as diversas medidas
obtidas de uma grandeza dada, em relação à média aritmética dessas medidas (Norma P-NB-
278/73, da ABNT). A precisão é, portanto, uma qualidade relacionada com a repetibilidade das
medidas, isto é, indica o grau de espalhamento de uma série de medidas em torno de um ponto.

        Para ilustrar a diferença, considere um atirador tentando atingir um alvo, como ilustrado na
Figura 1. Em (a) não houve exatidão nem precisão por parte do atirador; em (b) pode-se dizer que o
atirador foi preciso, pois todos os tiros atingiram a mesma região do alvo, porém não foi exato, já
que esta região está distante do centro; em (c) conclui-se que o atirador foi exato, além de preciso.

                               


        A precisão é um pré-requisito da exatidão, embora o contrário não seja verdadeiro. Assim,
dizer que um instrumento é preciso não implica, necessariamente, que seja exato.

Nenhum comentário:

Postar um comentário