Погрешность характеризующая класс точности прибора

Что означает класс точности измерительного прибора

Класс точности измерительного прибора — это обобщенная характеристика, определяемая пределами допускаемых основных и дополнительных погрешностей, а также другими свойствами, влияющими на точность, значения которых установлены в стандартах на отдельные виды средств измерений. Класс точности средств измерений характеризует их свойства в отношении точности, но не является непосредственным показателем точности измерений, выполняемых при помощи этих средств.

Для того чтобы заранее оценить погрешность, которую внесет данное средство измерений в результат, пользуются нормированными значениями погрешности . Под ними понимают предельные для данного типа средства измерений погрешности.

Погрешности отдельных измерительных приборов данного типа могут быть различными, иметь отличающиеся друг от друга систематические и случайные составляющие, но в целом погрешность данного измерительного прибора не должна превосходить нормированного значения. Границы основной погрешности и коэффициентов влияния заносят в паспорт каждого измерительного прибора.

Основные способы нормирования допускаемых погрешностей и обозначения классов точности средств измерений установлены ГОСТ.

На шкале измерительного прибора маркируют значение класса точности измерительного прибора в виде числа, указывающего нормированное значение погрешности. Выраженное в процентах, оно может иметь значения 6; 4; 2,5; 1,5; 1,0; 0,5; 0,2; 0,1; 0,05; 0,02; 0,01; 0,005; 0,002; 0,001 и т. д.

Если обозначаемое на шкале значение класса точности обведено кружком, например 1,5, это означает, что погрешность чувствительности δ s =1,5%. Так нормируют погрешности масштабных преобразователей (делителей напряжения, измерительных шунтов, измерительных трансформаторов тока и напряжения и т. п.).

Это означает, что для данного измерительного прибора погрешность чувствительности δ s= d x/x — постоянная величина при любом значении х. Граница относительной погрешности δ (х) постоянна и при любом значении х просто равна значению δ s, а абсолютная погрешность результата измерений определяется как d x= δ sx

Для таких измерительных приборов всегда указывают границы рабочего диапазона, в которых такая оценка справедлива.

Если на шкале измерительного прибора цифра класса точности не подчеркнута, например 0,5, это означает, что прибор нормируется приведенной погрешностью нуля δ о=0,5 %. У таких приборов для любых значений х граница абсолютной погрешности нуля d x= d о=const, а δ о= d о/хн.

При равномерной или степенной шкале измерительного прибора и нулевой отметке на краю шкалы или вне ее за хн принимают верхний предел диапазона измерений. Если нулевая отметка находится посредине шкалы, то хн равно протяженности диапазона измерений, например для миллиамперметра со шкалой от -3 до +3 мА, хн= 3 — (-3)=6 А.

Однако будет грубейшей ошибкой полагать, что амперметр класса точности 0,5 обеспечивает во всем диапазоне измерений погрешность результатов измерений ±0,5 %. Значение погрешности δ о увеличивается обратно пропорционально х, то есть относительная погрешность δ (х) равна классу точности измерительного прибора лишь на последней отметке шкалы (при х = хк). При х = 0,1хк она в 10 раз больше класса точности. При приближении х к нулю δ (х) стремится к бесконечности, то есть такими приборами делать измерения в начальной части шкалы недопустимо.

На измерительных приборах с резко неравномерной шкалой (например на омметрах) класс точности указывают в долях от длины шкалы и обозначают как 1,5 с обозначением ниже цифр знака «угол».

Если обозначение класса точности на шкале измерительного прибора дано в виде дроби (например 0,02/0,01), это указывает на то, что приведенная погрешность в конце диапазона измерений δ прк = ±0,02 %, а в нуле диапазона δ прк = -0,01 %. К таким измерительным приборам относятся высокоточные цифровые вольтметры, потенциометры постоянного тока и другие высокоточные приборы. В этом случае

δ (х) = δ к + δ н (хк/х — 1),

где хк — верхний предел измерений (конечное значение шкалы прибора), х — измеряемое значение.

Погрешность. Классы точности средств измерений.

Позволю себе вначале небольшое отступление. Такие понятия как погрешность, класс точности довольно подробно описываются в нормативной документации ГОСТ 8.009-84 «Нормируемые метрологические характеристики средств измерений», ГОСТ 8.401-80 «Классы точности средств измерений. Общие требования» и им подобных. Но открывая эти документы сразу возникает чувство тоски… Настолько сухо и непонятно простому начинающему «киповцу», объяснены эти понятия. Давайте же пока откинем такие вычурные и непонятные нам определения, как «среднее квадратическое отклонение случайной составляющей погрешности» или «нормализованная автокорреляционная функция» или «характеристика случайной составляющей погрешности от гистерезиса — вариация Н выходного сигнала (показания) средства измерений» и т. п. Попробуем разобраться, а затем свести в одну небольшую, но понятную табличку, что же такое «погрешность» и какая она бывает.

Погрешности измерений – отклонения результатов измерения от истинного значения измеряемой величины. Погрешности неизбежны, выявить истинное значение невозможно.

По числовой форме представления подразделяются:

  1. Абсолютная погрешность: Δ = Xд — Xизм, выражается в единицах измеряемой величины, например в килограммах (кг), при измерении массы.
    где Xд – действительное значение измеряемой величины, принимаются обычно показания эталона, образцового средства измерений;
    Xизм – измеренное значение.
  2. Относительная погрешность: δ = (Δ ⁄ Xд) · 100, выражается в % от действительного значения измеренной величины.
  3. Приведённая погрешность: γ = (Δ ⁄ Xн) · 100, выражается в % от нормирующего значения.
    где Xн – нормирующее значение, выраженное в тех же единицах, что и Δ, обычно принимается диапазон измерения СИ (шкала).

По характеру проявления:

  • систематические (могут быть исключены из результатов);
  • случайные;
  • грубые или промахи (как правило не включаются в результаты измерений).

В зависимости от эксплуатации приборов:

  • основная – это погрешность средства измерения при нормальных условиях; (ГОСТ 8.395-80)
  • дополнительная погрешность – это составляющая погрешности средства измерения, дополнительно возникающая из-за отклонения какой-либо из влияющих величин от нормативного значения или выход за пределы нормальной области значений. Например: измерение избыточного давления в рабочих условиях цеха, при температуре окружающего воздуха 40 ºС, относительной влажности воздуха 18% и атмосферном давлении 735 мм рт. ст., что не соответствует номинальным значениям влияющих величин при проведении поверки.
Наимено вание погреш ности Формула Форма выражения, записи Обозначение класса точности
В докумен тации На сред стве изме рений
Абсолют ная Δ = Xд — Xизм Δ = ±50 мг
Примеры:
Номинальная масса гири 1 кг ±50 мг
Диапазон измерения весов среднего III класса точности от 20 г до 15 кг ±10 г
Класс точности: М1
Класс точности: средний III
Примечание:
на многие виды измерений есть свои НД по выражению погрешностей, здесь для примера взято для гирь и весов.
М1
Относи тельная δ = (Δ ⁄ Xд) · 100 δ = ±0,5
Пример:
Измеренное значение изб. давления с отн. погр.
1 бар ±0,5%
т.е. 1 бар ±5 мбар (абс. погр.)
Класс точности 0,5
Приве дённая:
при равно мерной шкале
γ = (Δ ⁄ Xн) · 100 γ = ±0,5
Пример:
Измеренное значение на датчике изб. давления, при шкале от 0 до 10 бар
1 бар (= 0,5 % от 10 бар)
т.е. 1 бар ±50 мбар (абс. погр.)
Класс точности весов 0,5 0,5
с сущес твенно неравно мерной шкалой γ = ±0,5
Прописывается в норм .док-ии на СИ для каждого диапазона измерения (шкалы) своё нормирующее значение
Класс точности 0,5

Как определить погрешность комплекта приборов, в который входит первичный преобразователь, вторичный преобразователь (усилитель) и вторичный прибор. У каждого из элементов этого комплекта есть своя абсолютная, относительная или приведённая погрешность. И чтобы оценить, общую погрешность измерения, необходимо все погрешности привести к одному виду, а дальше посчитать по формуле:

Дальше будет интересно, наверное, только метрологам и то, только начинающим. Теперь совсем немного вспомним о средних квадратических отклонениях (СКО). Зачем они нужны? Так как истинное значение выявить невозможно, то необходимо хотя бы наиболее точно приблизиться к нему или определить доверительный интервал, в котором истинное значение находится с большой долей вероятности. Для этого применяют различные статистические методы, приведём формулы наиболее распространённого. Например, Вы провели n количество измерений чего угодно и Вам необходимо определить доверительный интервал:

  1. Определяем среднее арифметическое отклонение:

    где n – количество отклонений
  2. Определяем среднее квадратическое отклонение (СКО) среднего арифметического:
  3. Рассчитываем случайную составляющую погрешности:

    где t – коэффициент Стьюдента, зависящий от числа степеней свободы
    Таблица 1.
    α =0,68 α =0,95 α =0,99
    n tα,n n tα,n n tα,n
    2 2,0 2 12,7 2 63,7
    3 1,3 3 4,3 3 9,9
    4 1,3 4 3,2 4 5,8
    5 1,2 5 2,8 5 4,6
    6 1,2 6 2,6 6 4,0
    7 1,1 7 2,4 7 3,7
    8 1,1 8 2,4 8 3,5
    9 1,1 9 2,3 9 3,4
    10 1,1 10 2,3 10 3,3
    15 1,1 15 2,1 15 3,0
    20 1,1 20 2,1 20 2,9
    30 1,1 30 2,0 30 2,8
    100 1,0 100 2,0 100 2,6
  4. Определяем СКО систематической составляющей погрешности:
  5. Рассчитываем суммарное СКО:
  6. Определяем коэффициент, зависящий от соотношения случайной и систематической составляющей погрешности:
  7. Проводим оценку доверительных границ погрешности:

В последнее время всё чаще на слуху термин «неопределённость». Медленно, но верно и настойчиво его внедряют в отечественную метрологию. Это дань интеграции нашей экономики во всемирную, естественно необходимо адаптировать нормативную документацию к международным стандартам. Не буду тут «переливать из пустого в порожнее», это хорошо сделано в различных нормативных документах. Чисто моё мнение, «расширенная неопределённость измерений» = основная погрешность + дополнительная, которая учитывает все влияющие факторы.

Читайте также  Барометр с расширенными функциями

Погрешности средств измерений. Класс точности прибора

В результате воздействия большого числа факторов, влия­ющих на изготовление и эксплуатацию средств измерений, по­казания приборов отличаются от истинных значений измеряе­мых ими величин. Эти отклонения характеризуют погрешность средств измерений. Погрешности СИ в отличие от погрешности измерений имеют другую физическую природу, так как они от носятся к СИ, с помощью которого осуществляют измерение. Они являются лишь составной частью погрешности измерения.

Классификация погрешностей средств измерений в зависи­мости от разных признаков:

Погрешности измерительных средств
От характера проявления От условий применения От режима применения От формы представления От значения измеряемой величины
— систематическая -случайная — основная — дополнительная — статическая — динамическая — абсолютная -относительная -приведенная — аддитивная — мультипликативная — линейности -гистерезиса

В понятия абсолютной, относительной, систематической и случайной погрешностей вкладывается тот же смысл, что и в понятия погрешностей измерений.

Приведенная погрешность средства измерений равна отноше­нию абсолютной погрешности прибора ΔХ к некоторому норми­рующему значению XN :

γ = ΔX/XN или γ = 100% ΔХ/XN .

Таким образом, приведенная погрешность является разновид­ностью относительной погрешности прибора. В качестве норми­рующего значения XN принимают диапазон измерений, верх­ний предел измерений, длину шкалы и др.

Основная погрешность — погрешность средства измерений, используемого в нормальных условиях. При эксплуатации СИ на производстве возникают значительные отклонения от нор­мальных условий, вызывающие дополнительные погрешности.

Нормальными условиями для линейных измерений считают­ся:

• температура окружающей среды 20°С

• атмосферное давление 101325 Па (760 мм рт.ст.)

• относительная влажность окружающего воздуха 58%

• ускорение свободного падения 9,8 м/с

• направление линии и плоскости измерения — горизонтальное

• относительная скорость движения внешней воздушной среды равна нулю.

В тех случаях, когда средство измерения применяется для измерения постоянной или переменной во времени величины, для его характеристики используют понятия статическая и динамическая погрешности соответственно. Динамическая погрешность определяется как разность между погрешностью измерения в динамическом режиме и его статической погрешностью, равной значению величины в данный момент времени. Динами­ческие погрешности возникают вследствие инерционных свойств средств измерения.

Для рассмотрения зависимости погрешности средства измерения от значения измеряемой величины используют понятие номинальной и реальной функций преобразования — соответствен­но Y = (Х) и Y = fр(X).

Номинальная функция преобразования приписана измери­тельному устройству, указывается в его паспорте и используется при выполнении измерений.

Реальной функцией преобразования называют ту, которой обладает конкретный экземпляр СИ дан­ного типа.

Реальная функция преобразования имеет отклонение от но­минальной функции и связана со значением измеряемой вели­чины. Систематическую погрешность в функции измеряемой величины можно представить в виде суммы погрешности схемы, определяемо самой структурной схемой средства измерений, и технологических погрешностей, обусловленных погрешностями изготовления его элементов. Технологические погрешности принято разделять на аддитивную, мультипликативную, гистерезиса и линейности.

Аддитивной погрешностью (получаемой путем сложения), или погрешностью нуля, называют погрешность, которая оста­ется постоянной при всех значениях измеряемой величины.

Мультипликативная погрешность (получаемая путем умно­жения), или погрешность чувствительности СИ, линейно воз­растает или убывает с изменением измеряемой величины. В большинстве случаев аддитивная и мульти­пликативная составляющие присутствуют одновременно.

Погрешность гистерезиса, или Погрешность обратного хода, выражается в несовпадении реальной функции преобразования при увели­чении (прямой ход) и уменьшении (обратный ход) измеряемой величины. Если взаимное распо­ложение номинальной и реальной функций преобразования средства измерений вызвано нелинейностью, то эту погрешность называют погрешностью линейности.

Аддитивная и мультипликативная погрешности Погрешность гистерезиса Погрешность линейности

В разных точках диапазона средств измерений погрешность может принимать различные значе­ния. В этом случае необходимо нор­мировать пределы допускаемых по­грешностей, т.е. устанавливать грани­цы, за пределы которых погрешность не должна выходить ни при изготовлении, ни в процессе эксплуатации. Для этого служит класс точности СИ.

Класс точности — это обобщенная характеристика, определяемая пре­делами допускаемых основных и до­полнительных погрешностей, а также другими свойствами, влия­ющими на точность, значения кото­рых устанавливают в стандартах на отдельные виды средств измерений.

Способы установления классов точности изложены в ГОСТ 8.401 “ГСИ. Классы точности средств измерения. Общие требования”. Стандарт не распространяется на средства измерений, для которых предусматриваются раздельные нормы на систематическую и случайные составляющие, а также на средства измерений, для которых нормированы номинальные функции влияния, а измерения проводятся без введения поправок на влияющие величины. Классы точности не устанавливаются и на средства измерений, для которых существенное значение имеет динамическая погрешность.

Класс точности не является непо­средственным показателем точности измерений, так как точность изме­рений зависит еще от метода и ус­ловий измерений.

В зависимости от вида погреш­ности средства измерений существу­ет несколько способов нормирования погрешности.

Если аддитивная погрешность СИ преобладает над мультипликативной, удобнее нормировать абсолютную или приведенную погрешности соответственно:

Нормирование по абсолютной погрешности не позволяет срав­нивать по точности приборы с разными диапазонами измерений, поэтому принято нормировать приведенную погрешность, где р — отвлеченное положительное число, выбираемое из ряда

(1,5; 2; 2,5; 4; 5; 6) 10* (п = 1, О, — 1, — 2 и т.д.);

XN — нормирующее значение, равное конечному значению шкалы прибора, диапазону измерений или длине шкалы, если она нелинейная.

Если мультипликативная погрешность преобладает над адди­тивной, то нормируется предел допускаемой относительной по­грешности:

где q — отвлеченное положительное число, выбираемое из ряда, приведенного для р.

При одновременном проявлении аддитивной и мультиплика­тивной погрешностей нормируется предел относительной или аб­солютной погрешностей, определяемых формулами соответствен­но:

,

где Хк — конечное значение шкалы прибора; с и d — положи­тельные числа, выбираемые из ряда, приведенного для р; Xизм — значение измеряемой величины на входе(выходе) средств измерений или число делений, отсчитанных по шкале; а и b положительные числа, не зависящие от Xизм.

Обозначение классов точности в документации и на средствах измерений приведены в табл.

Если пределы допускаемой погрешности средств измерений задаются в виде графиков, таблиц или в сложной форме, то классы точности обозначаются римскими цифрами или прописными буквами латинского алфавита.


Регулировка и градуировка средств измерений

В большинстве случаев в измерительном приборе (преобразователе) можно найти или предусмотреть такие элементы, вариация параметров которых наиболее заметно сказывается на его систематической погрешности, главным образом погрешности схемы, аддитивной и мультипликативной погрешностях.

В общем случае в конструкции измерительного прибора должны быть предусмотрены два регулировочных узла: регулировка нуля и регулировка чувствительности. Регулировкой нуля уменьшают влияние аддитивной погрешности, постоянной для каждой точки шкалы, а регулировкой чувствительности уменьшают мультипликативные погрешности, меняющиеся линейно с изменением измеряемой величины. При правильной регулировке нуля и чувствительности уменьшается и влияние погрешности схемы прибора. Кроме того, некоторые приборы снабжаются устройствами для регулировки погрешности схемы (пружинные манометры).

Таким образом, под регулировкой средств измерения понимается совокупность операций, имеющих целью уменьшить основную погрешность до значений, соответствующих пределам ее допускаемых значений, путем компенсации систематической составляющей погрешности средств измерений, т.е. погрешности схемы, мультипликативной и аддитивной погрешностей.

Градуировкой называется процесс нанесения отметок на шкалы средств измерений, а также определение значений измеряемой величины, соответствующих уже нанесенным отметкам, для составления градуировочных кривых или таблиц.

Различают следующие способы градуировки:

использование типовых (печатных) шкал, которые изготовляются заранее в соответствии с уравнением статической характеристики идеального прибора;

индивидуальная градуировка шкал. Индивидуальную градуировку шкал осуществляют в тех случаях, когда статическая характеристика прибора нелинейна или близка к линейной, но характер изменения систематической погрешности в диапазоне измерения случайным образом меняется от прибора к прибору данного типа так, что регулировка не позволяет уменьшить основную погрешность до пределов ее допускаемых значений. Индивидуальную градуировку проводят в следующем порядке. На предварительно отрегулированном приборе устанавливают циферблат с еще не нанесенными отметками. К измерительному прибору подводят последовательно измеряемые величины нескольких наперед заданных или выбранных значений. На циферблате нанося отметки, соответствующие положениям указателя при этих значениях измеряемо величины, а расстояния между отметками делят на равные части. При индивидуальной градуировке систематическая погрешность уменьшается во всем диапазоне измерения, а в точках, полученных при градуировке, она достигает значения, равного погрешности обратного хода;

градуировка условной шкалы. Условной называется шкала, снабженная некоторыми условными равномерно нанесенными делениями, например, через миллиметр или угловой градус. Градуировка шкалы состоит в определении при помощи образцовых мер или измерительных приборов значений измеряемой величины соответствующих некоторым отметкам, нанесенным на ней. В результате определяют зависимость числа делений шкалы, пройденных указателем, от значений измеряемой величины. Эту зависимость представляют в виде таблицы или графика. Если необходимо избавиться и от погрешности обратного хода. Градуировку осуществляют раздельно при прямом и обратном ходе.

Читайте также  Как рассчитать количество витков вторичной обмотки трансформатора?

Что нужно знать о классе точности измерительного прибора?

Измерительные приборы: вольтметры, амперметры, токовые клещи, осциллографы и другие — это устройства, предназначенные для определения искомых величин в заданном диапазоне, каждый из них имеет свою точность, причем устройства, измеряющие одну и ту же величину, в зависимости от модели, могут отличаться по точности и классу.

В каких-то ситуациях достаточно просто определить значение, например, вольтаж батарейки, а в других необходимо выполнить многократное повторение измерений высокоточными приборами для получения максимально достоверного результата, так в чем отличие таких измерительных устройств, что означает класс точности, сколько их бывает, как его определить и многое другое читайте далее в нашей статье.

Что такое класс точности

Определение: «Класс точности измерения — это общая характеристика точности средства измерения, определяемая пределами допустимых основных и дополнительных погрешностей, а также другими факторами, влияющими на нее».

Сам по себе класс не является постоянной величиной измерения, потому что само измерение зачастую зависит от множества переменных: места измерения, температуры, влажности и других факторов, класс позволяет определить лишь только в каком диапазоне относительных погрешностей работает данный прибор.

Чтобы заранее оценить погрешность, которую измерит устройство, также могут использоваться нормативные справочные значения.

Относительная погрешность — это отношение абсолютной погрешности к модулю действительного приближенного показателя полученного значения, измеряется в %.

Абсолютная погрешность рассчитывается следующим образом:

∆=±a или ∆=(a+bx)

x – число делений, нормирующее значение величины

a, b – положительные числа, не зависящие от х

Абсолютная и приведенная погрешность рассчитывается по следующим формулам, см. таблицу ниже

Какие классы точности бывают, как обозначаются

Как мы уже успели выяснить, интервал погрешности определяется классом точности. Данная величина рассчитывается, устанавливается ГОСТом и техническими условиями. В зависимости от заданной погрешность, бывает: абсолютная, приведенная, относительная, см. таблицу ниже

Согласно ГОСТ 8.401-80 в системе СИ классы точности обычно помечается латинской буквой, часто с добавлением индекса, отмеченного цифрой. Чем меньше погрешность, соответственно, меньше цифра и буквенное значение выше по алфавиту, тем более высокая точность.

Класс точности обозначается на корпусе устройства в виде числа обведенного в кружок, обозначает диапазон погрешностей измерений в процентах. Например, цифра означает относительную погрешность ±2%. Если рядом со знаком присутствует значок в виде галочки, это значит, что длина шкалы используется в качестве вспомогательного определения погрешности.

  • 0,1, 0,2 – считается самым высоким классом
  • 0,5, 1 – чаще применяется для устройств средней ценовой категории, например, бытовых
  • 1,5, 2,5 – используется для приборов измерения с низкой точностью или индикаторов, аналоговых датчиков

Каким ГОСТом регламентируется точность приборов?

ГОСТ 8.401-80 «Классы точности средств измерений» общие требования. Нормативным документом устанавливаются общие положения классификации точностей измерительных приборов.

Как определить класс точности электроизмерительного прибора, формулы расчета

Чтобы определить класс точности, необходимо взглянуть на его корпус или инструкцию пользователя, в ней вы можете увидеть цифру, обведенную в круг, например, ① это означает, что ваш прибор измеряет величину с относительной погрешностью ±1%.

Но что делать если известна относительная погрешность и необходимо рассчитать класс точности, например, амперметра, вольтметра и т.д. Рассмотрим на примере амперметра: известна ∆x=базовая (абсолютная) погрешность 0,025 (см. в инструкции), количество делений х=12

Находим относительную погрешность:

Y= 100×0,025/12=0,208 или 2,08%

(вывод: класс точности – 2,5).

Следует отметить, что погрешность неравномерна на всем диапазоне шкалы, измеряя малую величину вы можете получить наибольшую неточность и с увеличением искомой величины она уменьшается, для примера рассмотрим следующий вариант:

Вольтметр с классом p=±2, верхний предел показаний прибора Xn=80В, число делений x=12

Предел абсолютной допустимой погрешности:

Относительная погрешность одного деления:


Если вам необходимо выполнить более подробный расчет, смотрите ГОСТ 8.401-80 п.3.2.6.

Поверка приборов, для чего она нужна

Все измерительные приборы измеряют с некой погрешностью, класс точности говорит лишь о том, в каком диапазоне она находится. Бывают случаи, когда диапазон погрешности незаметно увеличивается, и мы начинаем замечать, что измеритель «по-простому» начинает врать. В таких случаях помогает поверка.

Это процесс измерения эталонной величины в идеальных условиях прибором, обычно проводится метрологической службой или в метрологическом отделе предприятия производителя.

Существует первичная и периодическая, первичную проверку проводят после выпуска изделия и выдают сертификат, периодическую проводят не реже чем раз в год, для ответственных приборов чаще.

Поэтому если вы сомневаетесь в правильности работы устройства, вам следует провести его поверку в ближайшей метрологической службе, потому что измеритель может врать как в меньшую, так и в большую сторону.

Как легко проверить потребление электроэнергии в квартире, можете узнать в нашей статье.

Видео на тему относительная погрешность прибора

Заключение

Класс точности является важным показателем для каждого прибора, при выборе всегда обращайте внимание на него. Если вам нужен, например, электрический счетчик, важно чтобы он измерял потребление энергии с максимальной точностью, благодаря этому за весь период эксплуатации, вы сможете сэкономить приличную сумму средств.

Но, а если вам необходимо просто периодически проверять напряжение в розетке, для этого не стоит переплачивать за дорогостоящую покупку.

Рекомендуем к просмотру:

  • Провод пв 3: технические характеристики, что…
  • Вопрос: в доме нагревается провод от розетки, что делать?
  • Электромагнитное реле, что это такое, какой принцип…
  • Что такое асинхронный двигатель
  • Что важно знать о беспроводной зарядке простыми…
  • Вопрос: Автоматические выключатели на входе в…

Погрешности измерения датчиков КИП. Классы точности

Основной качественной характеристикой любого датчика КИП является погрешность измерения контролируемого параметра. Погрешность измерения прибора это величина расхождения между тем, что показал (измерил) датчик КИП и тем, что есть на самом деле. Погрешность измерения для каждого конкретного типа датчика указывается в сопроводительной документации (паспорт, инструкция по эксплуатации, методика поверки), которая поставляется вместе с данным датчиком.

По форме представления погрешности делятся на абсолютную, относительную и приведенную погрешности.

ООП основная относительная погрешность
ОПП основная приведенная погрешность
ОАП основная абсолютная погрешность

Абсолютная погрешность – это разница между измеренной датчиком величиной Хизм и действительным значением Хд этой величины.

Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).

Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.

Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.

Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.

Нормирующее значение Хn зависит от типа шкалы датчика КИП:

  1. Если шкала датчика односторонняя и нижний предел измерения равен нулю (например, шкала датчика от 0 до 150 м3/ч), то Хn принимается равным верхнему пределу измерения (в нашем случае Хn = 150 м3/ч).
  2. Если шкала датчика односторонняя, но нижний предел измерения не равен нулю (например, шкала датчика от 30 до 150 м3/ч), то Хn принимается равным разности верхнего и нижнего пределов измерения (в нашем случае Хn = 150-30 = 120 м3/ч).
  3. Если шкала датчика двухсторонняя (например, от -50 до +150 ˚С), то Хn равно ширине диапазона измерения датчика (в нашем случае Хn = 50+150 = 200 ˚С).

Приведенная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.

Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.

У некоторых приборов в паспортах вместо погрешности измерения указывают класс точности. К таким приборам относятся механические манометры, показывающие биметаллические термометры, термостаты, указатели расхода, стрелочные амперметры и вольтметры для щитового монтажа и т.п. Класс точности – это обобщенная характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений. При этом класс точности не является непосредственной характеристикой точности измерений, выполняемых этим прибором, он лишь указывает на возможную инструментальную составляющую погрешности измерения. Класс точности прибора наноситься на его шкалу или корпус по ГОСТ 8.401-80.

Читайте также  Барьерные клеммники для соединения проводов

При присвоении прибору класса точности он выбирается из ряда 1·10 n ; 1,5·10 n ; (1,6·10 n ); 2·10 n ; 2,5·10 n ; (3·10 n ); 4·10 n ; 5·10 n ; 6·10 n ; (где n =1, 0, -1, -2, и т. д.). Значения классов точности, указанные в скобках, не устанавливают для вновь разрабатываемых средств измерений.

Определение погрешности измерения датчиков выполняют, например, при их периодической поверке и калибровке. С помощью различных задатчиков и калибраторов с высокой точностью генерируют определенные значения той или иной физической величины и сличают показания поверяемого датчика с показаниями образцового средства измерения, на которое подается то же самое значение физической величины. Причем погрешность измерения датчика контролируется как при прямом ходе (увеличение измеряемой физической величины от минимума до максимума шкалы), так и при обратном ходе (уменьшение измеряемой величины от максимума до минимума шкалы). Это связано с тем, что из-за упругих свойств чувствительного элемента датчика (мембрана датчика давления), различной интенсивности протекания химических реакций (электрохимический сенсор), тепловой инерции и т.п. показания датчика будут различны в зависимости от того, как меняется воздействующая на датчик физическая величина: уменьшается или увеличивается.

Довольно часто в соответствии с методикой поверки отсчет показаний датчика при поверке нужно выполнять не по его дисплею или шкале, а по величине выходного сигнала, например, по величине выходного тока токового выхода 4…20 мА.

У поверяемого датчика давления со шкалой измерения от 0 до 250 mbar основная относительная погрешность измерения во всем диапазоне измерений равна 5%. Датчик имеет токовый выход 4…20 мА. На датчик калибратором подано давление 125 mbar, при этом его выходной сигнал равен 12,62 мА. Необходимо определить укладываются ли показания датчика в допустимые пределы.

Во-первых, необходимо вычислить каким должен быть выходной ток датчика Iвых.т при давлении Рт = 125 mbar.

Iвых.т = Iш.вых.мин + ((Iш.вых.макс – Iш.вых.мин)/(Рш.макс – Рш.мин))*Рт

где Iвых.т – выходной ток датчика при заданном давлении 125 mbar, мА.

Iш.вых.мин – минимальный выходной ток датчика, мА. Для датчика с выходом 4…20 мА Iш.вых.мин = 4 мА, для датчика с выходом 0…5 или 0…20 мА Iш.вых.мин = 0.

Iш.вых.макс — максимальный выходной ток датчика, мА. Для датчика с выходом 0…20 или 4…20 мА Iш.вых.макс = 20 мА, для датчика с выходом 0…5 мА Iш.вых.макс = 5 мА.

Рш.макс – максимум шкалы датчика давления, mbar. Рш.макс = 250 mbar.

Рш.мин – минимум шкалы датчика давления, mbar. Рш.мин = 0 mbar.

Рт – поданное с калибратора на датчик давление, mbar. Рт = 125 mbar.

Подставив известные значения получим:

То есть при поданном на датчик давлении равном 125 mbar на его токовом выходе должно быть 12 мА. Считаем, в каких пределах может изменяться расчетное значение выходного тока, учитывая, что основная относительная погрешность измерения равна ± 5%.

То есть при поданном на датчик давлении равном 125 mbar на его токовом выходе выходной сигнал должен быть в пределах от 11,40 до 12,60 мА. По условию задачи мы имеем выходной сигнал 12,62 мА, значит наш датчик не уложился в определенную производителем погрешность измерения и требует настройки.

Основная относительная погрешность измерения нашего датчика равна:

Поверка и калибровка приборов КИП должна выполнятся при нормальных условиях окружающей среды по атмосферному давлению, влажности и температуре и при номинальном напряжении питания датчика, так как более высокие или низкие температура и напряжение питания могут привезти к появлению дополнительной погрешности измерения. Условия проведения поверки указываются в методике поверки. Приборы, погрешность измерения которых не уложилась в установленные методикой поверки рамки либо заново регулируют и настраивают, после чего они повторно проходят поверку, либо, если настройка не принесла результатов, например, из-за старения или чрезмерной деформации сенсора, ремонтируются. Если ремонт невозможен то приборы бракуются и выводятся из эксплуатации.

Если все же приборы удалось отремонтировать то они подвергаются уже не периодической, а первичной поверке с выполнением всех изложенных в методике поверки пунктов для данного вида поверки. В некоторых случаях прибор специально подвергают незначительному ремонту (с отметкой в паспорте) так как по методике поверки выполнить первичную поверку оказывается существенно легче и дешевле чем периодическую, из-за различий в наборе образцовых средств измерения, которые используются при периодической и первичной поверках.

Для закрепления и проверки полученных знаний рекомендую выполнить тестовое задание.

Класс точности

  • Класс точности — обобщённая характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений.

Погрешность может нормироваться, в частности, по отношению к:

результату измерения (по относительной погрешности)в этом случае, по ГОСТ 8.401-80 (взамен ГОСТ 13600-68), цифровое обозначение класса точности (в процентах) заключается в кружок.длине (верхнему пределу) шкалы прибора (по приведенной погрешности).Для стрелочных приборов принято указывать класс точности, записываемый в виде числа, например, 0,05 или 4,0. Это число дает максимально возможную погрешность прибора, выраженную в процентах от наибольшего значения величины, измеряемой в данном диапазоне работы прибора. Так, для вольтметра, работающего в диапазоне измерений 0—30 В, класс точности 1,0 определяет, что указанная погрешность при положении стрелки в любом месте шкалы не превышает 0,3 В.

Относительная погрешность результата, полученного с помощью указанного вольтметра, зависит от значения измеряемого напряжения, становясь недопустимо высокой для малых напряжений. При измерении напряжения 0,5 В погрешность составит 60 %. Как следствие, такой прибор не годится для исследования процессов, в которых напряжение меняется на 0,1—0,5 В.

Обычно цена наименьшего деления шкалы стрелочного прибора согласована с погрешностью самого прибора. Если класс точности используемого прибора неизвестен, за погрешность s прибора всегда принимают половину цены его наименьшего деления. Понятно, что при считывании показаний со шкалы нецелесообразно стараться определить доли деления, так как результат измерения от этого не станет точнее.

Следует иметь в виду, что понятие класса точности встречается в различных областях техники. Так, в станкостроении имеется понятие класса точности металлорежущего станка, класса точности электроэрозионных станков (по ГОСТ 20551).

Обозначения класса точности могут иметь вид заглавных букв латинского алфавита, римских цифр и арабских цифр с добавлением условных знаков. Если класс точности обозначается латинскими буквами, то класс точности определяется пределами абсолютной погрешности. Если класс точности обозначается арабскими цифрами без условных знаков, то класс точности определяется пределами приведённой погрешности и в качестве нормирующего значения используется наибольший по модулю из пределов измерений. Если класс точности обозначается арабскими цифрами с галочкой, то класс точности определяется пределами приведённой погрешности, но в качестве нормирующего значения используется длина шкалы. Если класс точности обозначается римскими цифрами, то класс точности определяется пределами относительной погрешности.

Аппараты с классом точности 0,5 (0,2) проходят метрологические испытания с 5 % загрузки, а 0,5s (0,2s) уже с 1 % загрузки.

Связанные понятия

Упоминания в литературе

Связанные понятия (продолжение)

Т-критерий Вилкоксона — (также используются названия Т-критерий Уилкоксона, критерий Вилкоксона, критерий знаковых рангов Уилкоксона, критерий суммы рангов Уилкоксона) непараметрический статистический тест (критерий), используемый для проверки различий между двумя выборками парных или независимых измерений по уровню какого-либо количественного признака, измеренного в непрерывной или в порядковой шкале.. Впервые предложен Фрэнком Уилкоксоном. Другие названия — W-критерий Вилкоксона, критерий знаковых.

Наземный лазерный сканер (НЛС) — это съёмочная система, измеряющая с высокой скоростью (от нескольких тысяч до миллиона точек в секунду) расстояния от сканера до поверхности объекта и регистрирующая соответствующие направления (вертикальные и горизонтальные углы) с последующим формированием трёхмерного изображения (скана) в виде облака точек.

Кориолисовы расходомеры — приборы, использующие эффект Кориолиса для измерения массового расхода жидкостей, газов. Принцип действия основан на изменениях фаз механических колебаний U-образных трубок, по которым движется среда. Сдвиг фаз пропорционален величине массового расхода. Поток с определенной массой, движущийся через входные ветви расходомерных трубок, создает кориолисову силу, которая сопротивляется колебаниям расходомерных трубок. Наглядно это сопротивление чувствуется, когда гибкий шланг.

Пропорционально-интегрально-дифференцирующий (ПИД) регулятор — устройство в управляющем контуре с обратной связью. Используется в системах автоматического управления для формирования управляющего сигнала с целью получения необходимых точности и качества переходного процесса. ПИД-регулятор формирует управляющий сигнал, являющийся суммой трёх слагаемых, первое из которых пропорционально разности входного сигнала и сигнала обратной связи (сигнал рассогласования), второе — интеграл сигнала рассогласования.