Ответы на вопросы: Погрешность измерения дозиметра?



Многие покупатели поднимают вопрос точности измерения параметров излучения дозиметрами. В этой статье описаны некоторые «подводные камни» связанные с погрешностью профессиональных дозиметров и как по ГОСТам она обеспечена:

Погрешность измерения дозиметра и как она обеспечена по ГОСТам.

Одной из наиболее важных характеристик любого измерительного прибора, в том числе и дозиметра-радиометра, является погрешность измерения, выражается она в точности показаний относительно какого-то абсолюта или эталона. Но если, например, для вольтметра, точность показаний в бытовых условиях проверить легко хотя бы относительно других вольтметров, задав на источнике питания какое-то напряжение в любой точке диапазона измерения вольтметра, то с прибором радиационного контроля все значительно сложнее. И проверить отклонение показаний дозиметра можно только при наличии радиоактивных источников, подвергая здоровье опасности. Иными словами проверка погрешностей дозиметра-радиометра осуществляется только при испытаниях на утверждение типа и первичной и периодической поверках прибора, которые осуществляются по ГОСТам, МИ и ТУ на утвержденные типы дозиметров в аккредитованных лабораториях. Например существует ГОСТ 25935-83, ГОСТ 8.040-84 и другие, в которых описаны требования на соответствие погрешности измерения заявленной. (Примечание: Так как поверку осуществляют в основном для профессиональных приборов, для бытовых дозиметров погрешность проверяется только при первичных испытаниях для определенной модели если такие проводились, а у любого серийного экземпляра после испытаний, она может сколь угодно отличаться от заявленной. Именно по этому бытовые дозиметры, не зарегистрированные в Реестре утвержденных типов измерения, могут использоваться только как индикаторы радиоактивности).

Согласно этих ГОСТов проверка основной относительной погрешности измерения проводится в нескольких точках, это может быть одна, две, три и т.д. в зависимости от технических условий на прибор (например согласно ГОСТ 8.040-84 «при подборе источников рекомендуют интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона...»). Соответствие заявленной погрешности в этих точках является достаточным условием для того, чтобы дозиметр-радиометр прошел поверку или испытания по этому параметру, иными словами в других точках диапазона измеряемой величины погрешность согласно ГОСТов не проверяется и может выходить за пределы заявленной, в том числе и в близких к фоновым, где для счетчиков Гейгера-Мюллера начинает огромное значение влиять статистическая погрешность, которая является компонентом основной. И если, например, открыть методику поверки на конкретный прибор можно увидеть в каких точках диапазона измеряемой величины была проведена поверка.

Теперь становится понятным, что в точках порога принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И) погрешность при поверке или испытаниях не проверяют, то есть ее никогда никто не проверял. И любые заявления продавца, что она в этих точках соответствует заявленной беспочвенны. Так как чаще всего эти пороги близки к фоновым значениям, где огромную часть погрешности составляет статистическая погрешность согласно ГОСТ 8.207-76 и математической модели дозиметров-радиометров, где описано какую колоссальную ошибку может она давать. И чтобы, минимизировать эту ошибку необходимо не сравнивать заявленные цифры погрешности, так как они проверяются, когда-либо в нескольких точках диапазона, а не во всем диапазоне измеряемой величины в том числе и на границах, а сравнить возможности счетчиков.

Может ли благодаря увеличенному времени измерения дозиметр выдать результат точнее?

Многие производители дозиметров-радиометров в своих приборах со слабыми счетчиками используют неограниченное накопление статистики измерения и заявляют о «постоянном во времени уточнении результата». Возникает вопрос:

В статье «Как не обмануться при выборе дозиметра» мы рассматривали ситуацию, чрезвычайно малого времени измерения для обеспечения точности. Теперь мы рассмотрим ситуацию, избыточно большого времени измерения, когда его дальнейший рост на погрешность измерения уже никак не влияет.

Согласно ГОСТ 8.207-76 оценку суммарного среднего квадратического отклонения вычисляют по формуле:

Где - это и есть статистическая составляющая, стремящаяся к нулю при бесконечно долгом измерении,

-это сумма квадратов границ неучтенных систематических погрешностей делённая на 3, то есть величина никак не зависящая от времени или статистики измерения.

Чем обусловлены эти погрешности, независящие от времени? В основном разбросом параметров счетчика, цепей питания и обработки, также климатических условий при измерении, также погрешностями установки калибровки прибора и т.д. В качестве метафоры можно привезти утрированный сценарий увеличения количества повторов измерения ученической линейкой длины стола с целью проведения измерения с точностью до Ангстрем.

Также в ГОСТ 8.207-76 написано: «...5.1. Если

, то

случайной погрешностью по сравнению с систематическими пренебрегают...»

То есть когда систематическая, не зависящая от времени измерения, погрешность превышает более чем в 8 раз случайную, зависящую от времени, последней можно пренебречь.

Исходя из вышесказанного после того, как дозиметр в процессе измерения накопил достаточную статистику, то есть снизил случайную погрешность по сравнению с систематической в 8 и более раз, далее уточнять результат бесполезно — погрешность обусловлена только систематическими, не зависящими от времени измерения, погрешностями.

Теперь необходимо оценить какова доля систематической погрешности в основной относительной погрешности. Основная относительная погрешность проверяется, во время испытаний на утверждение типа (для типа средств измерений) и во время первичной и периодических поверках (для конкретного экземпляра дозиметра), согласно ГОСТ 8.040-84 рекомендованы «интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона...», могут также быть использованы в качестве поверочных точек источники в интервале 0.7-0.9 каждого порядка диапазона, то есть минимум в несколько раз превышающие значения фона и порогов принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И). В этих точках скорость счета уже достаточно высока, для того чтобы, случайная погрешность была в несколько раз меньше основной относительной погрешности, то есть основная относительная погрешность обусловлена в основном систематической, не зависящей от времени, погрешностью.

 


Дата добавления: 2018-06-01; просмотров: 790; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!