Московский государственный университет печати

Козлов М.Г.


         

Метрология и стандартизация

Учебник


Козлов М.Г.
Метрология и стандартизация
Начало
Печатный оригинал
Об электронном издании
Оглавление

Предисловие

Часть I. МЕТРОЛОГИЯ

1.

Введение в метрологию

1.1.

Исторические аспекты метрологии

1.2.

Основные понятия и категории метрологии

1.3.

Принципы построения систем единиц физических величин

1.4.

Воспроизведение и передача размера единиц физических величин. Эталоны и образцовые средства измерения

1.5.

Измерительные приборы и установки

1.6.

Меры в метрологии и измерительной технике. Поверка средств измерений

1.7.

Физические константы и стандартные справочные данные

1.8.

Стандартизация в обеспечении единства измерений. Метрологический словарь

2.

Основы построение систем единиц физических величин

2.1.

Системы единиц физических величин

2.2.

Формулы размерности

2.3.

Основные единицы системы СИ

2.4.

Единица длины системы СИ - метр

2.5.

Единица времени системы СИ - секунда

2.6.

Единица температуры системы СИ - Кельвин

2.7.

Единица силы электрического тока системы СИ - Ампера

2.8.

Реализация основной единицы системы СИ - единицы силы света - канделы

2.9.

Единица массы системы СИ - килограмм

2.10.

Единица количества вещества системы СИ - моль

3.

Оценка погрешностей результатов измерения

3.1.

Введение

3.2.

Систематические погрешности

3.3.

Случайные погрешности измерений

Часть II. ИЗМЕРИТЕЛЬНАЯ ТЕХНИКА

4.

Введение в измерительную технику

5.

Измерения механических величин

5.1.

Линейные измерения

5.2.

Измерения шероховатости

5.3.

Измерения твердости

5.4.

Измерения давления

5.5.

Измерения массы и силы

5.6.

Измерения вязкости

5.7.

Измерение плотности

6.

Измерения температуры

6.1.

Методы измерения температуры

6.2.

Контактные термометры

6.3.

Неконтактные термометры

7.

Электрические и магнитные измерения

7.1.

Измерения электрических величин

7.2.

Принципы, лежащие в основе магнитных измерений

7.3.

Магнитные преобразователи

7.4.

Приборы для измерения параметров магнитных полей

7.5.

Квантовые магнитометрические и гальваномагнитные приборы

7.6.

Индукционные магнитометрические приборы

8.

Оптические измерения

8.1.

Общие положения

8.2.

Фотометрические приборы

8.3.

Спектральные измерительные приборы

8.4.

Фильтровые спектральные приборы

8.5.

Интерференционные спектральные приборы

9.

ФИЗИКО-ХИМИЧЕСКИЕ ИЗМЕРЕНИЯ

9.1.

Особенности измерения состава веществ и материалов

9.2.

Измерения влажности веществ и материалов

9.3.

Анализ состава газовых смесей

9.4.

Измерения состава жидкостей и твердых тел

9.5.

Метрологическое обеспечение физико-химических измерений

Часть III. СТАНДАРТИЗАЦИЯ И СЕРТИФИКАЦИЯ

10.

Организационные и методические основы метрологии и стандартизации

10.1.

Введение

10.2.

Правовые основы метрологии и стандартизации

10.3.

Международные организации по стандартизации и метрологии

10.4.

Структура и функции органов Госстандарта РФ

10.5.

Государственные службы по метрологии и стандартизации РФ

10.6.

Функции метрологических служб предприятий и учреждений, являющихся юридическими лицами

11.

Основные положения государственной службы стандартизации РФ

11.1.

Научная база стандартизации РФ

11.2.

Органы и службы систем стандартизации РФ

11.3.

Характеристика стандартов разных категорий

11.4.

Каталоги и классификаторы продукции как объект стандартизации. Стандартизация услуг

12.

Сертификация измерительной техники

12.1.

Основные цели и задачи сертификации

12.2.

Термины и определения, специфические для cертификации

12.3.

12.3. Системы и схемы сертификации

12.4.

Обязательная и добровольная сертификация

12.5.

Правила и порядок проведения сертификации

12.6.

Аккредитация органов по сертификации

12.7.

Сертификация услуг

Заключение

Приложения

Указатели
12   именной указатель
583   предметный указатель
145   указатель иллюстраций
Рис. 03.02. К определению интегральной функции распределения Рис. 03.03. Вид интегральной функции распределения вероятности выпадения определенного значения величины х при повторяющихся измерениях Рис. 03.04. Дифференциальная функция распределения вероятности Рис. 03.05. Дифференциальная функция равномерного распределения Рис. 03.06. Нормальное распределение Гаусса (ф. 3.42) Рис. 03.07. Зависимость нормированного нормального распределения от параметра t

Описание случайных погрешностей с помощью функций распределения

Погрешности случайныеСлучайный характер выпадения того или иного определенного результата измерения Х означает, что причины его появления настолько разнообразны, что невозможно заранее предсказать реализацию этого события. Можно говорить только в его вероятности появления при ограниченном или бесконечно большом числе измерений. Обозначая истинное значение измеряемой величины как Q, будем под символом Xi понимать результат измерения в опыте с номером i.

Задача, которая ставится перед метрологом, желающим приблизиться к истинному значению измеряемой величины Q и оценить вероятность определенного отклонения в единичном опыте или в серии измерений, состоит в отыскании закона распределения вероятности получения определенного результата от какого-либо аргумента, связанного с отклонением результата от истинного значения. Наиболее универсальным способом достижения этой цели является отыскание интегральных и дифференциальных функций распределения вероятности.

Под Функция распределения интегральнаяинтегральной функцией распределения вероятности выпадения определенного результата во множестве повторяющихся измерений (Fx ) понимается зависимость вероятности того, что результат наблюдения Х в i-ом опыте окажется меньше, чем некоторое значение х, т. е.

<?xml version="1.0" encoding="UTF-16"?>
(3.11)

где знаком Р обозначена вероятность попадания результата в интервал, записанный в фигурных скобках.

Наглядное представление о смысле интегральной функции распределения может быть получено если рассматривать числовую ось (рис. 3.2Рис. 03.02. К определению интегральной функции распределения), на которой отложены значения аргумента х. Интегральная функция распределения численно равна вероятности того, что случайная точка Xi , в результате i-го измерения займет положение левее точки х'.

При таком определении функция распределения F(x) не может уменьшаться, т. е. F(x) является функцией возрастающей. При движении точки х' влево по числовой оси очевидно, что искомая вероятность будет стремиться к нулю, а при движении х' вправо функция F(x) стремится к единице. Это практически означает, что любой результат измерения попадет в какое-либо значение на числовой оси. Вероятность попадания в бесконечно малое значение х' равно нулю.

Интегральная функция распределения имеет еще одно свойство - непрерывность. Оно выражает тот факт, что результат наблюдения может принять любое до опыта выбранное значение только с нулевой вероятностью.

На самом деле в реальных измерениях это не совсем так. Особенно понятно это с позиций современной квантовой теории. Квантовый (дискретный) характер изменения измеряемой величины, конечная разрешающая способность любого средства измерения, приводят к тому, что область значений измеряемой величины разбивается на ряд участков, в пределах которых данная величина постоянна или неразличима для наблюдателя. Поэтому интегральная функция распределения реально изменяется скачками на некоторое значение при переходе от одного участка числовой оси к другой.

Мы будем рассматривать случай, когда ширина полос или участков постоянства функции F(x) ничтожно мала и не влияет на анализ погрешностей. Итак, интегральная функция распределения вероятности получения определенного результата при измерении является непрерывной неубывающей функцией, стремящейся к нулю при х стремящимся к минус бесконечности и к единице при х стремящимся к бесконечности (рис. 3.3Рис. 03.03. Вид интегральной функции распределения вероятности выпадения определенного значения величины х при повторяющихся измерениях).

Случайную погрешность δ будем рассматривать как случайную величину, принимающую в различных опытах различные значения δi. Ее интегральную функцию будем рассматривать, поместив начало координат в точку х = Q, соответствующую истинному значению измеряемой величины, т. е.

<?xml version="1.0" encoding="UTF-16"?>
(3.12)

Более наглядным является описание свойств результатов наблюдений и случайных погрешностей с помощью Функция распределения дифференциальнаядифференциальной функции распределения, называемой плотностью распределения вероятности. Обозначим дифференциальную функцию как Px(х) или Pδ(δ) в зависимости оттого, где расположено начало координат в изменении аргумента. Обозначение х соответствует произвольному расположению начала координат, обозначение δ соответствует помещению начала координат в точку, соответствующую истинному значению измеряемой величины (x=Q, при этом δ=0).

Дифференциальная функция распределения является производной от интегральной функции по своему аргументу

<?xml version="1.0" encoding="UTF-16"?>
(3.13)

График дифференциальной функции распределения часто называют кривой распределения и чаще всего он имеет максимум при х = Q или при δ=0 (рис. 3.4Рис. 03.04. Дифференциальная функция распределения вероятности).

От дифференциальной функции распределения легко перейти к интегральной путем интегрирования по интервалам: <?xml version="1.0" encoding="UTF-16"?>
, т. е.

<?xml version="1.0" encoding="UTF-16"?>
(3.14)

Основным очевидным свойством дифференциальной функции распределения является равенство единице площади под кривой распределения

<?xml version="1.0" encoding="UTF-16"?>
(3.15)

Рассмотрим теперь физический смысл введенных понятий. Прежде всего определим вероятность попадания результата наблюдений или случайной погрешности в заданный интервал. Из определения интегральной функции распределения следует, что такая вероятность равна разности значений функции Г(х) на границах интервала:

<?xml version="1.0" encoding="UTF-16"?>
(3.16)

Заменяя интегральную функцию на дифференциальную, для той же вероятности получим:

<?xml version="1.0" encoding="UTF-16"?>
(3.17)

или

<?xml version="1.0" encoding="UTF-16"?>

Следовательно, вероятность попадания результата измерения в заданный интервал равна площади, ограниченной кривой распределения, осью абсцисс и перпендикулярами к оси абсцисс на границах интервала. Произведения Pδ(δ)dδ и Px(x)dx называются элементами вероятности. Они равны вероятности того, что случайные величины примутзначения в интервалах dδ и dx.

Следующим шагом в рассмотрении теории случайных погрешностей является определение понятия математического ожидания результата наблюдения X, т. е.:

<?xml version="1.0" encoding="UTF-16"?>
(3.18)

Важное значение имеет понятие, именуемое дисперсией распределения результатов измерения D[X]:

<?xml version="1.0" encoding="UTF-16"?>
(3.19)

Дисперсия распределения случайной погрешности равна дисперсии результатов наблюдения и является характеристикой их рассеивания относительно математического ожидания.

Физический смысл введенных понятий становится очевидным, если переопределить с их помощью введенные нами категории систематической и случайной погрешностей.

Систематической постоянной погрешностью называется отклонение математического ожидания результатов измерения от истинного значения измеряемой величины

<?xml version="1.0" encoding="UTF-16"?>
(3.20)

Случайной погрешностью называется разность между результатом единичного измерения и математическим ожиданием результата

<?xml version="1.0" encoding="UTF-16"?>
(3.21)

Истинное значение, как и в предыдущих рассмотрениях, равно:

<?xml version="1.0" encoding="UTF-16"?>
(3.22)

Если математическое ожидание рассматривать как абсциссу центра тяжести фигуры, заключенной между кривой распределения и осью Ох, то дисперсия распределения является аналогом момента инерции этой фигуры относительно вертикальной оси, проходящей через центр тяжести. Дисперсия распределения имеет размерность квадрата размерности измеряемой величины. Для удобства сопоставления в качестве определяющего параметра, характеризующего рассеяние, рассматривают арифметический корень из дисперсии, называемый средним квадратическим отклонением результатов наблюдений:

<?xml version="1.0" encoding="UTF-16"?>
(3.23)

С помощью оценки среднего квадратического отклонения можно оценить вероятность того, что при однократном наблюдении случайная погрешность по абсолютной величине не превзойдет некоторой наперед заданной величины ε, т. е. вероятность Р = {|δ| <ε}.

Для этого запишем выражение для дисперсии распределения случайной погрешности как

<?xml version="1.0" encoding="UTF-16"?>
(3.24)

Если сузить пределы интегрирования, то правая часть равенства возрасти не может, поэтому:

<?xml version="1.0" encoding="UTF-16"?>
(3.25)

При замене под интегралом на меньшую величину неравенство может только усилиться:

<?xml version="1.0" encoding="UTF-16"?>
(3.26)

Интегралы, стоящие в скобках, есть вероятности того, что случайная погрешность примет значения в интервалах, определяемых пределами интегрирования

<?xml version="1.0" encoding="UTF-16"?>
(3.27)

Отсюда получаем окончательно:

<?xml version="1.0" encoding="UTF-16"?>
(3.28)

Этот результат известен как неравенство Чебышева: вероятность того, что результат измерения вы идет за пределы произвольного интервала ±ε меньше отношения дисперсии к квадрату величины этого интервала.

Полагая ε = 3 • δx, найдем вероятность того, что результат однократного измерения выйдет за пределы утроенного среднего квадратического отклонения, т. е. вероятность того, что случайная погрешность окажется большей 3 • δx

<?xml version="1.0" encoding="UTF-16"?>
(3.29)

Вероятность того, что погрешность измерения не превысит пределов Зσ соответственно составляет:

<?xml version="1.0" encoding="UTF-16"?>
(3.30)

Физический смысл неравенства Чебышева состоит в том, что оно дает нижнюю границу для вероятности попадания результатов измерения в наперед заданный интервал. Меньше этого значения вероятность не может быть ни при каком распределении.

Заканчивая рассмотрение характеристик функций распределения, подведем итог, состоящий в том, что максимум математического ожидания определяет наиболее вероятное значение измеряемой величины в том случае, если разброс результатов измерений носит случайный характер. Величину этого разброса характеризует дисперсия распределения. Эти две характеристики являются наиболее употребительными, т. к. определяют наиболее близкий к истинному результат измерений и значение погрешности измерений.

В теории погрешностей иногда рассматривают так называемый третий центральный момент распределения, определяемый как

<?xml version="1.0" encoding="UTF-16"?>
(3.31)

Этот момент характеризует асимметрию или скошенность функции распределения. Чтобы получить удобную безразмерную характеристику асимметрии, вводят коэффициент асимметрии, равный отношению третьего центрального момента к кубу среднего квадратического отклонения:

<?xml version="1.0" encoding="UTF-16"?>
(3.32)

Четвертый центральный момент, определенный как

<?xml version="1.0" encoding="UTF-16"?>
(3.33)

характеризует плосковершинность или островершинность кривой распределения и выражается с помощью эксцесса - безразмерной характеристики, определяемой выражением:

<?xml version="1.0" encoding="UTF-16"?>
(3.34)

Равномерное распределение случайных погрешностей

Часто при измерениях заранее известно, что возможные значения случайных погрешностей средства измерения равновероятны и лежат в пределах некоторого определенного интервала. Такое распределение называется равномерным. Значения дифференциальной функции такого распределения в определенном интервале {-α; +α] постоянны, а вне этого интервала равны нулю. Дифференциальная функция распределения случайной погрешности в этом случае имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.35)

Такая ситуация встречается каждый раз, когда речь идет об измерениях величины, изменяющейся порциями, квантами. В оптике это изменения энергии в пределах энергии кванта ΔЕ = hν. В электричестве это, например, изменения заряда в пределах заряда электрона е. В механике дискретность массы определяется массой одной частицы. Та же самая ситуация имеет место при измерениях прибором, разрешающая способность которого хуже, чем статистический разброс случайных значений величины. В этом случае всегда при изменениях величины меньшем, чем разрешающая способность прибора, мы получим одно и то же значение, а вероятность отклонения величины в этих пределах измерить будет невозможно.

То же самое имеет место при измерениях размеров калибрами, т. е. концевыми мерами или скобами сфиксированными параметрами. Например, имея концевую меру в виде щупа или плитки Иогансона, мы можем рассортировать предметы только по признаку больше они по размеру номинала щупа или плитки или меньше. Поскольку калибры, щупы и плитки Иогансона являются такими же средствами измерения, как показывающие или регистрирующие приборы, в измерительной практике нужно уметь оценивать погрешности и при их использовании.

Постоянную величину С в равномерном распределении находят из условия, что площадь между кривой распределения и осью абсцисс должна равняться единице, т. е.:

<?xml version="1.0" encoding="UTF-16"?>
(3.36)

Уравнение для Функция распределения интегральнаяинтегральной функции равномерного распределения находится из условия, что Fδ(δ) = 0 до тех пор, пока δ< -α. В пределах интервала [-α, +α]:

<?xml version="1.0" encoding="UTF-16"?>
(3.37)

Это означает, что интегральная функция равномерного распределения растет от значения Fδ(δ)=0 при δ= -α до Fδ(δ)=1 при δ=+α. При прохождении абсциссы через нуль интегральная функция равна 0,5. Окончательное выражение для интегральной функции распределения имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.38)

Математическое ожидание случайной погрешности при равномерном распределении легко найти из его определения:

<?xml version="1.0" encoding="UTF-16"?>
(3.39)

Дисперсию случайной равномерно распределенной погрешности можно найти по формуле:

<?xml version="1.0" encoding="UTF-16"?>
(3.40)

Вероятность попадания случайной погрешности в заданный интервал (δ1; δ2] при равномерном распределении равна

<?xml version="1.0" encoding="UTF-16"?>
(3.41)

На графике функции распределения эта вероятность равна заштрихованной на рис. 3.5Рис. 03.05. Дифференциальная функция равномерного распределения площади.

Если интервал изменения δ полностью укладывается внутри интервала изменения а, то искомая вероятность просто равна отношению длин этих интервалов. Если интервал изменения δ находится полностью за пределами интервала изменения α, то вероятность попадания случайной погрешности в интервал (δ1; δ2] равна нулю.

Нормальное распределение Гаусса

В большинстве практических случаев при чисто случайных разбросах результатов отдельных измерений относительно истинного значения измеряемой величины функция распределения имеет вид, получивший название нормального распределения Гаусса.

Если причины, вызывающие отклонения результатов измерения от истинного значения, настолько разнообразны и многоплановы, что невозможно выделить какую-либо доминанту, функция распределения всегда имеет вид экспоненты с определенными параметрами. К этому утверждению следует относиться как к аксиоме физики, т. е. мир устроен так, что при случайном выпадении многократных результатов повторяющихся событий функция распределения будет иметь вид экспоненты. В метрологии, как и в физике вообще, встречается достаточно много аксиом, например постоянство скорости света, корпускулярно-волновой дуализм, токи смещения в уравнениях Максвелла, принцип относительности и т. д. Аналитическую зависимость функции нормального распределения можно отнести к категории таких принципов или аксиом. В метрологии и в технике измерений получение такой зависимости неоценимо в определении достоверности, правильности и точности измерений. Предложенная Гауссом зависимость дифференциальной функции распределения результатов повторяющихся случайных событий оказалась настолько ценной, что в Германии, например, формула нормального распределения считается одним из самых крупных достижений науки.

Нормальное распределение выпадения определенного результата в повторяющихся случайных событиях это такое распределение, дифференциальная функция распределения которого имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.42)

где δ = х - mF; здесь: х - результат однократного измерения; mF - математическое ожидание результата измерения так, что

<?xml version="1.0" encoding="UTF-16"?>
(3.43)

где σx - среднее квадратическое отклонение результатов измерения.

При записи в таком виде кривые нормального распределения зависят от среднего квадратического отклонения. При увеличении σ распределение все более расплывается, т. е. вероятность появления больших отклонений от математического ожидания увеличивается, а вероятность меньших погрешностей сокращается (рис. 3.6Рис. 03.06. Нормальное распределение Гаусса (ф. 3.42)).

Для того чтобы сделать аналитическую зависимость нормального дифференциального распределения более универсальной, делают замену переменных, выражая отклонения величины х от математического ожидания mF в единицах среднего квадратического отклонения:

<?xml version="1.0" encoding="UTF-16"?>
(3.44)

где х - результат отдельного измерения; x1 - минимальное возможное значение измерения; x2 - максимальное возможное значение измерения. После такой замены переменных вероятность попадания результата измерения в некоторый заданный интервал (x1 ; x2 ] выражается как:

<?xml version="1.0" encoding="UTF-16"?>
(3.45)

Интегралы в скобках не выражаются в элементарных функциях. Их вычисляют с помощью так называемого нормированного нормального распределения с дифференциальной функцией

<?xml version="1.0" encoding="UTF-16"?>
(3.46)

график которой изображен на рис. 3.7Рис. 03.07. Зависимость нормированного нормального распределения от параметра t.

Функция p(t) не зависит от параметров распределения, в силу чего может быть затабулирована. Значения этой функции в пределах изменения t от нуля до 4 приведены в приложении II.

Интегральная функция нормального распределения имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.47)

По физическому смыслу это есть вероятность того, что погрешность измерения будет меньше или равна величине z, т. е.

<?xml version="1.0" encoding="UTF-16"?>
(3.48)

Интегральная функция нормального распределения также затабулирована (см. приложение I).

Используя интегральную функцию нормального распределения, можно определить вероятность попадания результата измерения в интервал (x1 , x2 ] как

<?xml version="1.0" encoding="UTF-16"?>
(3.49)

При этом справедливо тождество:

<?xml version="1.0" encoding="UTF-16"?>
(3.50)

Подчеркнем, что все сказанное справедливо, если погрешности случайные, распределение можно считать нормальным с известной дисперсией σx2 . Тогда на основании формулы (3.44) имеем:

<?xml version="1.0" encoding="UTF-16"?>
(3.51)

Обычно значения t1 и t2, выбирают симметрично по обе стороны от максимума распределения так, что t1 = t2 = tp. Формула для вероятности попадания результата в заданный интервал приобретает вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.52)

Меняя х и mF местами в этом неравенстве, получим:

<?xml version="1.0" encoding="UTF-16"?>
(3.53)

Если систематические погрешности исключены и mF = Q, то

<?xml version="1.0" encoding="UTF-16"?>
(3.54)

Это означает, что истинное значение измеряемой величины с доверительной вероятностью Р = 2Ф(tp) -1 находится между границами интервала [(х -tpσx );(х+tpσx )] . Интервал от -tpσx до +tpσx называется доверительным интервалом погрешности измерения, а половина интервала tpσx называется доверительной границей случайного отклонения результатов наблюдения, соответствующей доверительной вероятности Р.

Для определения доверительной границы задаются доверительной вероятностью Р и по формуле 3.51 находят из таблиц параметр tp. После этого вычисляют доверительное отклонение tpσx . Если известно среднее квадратическое отклонение результатов измерения, то легко определить погрешность измерения при заданной доверительной вероятности.

Задача может быть поставлена иначе, а именно: какова доверительная вероятность попадания результата измерения в заданный доверительный интервал, если известно среднее квадратическое отклонение серии измерений? В этом случае определяют параметр tp делением доверительного интервала на среднеквадратическое отклонение tp= (tpσx ) /σx . Затем из таблиц значений интегральной функции нормального распределения находят величину Ф(tp), после чего вычисляют доверительную вероятность как 2Ф(tp) -1.

Из приведенных определений понятий, определяющих нормальное распределение вероятности получения определенных результатов измерения можно кратко сформулировать следующие выводы:

  1. Погрешности измерения (интервалы допустимой погрешности) зависят от того, с какой вероятностью мы хотим получить достоверный результат.

  2. Для определения погрешности при заданном доверительном интервале и для определения этого интервала при заданной доверительной вероятности необходимо знать среднее квадратическое отклонение результатов измерения.

  3. Функции нормального распределения дают связь между вероятностью попадания результатов измерения (доверительной вероятностью) в заданный интервал и величиной самого интервала, называемого доверительной границей случайного отклонения.

Нормальное распределение при ограниченном числе наблюдений. Распределение Стьюдента

Сформулированные в предыдущем разделе понятия и написанные формулы относятся к случаю, когда число измерений бесконечно велико. На практике мы всегда имеем дело с ограниченным числом измерений, и задача, которая всегда стоит перед оператором, состоит в том, как оценить точность измерений, т. е. найти его меру приближения к истинному значению на основании группы результатов наблюдения. Эта задача есть частный случай статистической задачи нахождения параметров функции распределения, в первую очередь среднего квадратического отклонения, на основе выборки, т. е. ряда значений, принимаемых этой величиной в результате п независимых опытов.

В результате отдельных измерений мы получаем некоторые строго фиксированные результаты (точки) измеряемой величины. Их значения являются случайными с некоторым распределением, зависящим как от самой величины, так и от числа опытов. При случайном разбросе значений рассеяние (или среднее квадратическое отклонение) в большинстве случаев определяется характером и величиной случайных хаотических воздействий или на средство измерения, или на объект измерения, или на оператора.

К точечным оценкам теория случайных погрешностей предъявляет совершенно определенные требования, которые можно сформулировать следующим образом:

  1. Оценка должна быть состоятельной, т. е. при увеличении числа опытов она должна приближаться к истинному значению измеряемой величины - должна сходиться по вероятности.

  2. Оценка должна быть несмещенной, то есть ее математическое ожидание должно быть равно измеряемой величине.

  3. Оценка должна быть эффективной, то есть ее дисперсия должна быть меньше дисперсии любой другой оценки данного параметра.

Пусть есть ряд результатов отдельных измерений x1 ; x2 ; x3 ;...... xn , где

n - число наблюдений. Математическое ожидание и дисперсия записываются как

<?xml version="1.0" encoding="UTF-16"?>
(3.55)

За оценку истинного значения измеряемой величины естественно принять значение среднего арифметического, т. е.:

<?xml version="1.0" encoding="UTF-16"?>
(3.56)

Эта оценка математического ожидания результата измерений может стать оценкой истинного значения измеряемой величины после исключения систематической погрешности.

Поскольку среднее арифметическое вычислено на основании ограниченного ряда измерений, оно само является величиной случайной. Вычислим его математическое ожидание:

<?xml version="1.0" encoding="UTF-16"?>
(3.57)

Это значит, что среднее арифметическое является несмещенной оценкой истинного значения. Однако несмещенными будут и все другие оценки вида:

<?xml version="1.0" encoding="UTF-16"?>
(3.58)

если <?xml version="1.0" encoding="UTF-16"?>
. Покажем, что из всех определенных так оценок, наименьшую дисперсию имеет среднее арифметическое

<?xml version="1.0" encoding="UTF-16"?>

В теории погрешности показывается, что последняя сумма <?xml version="1.0" encoding="UTF-16"?>
достигает минимума, если все а одинаковы и равны 1/n. Тогда дисперсия среднего арифметического равна:

<?xml version="1.0" encoding="UTF-16"?>
(3.59)

т. е. дисперсия среднего арифметического в n раз меньше дисперсии результата отдельного наблюдения. В терминах среднего квадратического отклонения это имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.60)

т. е. среднее квадратическое отклонение среднего арифметического в <?xml version="1.0" encoding="UTF-16"?>
раз меньше среднего квадратического отклонения результата отдельного наблюдения. По мере увеличения числа наблюдений

<?xml version="1.0" encoding="UTF-16"?>
(3.61)

Логическим следствием сказанного является оценка истинного значения измеряемой величины по результатам отклонения от среднего арифметического:

<?xml version="1.0" encoding="UTF-16"?>
(3.62)

В качестве точечной оценки дисперсии случайной погрешности естественно выбрать величину

<?xml version="1.0" encoding="UTF-16"?>
(3.63)

Эта оценка состоятельна и эффективна, но немного смещена, поскольку ее математическое ожидание составляет

<?xml version="1.0" encoding="UTF-16"?>
(3.64)

Точечную оценку среднего квадратического отклонения результата отдельного измерения принято определять как

<?xml version="1.0" encoding="UTF-16"?>
(3.65)

Эта оценка есть тоже случайная величина, т. е. при повторении серии из п измерений мы получим несколько иное S\ значение оценки среднего квадратического отклонения. Поскольку среднее арифметическое значение имеет дисперсию в 1/n раз меньшую, чем результат для отдельного измерения, точечная оценка дисперсии (среднего квадратического отклонения) для среднего арифметического имеет вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.66)

где Sx2 - среднее квадратическое отклонение для результата отдельного измерения.

Общий итог введения понятий для нормального распределения вероятности для ограниченного числа измерений можно записать в виде

<?xml version="1.0" encoding="UTF-16"?>
(3.67)

где Q - истинное значение измеряемой величины, равное математическому ожиданию Q=mF; <?xml version="1.0" encoding="UTF-16"?>
- среднее арифметическое значение результатов серии независимых измерений; <?xml version="1.0" encoding="UTF-16"?>
- среднее квадратическое отклонение среднего арифметического при повторении серии измерений.

При увеличении числа измерений доверительный интервал сокращается в <?xml version="1.0" encoding="UTF-16"?>
раз. Этот очень важный вывод теории погрешностей позволяет с любой наперед заданной вероятностью в принципе сколь угодно близко подойти к истинному значению измеряемой величины, увеличивая число независимых измерений.

Как итог, при нормальном распределении случайных погрешностей мы имеем тесную взаимосвязь между желаемым отклонением от истинного значения измеряемой величины, доверительной вероятностью данного отклонения и числом независимых измерений. Соответственно, задача может быть поставлена в нескольких вариантах:

  1. Определить доверительный интервал, если необходимо получить заданную доверительную вероятность при фиксированном числе измерений.

  2. Определить доверительную вероятность попадания среднего арифметического значения определенного числа независимых измерений в заданный доверительный интервал.

  3. Определить необходимое число независимых измерений, если считать известной доверительную вероятность и задаться определенным доверительным интервалом.

При ограниченном числе измерений доверительный интервал, введенный нами для распределения Гаусса, записывается в виде

<?xml version="1.0" encoding="UTF-16"?>
(3.68)

Результат измерений приобретает вид:

<?xml version="1.0" encoding="UTF-16"?>
(3.69)

Если при измерениях имеется возможность проведения ограниченного числа измерений, но дисперсия результатов неизвестна, то функция распределения должна зависеть не только от желаемой доверительной вероятности и доверительного интервала, но и от числа независимых измерений. В этом случае вместо распределения Гаусса используется несколько иное распределение, называемое распределением Стьюдента, которое имеет следующую аналитическую зависимость:

<?xml version="1.0" encoding="UTF-16"?>
(3.70)

где k - число степеней свободы распределения, равное числу независимых измерений без единицы k = (n -1), а параметр t называется дробью Стьюдента и определяется как

<?xml version="1.0" encoding="UTF-16"?>
(3.71)

где сохранены предыдущие обозначения, т. е. n - число независимых измерений; <?xml version="1.0" encoding="UTF-16"?>
- среднее арифметическое значение серии измерений; Q -истинное значение измеряемой величины и Sx - оценка среднего квадратического отклонения результата измерения (формула 3.65).

Вероятность того, что в результате измерения дробь Стьюдента примет некоторое значение в интервале(-t; +t)равна

<?xml version="1.0" encoding="UTF-16"?>
(3.72)

Значения функции S(t, k) были вычислены и затабулированы Фишером для различных значений доверительной вероятности Р в пределах от 0,10до 0,99 при k =1, 2,...... 30. Эти значения приведены в приложении.

С помощью распределения Стьюдента может быть найдена вероятность того, что отклонение среднего арифметического от истинного значения измеряемой величины не превышает

<?xml version="1.0" encoding="UTF-16"?>
(3.73)

Итог записывается в прежнем виде: Q = Х + 8 ; при Р =.....%. Таблицы значений интегралов функции S(t,k) распределения Стьюдента , приведенные в приложении III, определяют доверительную вероятность Р как функцию двух параметров - t и k. По этой таблице, следовательно, можно, зная два из этих трех значений, найти третье, т. е. по числу измерений и доверительному интервалу либо найти доверительную вероятность, либо по числу измерений и доверительной вероятности найти доверительный интервал, либо по доверительной вероятности и доверительному интервалу найти необходимое число независимых измерений, которые необходимо выполнить. Например, зная число опытов п, найдем число степеней свободы к = п - 1. Задавшись доверительной вероятностью Р, определим соответствующее ей значение дроби Стьюдента t по таблице. Затем по формуле 3.73 находим доверительный интервал.

Проиллюстрируем возможности оценки случайной погрешности с использованием распределения Стьюдента на примере.

Пример:

Даны некоторые результаты измерения длины при числе независимых измерений, равных 5. Получен следующий результат:

L= (15,785+0,005) мм
(среднее квадратическое отклонение <?xml version="1.0" encoding="UTF-16"?>
= 0,005 мм).

Вопрос: Какова вероятность того, что при этом длина будет измерена с точностью δi = 0,01 мм?

Решение: <?xml version="1.0" encoding="UTF-16"?>
; k= 5 -1 =4. Из таблицы находим для t=2 и к =4

<?xml version="1.0" encoding="UTF-16"?>

В той же задаче найти доверительную границу погрешности результата измерений при доверительной вероятности 99%.

По таблице для Р = 99 и к = 4 находим t = 4, 604. Следовательно

<?xml version="1.0" encoding="UTF-16"?>

В заключение раздела, посвященного расчету случайных погрешностей, приведем некоторую шутливую аналогию. Поставим вопрос так: каков процент попадания мяча в ворота при реализации футбольных пенальти и от чего это за висит? Пусть при этом не будет учитываться роль вратаря.

Любой представляющий себе футбольную ситуацию ответит, что все достаточно очевидно. Во-первых, многое зависит от мастерства того, кто пробивает пенальти. Это аналог класса точности прибора. Очевидно, что мастер футбола добьется лучшего результата, т. е. либо процент попадания в серии у него будет выше, либо определенное число голов он забьет с меньшего числа попыток. Во-вторых, процент забитых голов зависит от размера ворот. Это аналог доверительного интервала. В очень широкие ворота и новичок забьет большой процент голов. И, наконец, число забитых голов зависит от количества ударов. Даже очень плохой футболист может забить сколько угодно голов, если ему дать достаточно большое число попыток. Разница между мастером и новичком будет лишь в том, что мастер сделает это с меньшего числа попыток. Важно при этом учитывать, что разница в классе игроков особенно скажется при наборе статистики, т. е. при большом числе попыток. Если назначить один или два удара, то и классный игрок может случайно промахнуться, равно как и новичок может с одного-двух раз добиться хорошего успеха. Однако, при большом количестве попыток статистика возьмет свое: классный игрок забьет настолько больше голов, насколько выше его класс.

Этой аналогией мы завершим изложение основных выводов теории погрешностей и отметим основной момент, отличающий профессиональную метрологическую оценку погрешностей от тех оценок, которыми пользовался каждый в оформлении школьных лабораторных работ. Основное отличие в вероятностном характере оценок, т. е. называя те или иные отклонения результатов измерения от истинного значения или от среднего арифметического, нужно всегда указывать, с какой вероятностью мы попадем в заданный интервал отклонений. И еще один, очень важный момент: разброс значений измеряемых величин убывает как корень квадратный из числа повторяющихся независимых измерений. Это значит, что случайную погрешность можно свести к минимуму, увеличивая число измерений.

Последний вывод оказывается очень важным и удивительным: не зная природу погрешности при чисто случайном ее разбросе можно сделать измерения достаточно точными, даже располагая не очень точным средством измерения. В этом минимизация случайных погрешностей значительно проще учета систематической погрешности, для оценки которой иногда нужны широкомасштабные исследования.

© Центр дистанционного образования МГУП