Случайности вокруг нас

Текст урока с работающими фрагментами расчетов в файле uroki-approksimacii.xls

 

 

Чтобы мы ни делали: стреляли в цель, измеряли рост тела, определяли объем жидкости в бутылке – наши действия никогда не бывают абсолютно точны. Например, на точность стрельбы влияют утомленность глаза, отвлечение внимания, собственное дыхание и биение сердца, движение воздуха и т.д., и т.п. Таким же образом, в результате воздействия подобного рода факторов ошибка может возрастать или уменьшаться в зависимости от случайного сочетания этих факторов в каждом отдельном замере. При большой совокупности замеров получим вполне определенную зависимость между размером ошибки и вероятностью ошибки такого размера. В большинстве случаев такая зависимость описывается кривой Гаусса:

 

f(δ)=1/σ√2π*Exp(-δ2/2σ2)

 

где δ - размер случайной погрешности; σ - среднеквадратичное отклонение (разброс) погрешности от ее нулевого значения при большом количестве измерений; f(δ) - плотность распределения значений вероятностей для δ.

 

В варианте, который может быть исполнен на листе Excel (см. Уроки аппроксимации.xls, Лист Stat) эту функцию следует записать в следующем виде:

 

f(δ)=1/(σ*(2*3.14158)^0.5)*Exp(-(δ^2)/(2*σ^2))

 

Пример кривой распределения плотности вероятностей f(δ):

 

 

Вы можете поэкспериментировать на листе Excel, меняя величину σ, и понаблюдать как при этом изменяется форма кривой.

 

Площадь под кривой плотности распределения вероятности случайной ошибки в некотором выделенном диапазоне равна вероятности того, что ошибка будет находиться именно в выделенном диапазоне размеров ошибки. Можно сказать иначе: плотность вероятности - это количество событий (в частности случайных ошибок), попавших в заданный диапазон, поделенное на ширину этого диапазона и еще раз поделенное на общее количество событий (в частности, на число произведенных замеров определяемой величины) при условии, что ширина диапазона стремится к нулю. Вся площадь под кривой равна единице, потому что вероятность того, что погрешность примет одно из возможных значений на всем диапазоне ошибок равна единице.

 

Из закона распределения ошибок в частности следует, что вероятность ошибки с размером, превышающим 1σ, 2σ и 3σ, составляет соответственно 0.68, 0.95 и 0.997. Это означает, например, что при принимаемой на практике доверительной вероятности, равной 0.95, случайная погрешность в 95% случаев не превысит удвоенного среднеквадратичного отклонения. А если такое превышение случилось, то с вероятностью 0.95 можно считать полученный результат непредставительным и на практике его часто отбрасывают в процессе обработки данных.

 

Квадрат среднеквадратичного отклонения погрешности от ее нулевого значения называется дисперсией:

 

σ2=S(Xi-Xdi)^2

 

где Xi и Xdi соответственно замеренное и действительное значение анализируемого параметра X.

 

Дисперсия обладает тем замечательным свойством аддитивности, благодаря которому выполняется условие: дисперсия суммы равна сумме дисперсий. Если мы имеем n замеров одной и той же величины Xd (повторные замеры), то в результате указанного свойства дисперсия среднего значение по этим замерам будет будет выражаться формулой:

 

σ2sr=S(Xi-Xd)^2/n

 

а квадратичная погрешность средней величины X составит:

 

σsr=σ/√n - корень из n

 

Отсюда, например, следует, что если точность визуальной оценки концентрации вещества в растворе составляет 15% от ее действительной величины для одного участника оценки, то 9 участников оценки обеспечат точность в 5%, а рота солдат (раньше были и такие участники оценок) - точность в 1.5%. При количестве 900 участников будет достигнута точность визуальной оценки в 0.5% и т.д.

 

Осталось уточнить тот момент, что на практике мы обычно не знаем достоверного значения Xd, но знаем среднюю величину Xsr. Так как величина Xsr также содержит погрешность, то вышеприведенная формула для σ2sr трансформируются в:

 

σ2sr=S(Xi-Xsr)^2/(n-1)

 

Из этой формулы следует, что если мы имеем лишь один акт замера, то ничего не можем сказать о достоверности полученной величины: один опыт, не опыт - есть, говорят, такая немецкая поговорка.

 

Анонсы уроков аппроксимации

Copyright © 2009 - 2024 Алгоритмист | Правовая информация
Карта сайта
Яндекс.Метрика