Смотреть страницы где упоминается термин оценка вероятности. Оценка вероятности события риска

Количественная оценка риска.

Количественная оценка риска позволяет наиболее точно судить о его величине, но при применении данного метода необходимо использование также аналитических процедур и математических методов. Для оценки количественной величины риска следует прежде всего выбрать показатели, по которым будет производиться выбор решения. Количественные показатели – система физических, натуральных и условных единиц, поэтому при количественной оценке риска могут быть использованы килограммы, количество дней просрочки платежа, рубли, проценты, коэффициенты и т.д. Выбор показателей зависит от вида оцениваемого риска и от целей, которые поставлены при принятии решения, т.е. в каждом случае выбирается соответствующий показатель и устанавливается его критериальная величина.

Основополагающим методом выбора решения является альтернатива – выбор между двумя или несколькими исключающими друг друга возможностями, при этом выбирается то решение, которому соответствует предпочтительная величина хозяйственного риска. В основе метода альтернативы лежит процесс сравнения. Необходимость оценки риска существует в следующих ситуациях:

1) ситуация определенности: когда все ожидаемые результаты точно известны и определены однозначно;

2) ситуации риска:

Когда возможен определенный набор альтернатив решения, при котором вероятности наступления каждого из вариантов можно определить статистически или экспертно, при этом рассматривается только стратегия ЛПР,

Когда возможен определенный набор альтернатив решения, при котором вероятности наступления каждого из вариантов можно определить статистически или экспертно, при этом учитываются не только действия ЛПР, но и действия другой стороны, участвующей в этой хозяйственной ситуации;

3) ситуации неопределенности:

Когда неизвестно заранее, какие варианты решений будут осуществлены, и нет никаких сведений о вероятности их наступления, но возможно определение диапазона, в котором будут находиться данные величины,

– когда неизвестно заранее, какие варианты решений будут осуществлены, и нет никаких сведений ни о вероятности их наступления, ни о диапазоне, в котором могут находиться данные величины.

Следует заметить, что каждой из перечисленных ситуаций присущи неопределенность и риск, но в разной степени, поэтому определение величины риска производится специальными методами.



В первой ситуации устанавливается цель оптимизации, выбирается показатель оценки риска и критерий его оценки, производятся

необходимые расчеты, а после сравнения результатов расчетов с критериями выбирается наиболее приемлемый вариант решения.

Для оценки риска во второй ситуации, как правило, используется метод теории вероятности. Однако, как отмечает П. Бернстайн, вероятность всегда несет в себе двоякий смысл: с одной стороны, это взгляд в будущее, с другой - истолкование прошлого; с одной стороны, речь идет о наших предположениях, с другой - о том, что мы действительно знаем . Часто вероятные события трактуются поразному в зависимости от точки зрения. Возникают два аспекта данной проблемы:

Блок «Управление бухгалтерскими рисками»

Применение теории вероятности для оценки риска.

При применении метода теории вероятности рассчитываются следующие показатели: математическое ожидание случайной величины, выбранной в качестве показателя оценки риска, ее абсолютная колеблемость (дисперсия, среднеквадратичное отклонение) и относительная колеблемость (коэффициент вариации), чем больше колебание лучайной величины, тем больший риск ей соответствует. При расчете данных показателей используются следующие формулы:

1) математическое ожидание случайной величины (хi):

Где p(xi) - вероятность наступления соответствующего события хi,

x - ожидаемое значение случайной величины хi;

2) дисперсия случайной величины:

3) среднеквадратичное отклонение случайной величины:

4) коэффициент вариации:

Существуют два метода определения вероятности наступления

события: объективный и субъективный, при применении которых исходят из аксиом классической теории вероятности:

1) вероятность случайного события x находится в диапазоне от 0 до 1:

2) полная группа событий - это такая их совокупность, из которой одно обязательно должно произойти, притом:



3) действуют теории сложения и умножения вероятностей.

Объективный метод основан на исчислении частоты, с которой

Тот или иной результат был получен в аналогичных условиях. Расчет вероятности (pi) осуществляется по формуле

где n - число событий с i$м исходом;

N - общее число наблюдаемых событий, относящихся к данной случайной величине.

Таким образом, хозяйствующий субъект объективным способом может определить вероятность, если у него есть некоторый опыт или иная информация в области оцениваемых событий. Оценить объективную вероятность наступления события также можно с помощью леммы Маркова и неравенства Чебышева. Применение этих показателей не требует большого количества накопленного статистического материала и времени на его сбор, ведь в экономике часто происходят уникальные события, не имеющие аналогов. Согласно лемме Маркова, если случайная величина х не принимает отрицательных значений, то для любого положительного числа справедливо следующее неравенство:

соответствии с неравенством Чебышева:

Данное неравенство позволяет находить верхнюю границу вероятности того, что случайная величина х отклонится в обе стороны от своего среднего значения на величину больше, чем е. Достоинством леммы Маркова и неравенства Чебышева является то, что они применимы при любом количестве наблюдений и любом законе распределения вероятностей.

Понятие «субъективная вероятность» было введено Джоном Мейнардом Кейнсом. Оно используется для часто встречаемых в экономике и бизнесе событий, при определении вероятности наступления которых невозможно ни применить расчет, ни поставить опыт. При оценке уровня субъективной вероятности эксперт, т.е. тот, кто оценивает вероятность, исходит из отношения правдоподобия (принципа безразличия), согласно которому одинаково правдоподобные события или суждения должны иметь одинаковую вероятность: если событие А одинаково правдоподобно с событием В, то p(А) = p(В). Более правдоподобные события должны иметь большую вероятность

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Задача 1 (1).

Условие:

Вариант 1. P 6 , P 8 , A 6 2 , A 8 5 , C 6 2 , C 8 5 .

Решение:

P 6 = 6! = 6 5 4 3 2 1 = 720 P 8 = 8! = 8 7 6 5 4 3 2 1 = 40320

6 5 = 30 == 8 7 6 = 336

15 = = = 56

Задача 2 (2) .

Условие:

В ящике случайным образом находится 10 рубашек, причем 4 из них высшего сорта. Покупатель берет наудачу 3 из них. Найти вероятность того, что из взятых рубашек окажется высшего сорта хотя бы 1 рубашка.

Решение:

Способ 1:

А - событие взятия 1 рубашки высшего сорта

B - событие взятия 2 рубашек высшего сорта

C - событие взятия 3 рубашек высшего сорта

R - событие взятия хотя бы одной рубашки высшего сорта

P(R) = P(A) + P(B) + P(C) = ++ =

2 способ :

А - событие взятия хотя бы одной рубашки высшего сорта

Ни одна из рубашек высшего сорта не взята

P(A) + P() = 1 P(A) = 1 - P()

P() = = = P(A) = 1 - =

Задача 3 (1) .

Условие :

Имеется 3 партии деталей по 30 деталей в каждой. Число стандартных деталей в первой партии - 30, во второй - 20, в третей партии - 15. Из наудачу выбранной партии наудачу извлекают деталь, оказавшуюся стандартной. Деталь возвращают в партию и вторично из той же партии извлекают деталь, тоже оказавшуюся стандартной. Найти вероятность того, что детали извлекались из третей партии.

Решение:

А - событие извлечения стандартной детали в каждом из двух испытаний

В 1 - детали извлекались из первой партии

В 2 - детали извлекались из второй партии

В 3 - детали извлекались из третей партии

Так как детали извлекались из наудачу взятой партии, то P(B1) = P(B2) = P(B3) =

(А) = 1 - вероятность извлечения стандартных деталей из 1 партии

(А) = = - вероятность извлечения стандартных деталей из 2 партии

(А) = = - вероятность извлечения стандартных деталей из 3 партии

P A (B 3) = == =

Задача 4 (3) .

Условие:

Отдел технического контроля проверяет на стандартность 1000 деталей. Вероятность, что деталь стандартна, равна 0.9. Найти с вероятностью 0.95 границы, в которых будет заключено m стандартных деталей среди проверенных.

Решение:

P = 0.9 - вероятность того, что деталь стандартна

q = 1-P = 0.1 - вероятность того, что деталь нестандартна

Вероятность того, что абсолютная величина отклонения относительной частоты стандартных деталей от числа P не превысит положительного числа?, определяется из удвоенной формулы Лапласа:

Ф(105?) = =0.475

По таблице значений функции Ф(х) находим, что х = 1.96. Откуда 105? = 1.96, значит? ? 0,0186.

Таким образом, границы, в которых будет заключено m стандартных деталей среди проверенных, удовлетворяет равенству:

0,0186 или 0,8814??0,9186

Отсюда искомое число стандартных деталей среди 1000 проверенных с вероятностью Q = 0.95 заключено в границах

881?m ?917

Задача 5 (4).

Условие:

Экономист считает, что вероятность роста стоимости акций компании в следующем году составит 0.8, если экономика страны будет на подъёме, и 0.25, если экономика не будет успешно развиваться. По мнению экспертов, вероятность экономического подъёма равна 0.55. Оценить вероятность того, что акции компании поднимутся в следующем году.

Решение:

А - событие, что акции компании поднимутся в следующем году

Н 1 - событие, что экономика страны будет на подъёме

H 2 - событие, что экономика страны не будет успешно развиваться

События Н 1 и Н 2 образуют полную группу событий. Так как:

P(H 1) = 0.55 - вероятность того, что экономика страны будет на подъёме

P(H 2) = 0.45 - вероятность того, что экономика страны не будет успешно развиваться

0.8 - вероятность роста акций при подъёме экономики страны

0.25 - вероятность роста акций при неуспешном развитии экономики страны

По формуле полной вероятности получим:

P(A) = P(H 1) + P(H 2) = 0.8 0.55+0.25 0.45 = 0.44+0.1125 = 0,5525

Задача 6 (5).

Условие:

Инвестор вложил капитал в ценные бумаги двух финансовых фирм. При этом он надеется получить доход в течении обусловленного времени от первой фирмы с вероятностью 0.88, от второй - с вероятностью 0.85. Однако есть возможность банкротства фирм независимо друг от друга, которая оценивается для первой фирмы вероятностью 0.16, для второй - 0.018. В случае банкротства инвестор получает только вложенный капитал. Какова вероятность получить прибыль?

вероятность значение степень оценка

Решение:

А - событие получения инвестором прибыли

В 1 - событие банкротства первой фирмы

В 2 - событие банкротства второй фирмы

С 1 = В 1 - событие банкротства только первой фирмы

С 2 = В 2 - событие банкротства только второй фирмы

С 3 = В 1 В 2 - событие банкротства обеих фирм

С 4 = - событие работы обеих фирм

Р(В 1) = 0.16 - вероятность банкротства первой фирмы

Р(В 2) = 0.018 - вероятность банкротства второй фирмы

Р С1 (А) = 0.85 - вероятность получения прибыли при банкротстве только первой фирмы

Р С 2 (А) = 0.88 - вероятность получения прибыли при банкротстве только второй фирмы

Р С 3 (А) = 0 - вероятность получения прибыли при банкротстве обеих фирм

Р С4 (А) = 1 - вероятность получения прибыли при работе обеих фирм

Р(С 1) = 0.16 0.982 = 0.1571 - вероятность банкротства первой фирмы

Р(С 2) = 0.84 0.018 = 0.0151 - вероятность банкротства второй фирмы

Р(С 3) = 0.16 0.018 = 0.0029 - вероятность банкротства обеих фирм

Р(С 4) = 0.84 0.982 = 0.8223 - вероятность работы двух фирм

Тогда по формуле полной вероятности получим:

P(A) = P C1 (A) P(C 1)+ P C2 (A) P(C 2)+ P C3 (A) P(C 3)+ P C4 (A) P(C 4) =

0.85 0.1571+0.88 0.0151+0 0.0029+1 0.8223 = 0.1335+0.0133+0+0.8223 = 0,9691

Задача 7 (1).

Условие:

Вероятность выигрыша по лотерейному билету равна 0.04. Какова вероятность того, что среди купленных 15 билетов окажется 3 выигрышных?

Решение:

Требуется найти вероятность n=3 успехов из N=15 испытаний Бернулли с вероятностью успеха р=0.04. По формуле Бернулли эта вероятность равна:

P 15 (3) = = 0.04 3 0.96 12 =455 0.000064 0.613=0.018

Задача 8 (6).

Условие:

Вероятность банкротства одной из 9 фирм к концу года равна 0.24. Какова вероятность того, что к концу года обанкротится не более 3 фирм?

Р (n<3) = p (n=0 или n=1 или n=2 или n=3) = P 9 (0)+P 9 (1)+P 9 (2)+P 9 (3) =

1 0.0846+ 0.24 0.1113+ 0.0576 0.1465+ 0.138 0.01927 =

0.0846+0.2404+0.2363+0.2234 = 0.7847

Задача 9 (1).

Условие:

Текущая цена ценной бумаги представляет собой нормально распределенную величину Х со средним =55 и дисперсией D X =4. Найти вероятность того, что цена актива будет находиться в пределах от Х 1 =53 до Х 2 =57 ден. единиц.

Решение:

Так как М(Х) ? =55, ? = = 2, то

P (53

Задача 1 0 (7).

Условие:

Суммарная выручка 10 фирм в среднем равна S=11000. В 80% случаев эта выручка отклоняется от средней не более чем на?S = 500. Найти вероятность того, что очередная месячная выручка находится в интервале между 1000 и 10000.

Решение:

По условию задачи =P (10500

2=0.8, =0.4

то по таблице значений функции Ф(х) находим =1.28, ? = =390,625

P (1000

Размещено на Allbest.ru

Подобные документы

    Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.

    контрольная работа , добавлен 13.01.2014

    Применение классического определения вероятности в решении экономических задач. Определение вероятности попадания на сборку бракованных и небракованных деталей. Вычисление вероятности и выборочного значения статистики при помощи формулы Бернулли.

    контрольная работа , добавлен 18.09.2010

    Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.

    задача , добавлен 14.01.2011

    Применение классического определения вероятности для нахождения среди определенного количества деталей заданных комбинаций. Определение вероятности обращения пассажира в первую кассу. Использование локальной теоремы Муавра-Лапласа для оценки отклонения.

    контрольная работа , добавлен 23.11.2014

    Возникновение теории вероятности как науки. Классическое определение вероятности. Частость наступления события. Операции над событиями. Сложение и умножение вероятности. Схема повторных независимых испытаний (система Бернулли). Формула полной вероятности.

    реферат , добавлен 22.12.2013

    Общее понятие и характеристика простейшего пространства элементарных исходов. Способы вычисления вероятности события. Классическая вероятностная модель, ее главные свойства и доказательства. Основные аксиомы теории вероятности, примеры решения задач.

    реферат , добавлен 24.04.2009

    Способы вычисления наступления некоторого события. Решение задач, связанных с теорией вероятности. Использование таблицы функции Лапласа для определения теоретических частот нормального закона распределения. Определение исправленной выборочной дисперсии.

    контрольная работа , добавлен 14.03.2015

    Характеристика полной группы событий как совокупность всех возможных результатов опыта. Способы определения вероятности событий в задачах разного направления. Нахождение вероятности количества нестандартных деталей. Построение функции распределения.

    задача , добавлен 19.03.2011

    Изучение сути и выдвижение предположения о законе распределения вероятности экспериментальных данных. Понятие и оценка асимметрии. Принятие решения о виде закона распределения вероятности результата. Переход от случайного значения к неслучайной величине.

    курсовая работа , добавлен 27.04.2013

    Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

Если какое-то измерение повторить несколько раз, получается серия результатов измерений или другими словами серия экземпляров случайной величины. Среднее бесконечного числа повторных измерений (что, конечно же, невозможно!), называется математическим ожиданием, это и есть истинное значение измеряемой величины. Чем больше измерений в серии, тем ближе ее среднее к математическому ожиданию – идеалу, к которому можно стремиться, но который нельзя достичь! Обычно математическое ожидание обозначают буквойМ , результаты отдельных измеренийХ 1, Х 2, …,X n , а среднее серии, ко-

торое также называется выборочной оценкой среднего или просто оценкой – Х . Разброс экземпляров случайной величины (например, результатов повторных анали-

зов) характеризуется дисперсией – средним квадратом отклонения, которая обозначается σ2 . На практике в ряде случаев удобнее пользоваться средним квадратичным, которое равно квадратному корню из дисперсии и обозначается σ. Дисперсия это средний квадрат всех возможных экземпляров случайной величины – т.е. в нашем случае бесконечного числа повторных анализов, такая же абстракция, как и математическое ожидание. На практике оно тоже оценивается по среднему квадратичному отклонению выборки и обозначаетсяS . Таким образом, мы всегда имеем дело как с идеальными значениями параметров распределенияM и σ, так и с их, полученными в эксперименте, выборочными

оценками Х иS .

Вероятность – это абстрактное понятие, которое касается возможности появления какого-либо события (например, того, что ошибка больше некоторой величины), обычно она заранее неизвестна. Ее можно оценить только, когда накоплен определенный опыт и частота появления события известна. Это называется оценкой вероятности по частоте.

2.2. Оценка вероятности по частоте

Вероятность события недоступна непосредственному наблюдению, мы видим только его частоту. Например, если в крови пациента 25% всех лейкоцитов это лимфоциты, то вероятность P при подсчете лейкоцитарной формулы встретить лимфоцит составляет 0,25. Однако, при просмотре 100 клеток мы не обязательно встретим точноP*= 25 лимфоцитов, их может быть иP*= 24 иP*= 26 и дажеP*= 30, не зависимо от опыта или прилежания работника, а только от случая. Как же узнать, сколько их могло бы быть, если бы можно было просмотреть все клетки? Прямо на этот вопрос ответить нельзя, зная частоту можно только указать диапазон в котором с заданной вероятностью находится ответ.

Каждая клетка либо лимфоцит, либо не лимфоцит, подобно тому, как брошенная монета падает либо орлом, либо решеткой. Такое распределение называется биноминальным. Среднее квадратичное отклонение вычисляется по формуле:

P (1− P )

Здесь P – вероятность того, что в поле зрения именно клетка данного вида (т.е. истинная их доля), 1-P -вероятность что это другая клетка,n – число посчитанных клеток. Зная эти параметры, можно оценить каких результатов следует ожидать при подсчете формулы. На практике обычно приходится решать обратную задачу – при просмотре мазка получились такие-то результаты (известна частота события), что можно сказать о вероятности? Более подробные расчеты показывают, что если событий больше 10% и меньше 90%, границы доверительного интервала математического ожидания (т.е. истинного значения) достаточно точно можно найти по формулам:

P * − t P * (1− P *)

P * +t P * (1 − P * )

Здесь Р н иР в нижняя и верхняя границы доверительного интервала,Р * частота (найденная доля клеток) ,n общее число событий (число просмотренных клеток),t – коэффициент, который зависит от доверительной вероятности:

Так, если при подсчете лейкоцитарной формулы посчитано 100 клеточных элементов, и из них Р* оказались лимфоцитами, то с 95% вероятностью их истинная доля находится между:

P *− 1,96

P *(P *− 1)

и P *+ 1,96

P *(P *− 1)

То же самое относится и к любым другим событиям или явлениям, например результатам опытов или числу заболеваний данной болезнью – Р * наблюдаемая доля (частота),n общее число наблюдений или опытов.

2.3. Нормальное распределение и распределение хи-квадрат

Теория нормального распределения бала заложена еще Гауссом в 18 веке, затем развита и разработана Лапласом, однако условия его возникновения раскрыл только Ляпунов, который доказал центральную предельную теорему. Суть ее заключается в том, что если какая-то величина есть результат сложения многих независимых случайных величин, она распределена нормально, не зависимо от того, по какому закону распределены составляющие ее слагаемые. В качестве примера можно привести время ожидания поезда метро. Каждый пассажир приходит независимо от других и имеет равную вероятность прождать любой отрезок времени между поездами. Такое распределение называется равномерным. Легко убедиться на примерах, что среднее время ожидание двумя случайными пассажирами уже не распределено равномерно, а имеет пик в середине интервала. Если же наблюдать за 6 или 7 пассажирами, то распределение их среднего времени ожидания практически не отличается от нормального.

Аналогичная картина складывается и при выполнении лабораторных анализов – если грубые погрешности исключены, а результаты не совпадают в силу мелких случайных причин: легкой липемичности, хлопьев белка или инородных частиц, пузырьков воздуха, загрязнения реактивов, мерцаний источника света, контаминации предыдущей пробой и т.д. , распределение результатов повторных исследований одного и того же материала должно подчиняться нормальному закону. Если этого нет, вероятнее всего, имеется какаято доминирующая погрешность, которая может быть устранена.

Плотность нормального распределения задается функцией:

x − M2

f (x )=

Вероятность, что случайная величина больше X1 и меньше X2 равна соответствующему участку площади под кривой, т.е. интегралу. Он называется функцией Лапласа, обозначается греческой буквой Φ, не может быть выражен в элементарных функциях, но опубликован в специальных таблицах. Обычно, когда говорят о нормальном распределении, имеют в виду одномерное нормальное распределение, это значит, что речь идет об одной случайной величине. График плотности ее распределения можно нарисовать на плоскости. Если же случайных величин две, например, выполнено два анализа одного и того же контрольного материала, распределение результатов описывается двумерным нормальным распределением, вид которого представлен на рис. 2.

Это уже пространственная фигура, она показывает плотность вероятности всех возможных комбинаций обоих величин, в этом случае говорят об их совместном распределении.Аналогично, если случайных величин три речь идет о трехмерном нормальном распределении, в общем случае о многомерном распределении. Естественно встает вопрос как посчитать вероятности таких комплексных событий. Оказывается, что если все случайные величины распределены по нормальному закону с одинаковыми параметрами, т.е. являются разными экземплярами одной и той же нормально распределенной случайной величины, вероятность каждой их комбинации определяется суммой квадратов. Если известны среднее значение M и средняя квадратичная σ, которые должны получиться при анализе данного контрольного материала, то статистики говорят, что математическое ожидание генеральной совокупности всех правильно выполненных анализовM , а дисперсия σ2 . Допустим, выполнено три анализа, результаты которых X1 , X2 и X3 несколько отличаются от M. Чтобы определить, случайное это отличие или неслучайное, надо узнать совместную вероятность того, что X1 , X2 и X3 взяты именно из генеральной совокупности всех правильно выполненных анализов. Если она больше чем 0,05 (или при более строгом подходе больше чем 0,01), считается что различие случайно (не значимо), и результаты контроля хорошие. В противном случае считается, что полученные результаты не являются случайной выборкой из совокупности всех правильно выполненных анализов. О вероятности судят по сумме квадратов отклонений, которая по традиции обозначается греческой буквой хи во второй степени χ2 (читается хи-квадрат) и вычисляется по формуле:

χ 2=

(X1 − M) 2

(X2 − M) 2

(X3 − M) 2

σ 2

σ 2

σ 2

Вычислив χ2 по таблицам распределения хи-квадрат, находят искомую вероятность.

2.4. Погрешности

Никакое измерение не может быть абсолютно точным, всякое таит в себе возможность ошибки или погрешности, это одно и тоже. Аналитик всегда имеет определенное мнение о вероятности ошибки, даже если он его четко не формулирует – кто бы стал выполнять анализ, если бы считал, что результат может быть любым, ошибка не предсказуема!

Разрабатывая научные методы статистического контроля качества, надо четко формулировать законы распределения погрешностей измерения. Весь опыт работы аналити-

ческих лабораторий говорит о том, что чаще всего результаты повторный анализов распределены по нормальному закону, а также что существует два типа погрешностей – внутри серии (быстрые) и между сериями (медленные). Погрешность внутри серии при

каждом повторном измерении своя, она характеризуется дисперсией σ r 2 и средней 0, погрешность между сериями характеризуется дисперсиейσ d 2 средней 0, внутри каждой се-

рии она одинаковая. Реальная погрешность анализа есть сумма этих двух погрешностей. Иногда ошибки

делят на случайные и систематические, Систематические называют также сдвиг и биос, понимая под этим различие между средней многократно повторенного анализа и истинным значением. Такое разделение неоправданно, так как систематическая ошибка непостоянна: она может увеличиваться или уменьшаться в зависимости от обстоятельств, поэтому тоже является случайной величиной. Правильнее говорить не о систематической, а о межсерийной ошибке.

Конечно, никто не может утверждать, что погрешности медицинских лабораторных анализов всегда распределены по нормальному закону, тут возможны любые ситуации, поэтому контроль работы лаборатории должен начинаться с того, чтобы проверить, действительно ли результаты повторных анализов одного и того же материала распределены по нормальному закону. К сожалению, это сделать трудно – когда материала мало, заподозрить, что распределение ненормальное можно только, если оно явно асимметрично.

3. Контроль качества по данным анализов пациентов

Использование контрольных образцов для проверки качества работы всегда дорого – надо покупать сами образцы, требуются затраты на реактивы и работу, поэтому объем проверок неизбежно ограничен и возникает вопрос о статистической достоверности. Контроль по данным пациентов практически ничего не стоит – анализы ведь все равно выполняются, надо только иметь достаточно материала, компьютерную программу и умение. В большой лаборатории, которая ежедневно обслуживает сотню пациентов, контроль по их данным статистически очень достоверен, но не дает абсолютных величин и сопоставление результатов разных лабораторий (контингенты которых могут различаться) затруднено. Поэтому надо использовать оба варианта, разумно комбинируя их. Есть еще и промежуточный подход – так называемый метод «расщепленных» проб – когда несколько образцов проанализированного биологического материала, повторно исследуют на следующий день, это очень хороший способ оценить воспроизводимость результатов в разные дни.

Ниже описаны три способа использования данных пациентов для контроля качества.

3.1. Гистограммы

Просто и наглядно можно судить о качестве работы по данным пациентов строя гистограммы. В лаборатории, где ежемесячно выполняется несколько тысяч однотипных ис-

следований, и данные находятся в компьютере, это легко сделать. Чтобы построить гистограмму, все результаты разбивают на разряды, желательно одинаковой ширины, подсчитывают число случаев в каждом из них и рисуют столбики. Число случаев в каждом разряде это частота событий, руководствуясь описанными выше общими правилами по ней можно вычислить доверительный интервал вероятности и отложить его на графике. Это облегчает сравнение данных. Такая гистограмма приведена на рис.4.

Самое сложное это удачно выбрать ширину разряда – если она широка – теряется информативность, если узка – в каждом разряде мало случаев и различия могут быть случайными. Чтобы обойти эту трудность можно заменить гистограмму функцией распределения (рис. 5), когда на графике откладывается не доля анализов, которые попали в данный диапазон

значений, а доля результатов, которые меньше данной величины. В отличие от гистограммы, функция распределения практически непрерывна, она получается более плавной,

но различия не так бросаются в глаза.

Чтобы сделать гистограмму стандартной и «сглаженной» без потери информативности можно использовать следующий прием. Диапазоны разрядов выбираются так, чтобы в первые 15 разрядов попала половина результатов. Для этого находят такой результат анализа m , чтобыn 1 – число результатов меньшеm , было по возможности равноn 3 – числу результатов, которые большеm . Понятно, что точно они редко совпадают, так как каждый результат – это дискретное число, которое встречаются много раз. В том случае, когда результат анализаm встречаетсяn 2 раз, мы делимn 2 на две частиαn 2 и - (1α )n 2 , чтобытак выполнилось равенство:

n1 + αn2 =n3 + (1α–) n2

Изначально, будучи всего лишь собранием сведений и эмпирических наблюдений за игрой в кости, теория вероятности стала основательной наукой. Первыми, кто придал ей математический каркас, были Ферма и Паскаль.

От размышлений о вечном до теории вероятностей

Две личности, которым теория вероятностей обязана многими фундаментальными формулами, Блез Паскаль и Томас Байес, известны как глубоко верующие люди, последний был пресвитерианским священником. Видимо, стремление этих двух ученых доказать ошибочность мнения о некой Фортуне, дарующей удачу своим любимчикам, дало толчок к исследованиям в этой области. Ведь на самом деле любая азартная игра с ее выигрышами и проигрышами — это всего лишь симфония математических принципов.

Благодаря азарту кавалера де Мере, который в равной степени был игроком и человеком небезразличным к науке, Паскаль вынужден был найти способ расчета вероятности. Де Мере интересовал такой вопрос: "Сколько раз нужно выбрасывать попарно две кости, чтобы вероятность получить 12 очков превышала 50%?". Второй вопрос, крайне интересовавший кавалера: "Как разделить ставку между участниками незаконченной игры?" Разумеется, Паскаль успешно ответил на оба вопроса де Мере, который стал невольным зачинателем развития теории вероятностей. Интересно, что персона де Мере так и осталась известна в данной области, а не в литературе.

Ранее ни один математик еще не делал попыток вычислять вероятности событий, поскольку считалось, что это лишь гадательное решение. Блез Паскаль дал первое определение вероятности события и показал, что это конкретная цифра, которую можно обосновать математическим путем. Теория вероятностей стала основой для статистики и широко применяется в современной науке.

Что такое случайность

Если рассматривать испытание, которое можно повторить бесконечное число раз, тогда можно дать определение случайному событию. Это один из вероятных исходов опыта.

Опытом является осуществление конкретных действий в неизменных условиях.

Чтобы можно было работать с результатами опыта, события обычно обозначают буквами А, B, C, D, Е…

Вероятность случайного события

Чтобы можно было приступить к математической части вероятности, нужно дать определения всем ее составляющим.

Вероятность события - это выраженная в числовой форме мера возможности появления некоторого события (А или B) в результате опыта. Обозначается вероятность как P(A) или P(B).

В теории вероятностей отличают:

  • достоверное событие гарантированно происходит в результате опыта Р(Ω) = 1;
  • невозможное событие никогда не может произойти Р(Ø) = 0;
  • случайное событие лежит между достоверным и невозможным, то есть вероятность его появления возможна, но не гарантирована (вероятность случайного события всегда в пределах 0≤Р(А)≤ 1).

Отношения между событиями

Рассматривают как одно, так и сумму событий А+В, когда событие засчитывается при осуществлении хотя бы одного из составляющих, А или В, или обоих - А и В.

По отношению друг к другу события могут быть:

  • Равновозможными.
  • Совместимыми.
  • Несовместимыми.
  • Противоположными (взаимоисключающими).
  • Зависимыми.

Если два события могут произойти с равной вероятностью, то они равновозможные .

Если появление события А не сводит к нулю вероятность появление события B, то они совместимые.

Если события А и В никогда не происходят одновременно в одном и том же опыте, то их называют несовместимыми . Бросание монеты - хороший пример: появление решки - это автоматически непоявление орла.

Вероятность для суммы таких несовместимых событий состоит из суммы вероятностей каждого из событий:

Р(А+В)=Р(А)+Р(В)

Если наступление одного события делает невозможным наступление другого, то их называют противоположными. Тогда одно из них обозначают как А, а другое - Ā (читается как «не А»). Появление события А означает, что Ā не произошло. Эти два события формируют полную группу с суммой вероятностей, равной 1.

Зависящие события имеют взаимное влияние, уменьшая или увеличивая вероятность друг друга.

Отношения между событиями. Примеры

На примерах гораздо проще понять принципы теории вероятностей и комбинации событий.

Опыт, который будет проводиться, заключается в вытаскивании шариков из ящика, а результата каждого опыта - элементарный исход.

Событие - это один из возможных исходов опыта - красный шар, синий шар, шар с номером шесть и т. д.

Испытание №1. Участвуют 6 шаров, три из которых окрашены в синий цвет, на них нанесены нечетные цифры, а три других - красные с четными цифрами.

Испытание №2. Участвуют 6 шаров синего цвета с цифрами от одного до шести.

Исходя из этого примера, можно назвать комбинации:

  • Достоверное событие. В исп. №2 событие «достать синий шар» достоверное, поскольку вероятность его появления равна 1, так как все шары синие и промаха быть не может. Тогда как событие «достать шар с цифрой 1» - случайное.
  • Невозможное событие. В исп. №1 с синими и красными шарами событие «достать фиолетовый шар» невозможное, поскольку вероятность его появления равна 0.
  • Равновозможные события. В исп. №1 события «достать шар с цифрой 2» и «достать шар с цифрой 3» равновозможные, а события «достать шар с четным числом» и «достать шар с цифрой 2» имеют разную вероятность.
  • Совместимые события. Два раза подряд получить шестерку в процессе бросания игральной кости - это совместимые события.
  • Несовместимые события. В том же исп. №1 события «достать красный шар» и «достать шар с нечетным числом» не могут быть совмещены в одном и том же опыте.
  • Противоположные события. Наиболее яркий пример этого - подбрасывание монет, когда вытягивание орла равносильно невытягиванию решки, а сумма их вероятностей - это всегда 1 (полная группа).
  • Зависимые события . Так, в исп. №1 можно задаться целью извлечь два раза подряд красный шар. Его извлечение или неизвлечение в первый раз влияет на вероятность извлечения во второй раз.

Видно, что первое событие существенно влияет на вероятность второго (40% и 60%).

Формула вероятности события

Переход от гадательных размышлений к точным данным происходит посредством перевода темы в математическую плоскость. То есть суждения о случайном событии вроде "большая вероятность" или "минимальная вероятность" можно перевести к конкретным числовым данным. Такой материал уже допустимо оценивать, сравнивать и вводить в более сложные расчеты.

С точки зрения расчета, определение вероятности события - это отношение количества элементарных положительных исходов к количеству всех возможных исходов опыта относительно определенного события. Обозначается вероятность через Р(А), где Р означает слово «probabilite», что с французского переводится как «вероятность».

Итак, формула вероятности события:

Где m - количество благоприятных исходов для события А, n - сумма всех исходов, возможных для этого опыта. При этом вероятность события всегда лежит между 0 и 1:

0 ≤ Р(А)≤ 1.

Расчет вероятности события. Пример

Возьмем исп. №1 с шарами, которое описано ранее: 3 синих шара с цифрами 1/3/5 и 3 красных с цифрами 2/4/6.

На основании этого испытания можно рассматривать несколько разных задач:

  • A - выпадение красного шара. Красных шаров 3, а всего вариантов 6. Это простейший пример, в котором вероятность события равна Р(А)=3/6=0,5.
  • B - выпадение четного числа. Всего четных чисел 3 (2,4,6), а общее количество возможных числовых вариантов - 6. Вероятность этого события равна Р(B)=3/6=0,5.
  • C - выпадение числа, большего, чем 2. Всего таких вариантов 4 (3,4,5,6) из общего количества возможных исходов 6. Вероятность события С равна Р(С)=4/6=0,67.

Как видно из расчетов, событие С имеет большую вероятность, поскольку количество вероятных положительных исходов выше, чем в А и В.

Несовместные события

Такие события не могут одновременно появиться в одном и том же опыте. Как в исп. №1 невозможно одновременно достать синий и красный шар. То есть можно достать либо синий, либо красный шар. Точно так же в игральной кости не могут одновременно появиться четное и нечетное число.

Вероятность двух событий рассматривается как вероятность их суммы или произведения. Суммой таких событий А+В считается такое событие, которое состоит в появлении события А или В, а произведение их АВ - в появлении обоих. Например, появление двух шестерок сразу на гранях двух кубиков в одном броске.

Сумма нескольких событий являет собой событие, предполагающее появление, по крайней мере, одного из них. Произведение нескольких событий - это совместное появление их всех.

В теории вероятности, как правило, употребление союза "и" обозначает сумму, союза "или" - умножение. Формулы с примерами помогут понять логику сложения и умножения в теории вероятностей.

Вероятность суммы несовместных событий

Если рассматривается вероятность несовместных событий, то вероятность суммы событий равна сложению их вероятностей:

Р(А+В)=Р(А)+Р(В)

Например: вычислим вероятность того, что в исп. №1 с синими и красными шарами выпадет число между 1 и 4. Рассчитаем не в одно действие, а суммой вероятностей элементарных составляющих. Итак, в таком опыте всего 6 шаров или 6 всех возможных исходов. Цифры, которые удовлетворяют условие, - 2 и 3. Вероятность выпадения цифры 2 составляет 1/6, вероятность цифра 3 также 1/6. Вероятность того, что выпадет цифра между 1 и 4 равна:

Вероятность суммы несовместимых событий полной группы равна 1.

Так, если в опыте с кубиком сложить вероятности выпадения всех цифр, то в результате получим единицу.

Также это справедливо для противоположных событий, например в опыте с монетой, где одна ее сторона - это событие А, а другая - противоположное событие Ā, как известно,

Р(А) + Р(Ā) = 1

Вероятность произведения несовместных событий

Умножение вероятностей применяют, когда рассматривают появление двух и более несовместных событий в одном наблюдении. Вероятность того, что в нем появятся события A и B одновременно, равна произведению их вероятностей, или:

Р(А*В)=Р(А)*Р(В)

Например, вероятность того, что в исп. №1 в результате двух попыток два раза появится синий шар, равна

То есть вероятность наступления события, когда в результате двух попыток с извлечением шаров будет извлечены только синие шары, равна 25%. Очень легко проделать практические эксперименты этой задачи и увидеть, так ли это на самом деле.

Совместные события

События считаются совместными, когда появление одного из них может совпасть с появлением другого. Несмотря на то что они совместные, рассматривается вероятность независимых событий. К примеру, бросание двух игральных костей может дать результат, когда на обеих из них выпадает цифра 6. Хотя события совпали и появились одновременно, они независимы друг от друга - могла выпасть всего одна шестерка, вторая кость на нее влияния не имеет.

Вероятность совместных событий рассматривают как вероятность их суммы.

Вероятность суммы совместных событий. Пример

Вероятность суммы событий А и В, которые по отношению к друг другу совместные, равняется сумме вероятностей события за вычетом вероятности их произведения (то есть их совместного осуществления):

Р совместн. (А+В)=Р(А)+Р(В)- Р(АВ)

Допустим, что вероятность попадания в мишень одним выстрелом равна 0,4. Тогда событие А - попадание в мишень в первой попытке, В - во второй. Эти события совместные, поскольку не исключено, что можно поразить мишень и с первого, и со второго выстрела. Но события не являются зависимыми. Какова вероятность наступления события поражения мишени с двух выстрелов (хотя бы с одного)? Согласно формуле:

0,4+0,4-0,4*0,4=0,64

Ответ на вопрос следующий: "Вероятность попасть в цель с двух выстрелов равна 64%".

Эта формула вероятности события может быть применима и к несовместным событиям, где вероятность совместно появления события Р(АВ) = 0. Это значит, что вероятность суммы несовместных событий можно считать частным случаем предложенной формулы.

Геометрия вероятности для наглядности

Интересно, что вероятность суммы совместных событий может быть представлена в виде двух областей А и В, которые пересекаются между собой. Как видно из картинки, площадь их объединения равна общей площади за минусом области их пересечения. Это геометрическое пояснения делают более понятной нелогичную на первый взгляд формулу. Отметим, что геометрические решения - не редкость в теории вероятностей.

Определение вероятности суммы множества (больше двух) совместных событий довольно громоздкое. Чтобы вычислить ее, нужно воспользоваться формулами, которые предусмотрены для этих случаев.

Зависимые события

Зависимыми события называются в случае, если наступление одного (А) из них влияет на вероятность наступления другого (В). Причем учитывается влияние как появления события А, так и его непоявление. Хотя события и называются зависимыми по определению, но зависимо лишь одно из них (В). Обычная вероятность обозначалась как Р(В) или вероятность независимых событий. В случае с зависимыми вводится новое понятие - условная вероятность Р A (В) , которая является вероятностью зависимого события В при условии произошедшего события А (гипотезы), от которого оно зависит.

Но ведь событие А тоже случайно, поэтому у него также есть вероятность, которую нужно и можно учитывать в осуществляемых расчетах. Далее на примере будет показано, как работать с зависимыми событиями и гипотезой.

Пример расчета вероятности зависимых событий

Хорошим примером для расчета зависимых событий может стать стандартная колода карт.

На примере колоды в 36 карт рассмотрим зависимые события. Нужно определить вероятность того, что вторая карта, извлеченная из колоды, будет бубновой масти, если первая извлеченная:

  1. Бубновая.
  2. Другой масти.

Очевидно, что вероятность второго события В зависит от первого А. Так, если справедлив первый вариант, что в колоде стало на 1 карту (35) и на 1 бубну (8) меньше, вероятность события В:

Р A (В) =8/35=0,23

Если же справедлив второй вариант, то в колоде стало 35 карт, и по-прежнему сохранилось полное число бубен (9), тогда вероятность следующего события В:

Р A (В) =9/35=0,26.

Видно, что если событие А условлено в том, что первая карта - бубна, то вероятность события В уменьшается, и наоборот.

Умножение зависимых событий

Руководствуясь предыдущей главой, мы принимаем первое событие (А) как факт, но если говорить по сути, оно имеет случайный характер. Вероятность этого события, а именно извлечение бубны из колоды карт, равна:

Р(А) = 9/36=1/4

Поскольку теория не существует сама по себе, а призвана служить в практических целях, то справедливо отметить, что чаще всего нужна вероятность произведения зависимых событий.

Согласно теореме о произведении вероятностей зависимых событий, вероятность появления совместно зависимых событий А и В равна вероятности одного события А, умноженная на условную вероятность события В (зависимого от А):

Р(АВ) = Р (А) *Р A (В)

Тогда в примере с колодой вероятность извлечения двух карт с мастью бубны равна:

9/36*8/35=0,0571, или 5,7%

И вероятность извлечения вначале не бубны, а потом бубны, равна:

27/36*9/35=0,19, или 19%

Видно, что вероятность появления события В больше при условии, что первой извлекается карта масти, отличной от бубны. Такой результат вполне логичный и понятный.

Полная вероятность события

Когда задача с условными вероятностями становится многогранной, то обычными методами ее вычислить нельзя. Когда гипотез больше двух, а именно А1,А2,…,А n , ..образует полную группу событий при условии:

  • P(A i)>0, i=1,2,…
  • A i ∩ A j =Ø,i≠j.
  • Σ k A k =Ω.

Итак, формула полной вероятности для события В при полной группе случайных событий А1,А2,…,А n равна:

Взгляд в будущее

Вероятность случайного события крайне необходима во многих сферах науки: эконометрике, статистике, в физике и т. д. Поскольку некоторые процессы невозможно описать детерминировано, так как они сами имеют вероятностный характер, необходимы особые методы работы. Теория вероятности события может быть использована в любой технологичной сфере как способ определить возможность ошибки или неисправности.

Можно сказать, что, узнавая вероятность, мы некоторым образом делаем теоретический шаг в будущее, разглядывая его через призму формул.


Введение

Оценка риска - это этап анализа риска, имеющий целью оп­ределить его количественные характеристики: вероятность насту­пления неблагоприятных событий и возможный размер ущерба (рис.1). Можно выделить три основных метода оценки риска для конкретных процессов:

Анализ статистических данных по неблагоприятным событиям, имевшим место в прошлом;

Теоретический анализ структуры причинно-следственных свя­зей процессов;

Экспертный подход.


Рис.1. Общая схема процесса количественной оценки риска


Используя имеющиеся статистические данные, можно оценить и вероятность возникновения неблагоприятных событий, и размеры ущерба. Этот метод подходит для частых и однородных событий.

Для редких и уникальных событий, например крупных аварий, не имеющих репрезентативной статистики, используется теоретиче­ский анализ системы, имеющий целью выявить возможный ход раз­вития событий и определить их последствия. Условно такой метод можно назвать сценарным подходом, поскольку итогом рассмотре­ния процесса в этом случае является построение цепочек событий, связанных причинно-следственными связями, для каждой из кото­рых определена соответствующая вероятность. В начале цепочки стоит группа исходных событий, называемых принтами, в конце - группа событий, называемых последствиями.

Существует ряд принципиальных сложностей, связанных с оценкой риска при помощи сценарного подхода. Используемые математические модели и методы для расчета последствий аварий и отказов оборудования содержат внутри себя значительную неоп­ределенность, связанную с большой сложностью моделируемых объектов и недостаточным знанием путей развития неблагоприят­ных процессов. Поэтому большое значение для разработки страте­гии управления рисками крупных производственных предприятий и повышения точности расчетов имеет создание баз данных по от­казам элементов оборудования, проработка различных вариантов и создание базы данных по сценариям развития аварий, а также по­вышение качества сбора первичной статистической информации.

Среди методов оценки вероятности наступления небла­гоприятных событий наиболее известными являются следующие:

Метод построения деревьев событий;

Метод «События - последствия»;

Метод деревьев отказов;

Метод индексов опасности.

Метод построения деревьев событий - это графический способ прослеживания последовательности отдельных возможных инцидентов, например отказов или неисправностей каких-либо элементов технологического процесса или системы, с оценкой ве­роятности каждого из промежуточных событий и вычисления суммарной вероятности конечного события, приводящего к убыт­кам.

Дерево событий строится, начиная с заданных исходных собы­тий, называемых инцидентами. Затем прослеживаются возможные пути развития последствий этих событий по цепочке причинно- следственных связей в зависимости от отказа или срабатывания промежуточных звеньев системы.

В качестве примера такого анализа рассмотрим построение дерева событий для случая развития аварии в виде пожара или взрыва на компрессорной станции (КС) магистрального газопро­вода. Исходным событием при этом является утечка газа вслед­ствие нарушения уплотнений аппаратуры или разрыва трубо­провода.

Предположим, что в данном случае функционирует простей­шая схема предупреждения пожара, состоящая из четырех после­довательных звеньев - систем: контроля утечки газа; авто­матического прекращения подачи газа в поврежденный участок трубопровода"; аварийной вентиляции; взрыво- и пожарозащиты (рис.2).

Все элементы схемы развития аварии обозначены в верхней части рисунка в соответствующей последовательности. На каж­дом шаге развития событий рассматриваются две возможности: срабатывание системы (верхняя ветвь дерева) или отказ (нижняя ветвь). Предполагается, что каждое последующее звено срабаты­вает только при условии срабатывания предыдущего. Около каж­дой ветви указывается вероятность отказа (Р), либо вероятность срабатывания (1-Р). Для независимых событий вероятность реа­лизации данной цепочки определяется произведением вероятно­стей каждого из событий цепочки. Полная вероятность событий указывается в правой части диаграммы. Поскольку вероятности отказов, как правило, очень малы, а вероятность срабатывания есть 1-Р, то для всех верхних ветвей в данном примере вероят­ность считается приблизительно равной 1.

Построение дерева событий позволяет последовательно про­следить за последствиями каждого возможного исходного события и вычислить максимальную вероятность главного (конечного) со­бытия от каждого из таких инцидентов. Основное при этом - не пропустить какой-либо из возможных инцидентов и учесть все промежуточные звенья системы.

Срабатывание

Срабатывание 1-P f Срабатывание 1- P d 1-P c Начальное Срабатывание событие 1-P b P f Р a Pf Отказ Р a P d Р a P d Отказ P c Р a P c Отказ

Рис.2. Общая схема развития аварии и построение соответствующего ей дерева событий

Конечно, такой анализ может дать достоверный результат ве­роятности главного события только в том случае, если достоверно известны вероятности исходных и промежуточных событий. Но это и непременное условие любого вероятностного метода.

Анализ риска может происходить и в обратную сторону - от известного последствия к возможным причинам. В этом случае мы получим одно главное событие у основания дерева и множество возможных причин (инцидентов) в его кроне. Такой метод называ­ется деревом отказов и фактически представляет собой инверсию рассмотренного здесь дерева событий. Оба метода являются вза­имно дополняющими друг друга.

Метод «События - последствия» (СП-метод; в англоязыч­ной литературе имеет название HAZOR - Hazard and Operability Research) - это тот же метод деревьев событий, но только без ис­пользования графического изображения цепочек событий и оценки вероятности каждого события. По существу, это критический ана­лиз работоспособности предприятия с точки зрения возможных неисправностей или выхода из строя оборудования, который на этапе проектирования широко используется в промышленности. Основная идея - расчленение сложных производственных систем на отдельные более простые и легче анализируемые части. Каждая такая часть подвергается тщательному анализу с целью выявить и идентифицировать все опасности и риски.

В рамках рассматриваемого метода процесс идентификации риска разделяется на четыре последовательных этапа, на каждом из которых следует ответить на свой ключевой вопрос:

1- й этап - каково назначение исследуемой части установки или процесса?

2- й этап - в чем состоят возможные отклонения от нормаль­ного режима работы?

3- й этап - в чем причины отклонений?

4- й этап - каковы последствия отклонений?

Сначала следует выделить одну из частей установки или про­цесса и определить ее назначение. Очевидно, что это ключевой момент, поскольку, если назначение установлено неточно, то и от­клонения параметров от нормального режима работы нельзя уста­новить точно. Исследование выполняется последовательно для каждой части установки. В целях обеспечения достоверности и полноты анализа необходимо, чтобы такая работа выполнялась группой специалистов-практиков, а не одним человеком.

После того как определены назначение и условия нормально­го функционирования всех частей установки или процесса, необ­ходимо перечислить возможные отклонения параметров от нормальных проектных значений. Перечень отклонений - это и есть, по существу, основное ядро исследований. Чтобы структу­рировать перечень отклонений, используются специальные клю­чевые слова.