Зависимые и независимые случайные события.

Условные законы распределения. Регрессия.

Определение. Условным законом распределения одной из одномерных составляющих двумерной случайной величины (X, Y) называется ее закон распределения, вычисленный при условии, что другая составляющая приняла определенное значение (или попала в какой-то интервал). В предыдущей лекции было рассмотрено нахождение условных распределений для дискретных случайных величин. Там же приведены формулы условных вероятностей:

В случае непрерывных случайных величин необходимо определить плотности вероятности условных распределений j у (х) и j Х (y). С этой целью в приведенных формулах заменим вероятности событий их «элементами вероятности»,!

после сокращения на dx и dy получим:

т.е. условная плотность вероятности одной из одномерных составляющих двумерной случайной величины равна отношению ее совместной плотности к плотности вероятности другой составляющей. Эти соотношения записанные в виде

называются теоремой (правилом) умножения плотностей распределений.

Условные плотности j у (х) и j Х (y). обладают всеми свойствами «безусловной» плотности.

При изучении двумерных случайных величин рассматриваются числовые характеристики одномерных составляющих X и Y - математические ожидания и дисперсии. Для непрерывной случайной величины (X, Y) они определяются по формулам:

Наряду с ними рассматриваются также числовые характеристики условных распределений: условные математические ожидания M х (Y) и М у (Х) и условные дисперсии D х (Y) и D Y (X). Эти характеристики находятся по обычным формулам математически ожидания и дисперсии, в которых вместо вероятностей событий или плотностей вероятности используются условные вероятности или условные плотности вероятности.

Условное математическое ожидание случайной величины Y при X = х, т.е. M x (Y), есть функция от х, называемая функцией регрессии или просто регрессией Y по Х. Аналогично М Y (Х) называется функцией регрессии или просто регрессией X по Y. Графики этих функций называются соответственно линиями регрессии (или кривыми регрессии) Y по X или X по У.

Зависимые и независимые случайные величины.

Определение. Случайные величины X и Y называются независимыми, если их совместная функция распределения F(x,y) представляется в виде произведения функций распределений F 1 (x) и F 2 (y) этих случайных величин, т.е.

В противном случае, случайные величины Х и Y называются зависимыми.

Дифференцируя дважды равенство по аргументам х и у, получим

т.е. для независимых непрерывных случайных величин X и Y их совместная плотность j(х,у) равна произведению плотностей вероятности j 1 (х) и j 2 (у) этих случайных величин.

До сих пор мы сталкивались с понятием функциональной зависимости между переменными X и Y, когда каждому значению х одной переменной соответствовало строго определенное значение у другой. Например, зависимость между двумя случайными величинами - числом вышедших из строя единиц оборудования за определенный период времени и их стоимостью - функциональная.

В общем случае, сталкиваются с зависимостью другого типа, менее жесткой, чем функциональная.

Определение. Зависимость между двумя случайными величинами называется вероятностной (стохастической или статистической), если каждому значению одной из них соответствует определенное (условное) распределение другой.

В случае вероятностной (стохастической) зависимости нельзя, зная значение одной из них, точно определить значение другой, а можно указать лишь распределение другой величины. Например, зависимости между числом отказов оборудования и затрат на его профилактический ремонт, весом и ростом человека, затратами времени школьника на просмотр телевизионных передач и чтение книг и т.п. являются вероятностными (стохастическими).

На рис. 5.10 приведены примеры зависимых и независимых случайных величин X и Y.

откуда заключаем, что m1 , m2 - математические ожидания компонент X, Y двумерной нормальной случайной величины (X, Y), σ1 , σ2 - средние квадратические отклонения их компонент.

Графиком двумерной нормальной плотности в пространстве является холмообразная поверхность, располагающаяся над всей плоскостью xOy, асимптотически приближающаяся к ней при удалении на бесконечность, симметричная относительно вертикальной оси, проходящей через центр (m1 , m2 ), и с вершиной в этой точке. Любое сечение поверхностиграфика нормальной плотности плоскостью, перпендикулярной xOy, является кривой Гаусса.

6.5 Зависимость и независимость двух случайных величин

Определение. Случайные величины X, Y называютсянезависимыми , если независимыми являются события X < x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Теорема. Общее необходимое и достаточное условие независимости двух случайных величин:

FXY (x, y) = FX (x) · FY (y)

для любых вещественных x и y.

Это условие есть иначе записанное необходимое и достаточное условие независимости двух событий: P (AB) = P (A)P (B) для случая событий A = (X < x), B = (Y < y).

Теорема. Необходимое и достаточное условие независимости двух непрерывных случайных величин:

fXY (x, y) = fX (x) · fY (y), x, y.

Теорема. Необходимое и достаточное условие независимости двух дискретных случайных величин:

p ik= p i · p k

для любых i = 1, 2, . . . , m; k = 1, 2, . . . , n.

Замечание. Равенство нулю коэффициента корреляции ρ является необходимым и достаточным условием независимости компонент X, Y двумерной нормальной случайной величины (X, Y).

6.6 Условные законы распределения. Числовые характеристики двумерной случайной величины. Связь между случайными величинами

6.6.1 Условные законы распределения

Определение. Условным законом распределения одной из одномерных составляющих двумерной случайной величины (X, Y) называется ее закон распределения, вычисленный при условии, что другая составляющая приняла определенное значение (или попала в какой-то интервал).

В случае дискретных случайных величин формулы для нахождения условных вероятностей имеют вид:

pj (xi ) =

P [(X = xi )(Y = yj )]

Pi (yj ) =

P [(X = xi )(Y = yj )]

P (Y = yj )

P (X = xi )

В случае непрерывных случайных величин эти формулы примут вид

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fY (y)

fX (x)

т.е. условная плотность вероятности одной из одномерных составляющих двумерной случайной величины равна отношению ее совместной плотности к плотности вероятности ее другой составляющей.

Данные соотношения, записанные в виде

fXY (x, y) = fX (x)fX (y) = fX (y)fY (x),

называются теоремой (правило) умножения плотностей распределений.

Используя формулы для получения одномерных составляющих непрерывной случайной величины запишем формулы для условных составляющих:

fY (x) =

fXY (x, y)

FX (y) =

fXY (x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Числовые характеристики

Рассмотрим случайную величину ϕ(X, Y), являющуюся функцией компонент X, Y двумерной случайной величины (X, Y). Справедливы общие формулы:

для дискретного случая.

Здесь fXY (x, y) - плотность вероятности случайной величины (X, Y), а pik = P (X = xi , Y = yk ) (i = 1, . . . , m; k = 1, . . . , n) - закон распределения дискретной двумерной случайной вели-

С помощью этих формул можно записать формулы для математического ожидания и дисперсии одномерных компонент дискретной случайной величины.

Формулы для нахождения математического ожидания имеют вид:

M(X) = Z Z

xfXY (x, y)dxdy;

M(Y) = yfXY (x, y)dxdy

для непрерывных случайных величин;

M(X) = xi pik ;

M(Y) = yk pik

для дискретного случая.

Формулы для вычисления дисперсии одномерных компонент двумерной случайной величины имеют вид:

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

для дискретного случая.

6.6.3 Корреляционные момент и коэффициент корреляции

Выше были сформулированы функциональные характеристики зависимости двух случайных величин. Рассмотрим теперь числовые характеристики связи между случайными величинами.

Определение. Корреляционным моментом K XY , иначе - ковариацией, двух случайных величин X, Y называется математическое ожидание произведения отклонений этих случайных величин от их математических ожиданий:

KXY = M[(X − mX )(Y − mY )].

Очевидно, что KXY = KY X .

Формулы для вычисления KXY имеют вид:

KXY =Z Z

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Корреляционный момент и коэффициент корреляции - это числовые характеристики двумерной случайной величины, причем ρXY - безразмерная характеристика. Из их свойств следует, что они характеризуют связь между случайными величинами.

Свойства корреляционного момента и коэффициента корреляции. Свойство 1.

KXY = M − mX mY .

Эту формулу удобно применять для вычисления ковариации.

Свойство 2.

−1 ≤ ρ ≤ 1.

Это свойство означает, что коэффициент корреляции - нормированная характеристика. Свойство 3. Для независимых случайных величин X, Y их корреляционный момент,

а следовательно, и коэффициент корреляции, равны нулю.

Замечание. Обратное предложение в общем случае неверно, т.е. существуют независимые случайные величины (X, Y), для которых KXY = 0.

Определение. Две случайные величины X, Y называютсянекоррелированными , если их корреляционный момент равен нулю. Если KXY 6= 0, то говорят, что X, Y коррелируют между собой.

Замечание. Если KXY 6= 0, то случайные величины X, Y зависимы.

Свойство 4. Для случайных величин X, Y = aX + b, связанных линейной зависимостью, коэффициент корреляции равен 1, если a > 0, и −1, если a < 0.

Свойство 5. Если |ρXY | = 1, то случайные величины X, Y связаны линейной зависимостью с вероятностью единица.

Замечание. Величина M = α 1,1 называется вторым смешанным начальным моментомдвумерной случайной величины (X, Y), а ее корреляционный момент K XY -

вторым смешанным центральным моментом.

Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина. Понятие зависимости случайных величин является очень важным в теории вероятностей. Условные распределения независимых случайных величин равны их безусловным распределениям. Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.

Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.

Корреляционным моментом mxy случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин.

Практически используются формулы:

Для дискретных случайных величин:

Для непрерывных случайных величин:

Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.

Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.

Для того, чтобы устранить этот недостаток применятся другая характеристика - коэффициент корреляции.

Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.

Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.

Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю.

Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости.

Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными.

Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин.

Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации. Коэффициент ковариации определяется формулой:

Пример. Задана плотность распределения системы случайных величин Х и Y.

Выяснить являются ли независимыми случайные величины Х и Y.

Для решения этой задачи преобразуем плотность распределения:

Таким образом, плотность распределения удалось представить в виде произведения двух функций, одна из которых зависит только от х, а другая - только от у. Т.е. случайные величины Х и Y независимы. Разумеется, они также будут и некоррелированы.

Две случайные величины $X$ и $Y$ называются независимыми, если закон распределения одной случайной величины не изменяется от того, какие возможные значения приняла другая случайная величина. То есть, для любых $x$ и $y$ события $X=x$ и $Y=y$ являются независимыми. Поскольку события $X=x$ и $Y=y$ независимые, то по теореме произведения вероятностей независимых событий $P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.

Пример 1 . Пусть случайная величина $X$ выражает денежный выигрыш по билетам одной лотереи «Русское лото», а случайная величина $Y$ выражает денежный выигрыш по билетам другой лотереи «Золотой ключ». Очевидно, что случайные величины $X,\ Y$ будут независимыми, так как выигрыш по билетам одной лотереи не зависит от закона распределения выигрышей по билетам другой лотереи. В том случае, когда случайные величины $X,\ Y$ выражали бы выигрыш по одной и той же лотереи, то, очевидно, данные случайные величины были бы зависимыми.

Пример 2 . Двое рабочих трудятся в разных цехах и изготавливают различные изделия, несвязанные между собой технологиями изготовления и используемым сырьем. Закон распределения числа бракованных изделий, изготовленных первым рабочим за смену, имеет следующий вид:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ x & 0 & 1 \\
\hline
Вероятность & 0,8 & 0,2 \\
\hline
\end{array}$

Число бракованных изделий, изготовленных вторым рабочим за смену, подчиняется следующими закону распределения.

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ y & 0 & 1 \\
\hline
Вероятность & 0,7 & 0,3 \\
\hline
\end{array}$

Найдем закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену.

Пусть случайная величина $X$ - число бракованных изделий, изготовленных первым рабочим за смену, а $Y$ - число бракованных изделий, изготовленных вторым рабочим за смену. По условию, случайные величины $X,\ Y$ независимы.

Число бракованных изделий, изготовленных двумя рабочими за смену, есть случайная величина $X+Y$. Ее возможные значения равны $0,\ 1$ и $2$. Найдем вероятности, с которыми случайная величина $X+Y$ принимает свои значения.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right)=0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ или\ X=1,\ Y=0\right)=P\left(X=0\right)P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8\cdot 0,3+0,2\cdot 0,7=0,38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right)=0,2\cdot 0,3=0,06.$

Тогда закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену:

$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий & 0 & 1 & 2 \\
\hline
Вероятность & 0,56 & 0,38 & 0,06 \\
\hline
\end{array}$

В предыдущем примере мы выполняли операцию над случайными величинами $X,\ Y$, а именно находили их сумму $X+Y$. Дадим теперь более строгое определение операций (сложение, разность, умножение) над случайными величинами и приведем примеры решений.

Определение 1 . Произведением $kX$ случайной величины $X$ на постоянную величину $k$ называется случайная величина, которая принимает значения $kx_i$ с теми же вероятностями $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Определение 2 . Суммой (разностью или произведением) случайных величин $X$ и $Y$ называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$ ($x_i-y_i$ или $x_i\cdot y_i$), где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$:

$$p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Пример 3 . Независимые случайные величины $X,\ Y$ заданы своими законами распределения вероятностей.

$\begin{array}{|c|c|}
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Составим закон распределения случайной величины $Z=2X+Y$. Суммой случайных величин $X$ и $Y$, то есть $X+Y$, называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$, где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$: $p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right]$. Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.

Итак, имеет законы распределения случайных величины $2X$ и $Y$ соответственно.

$\begin{array}{|c|c|}
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$

$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$

Для удобства нахождения всех значений суммы $Z=2X+Y$ и их вероятностей составим вспомогательную таблицу, в каждой клетке которой поместим в левом углу значения суммы $Z=2X+Y$, а в правом углу - вероятности этих значений, полученные в результате перемножения вероятностей соответствующих значений случайных величин $2X$ и $Y$.

В результате получим распределение $Z=2X+Y$:

$\begin{array}{|c|c|}
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end{array}$

Понятия зависимости и независимости случайных событий. Условная вероятность. Формулы сложения и умножения вероятностей для зависимых и независимых случайных событий. Формула полной вероятности и формула Байеса.

Теоремы сложения вероятностей

Найдем вероятность суммы событий A и B (в предположении их совместности либо несовместности).

Теорема 2.1. Вероятность суммы конечного числа несовместных событий равна сумме их вероятностей:

P\{A+B+\ldots+N\}=P\{A\}+P\{B\}+\ldots+P\{N\}.

Пример 1. Вероятность того, что в магазине будет продана пара мужской обуви 44-го размера, равна 0,12; 45-го - 0,04; 46-го и большего - 0,01. Найти вероятность того, что будет продана пара мужской обуви не меньше 44-го размера.

Решение. Искомое событие D произойдет, если будет продана пара обуви 44-го размера (событие A ) или 45-го (событие B ), или не меньше 46-го (событие C ), т. е. событие D есть сумма событий A,B,C . События A , B и C несовместны. Поэтому согласно теореме о сумме вероятностей получаем

P\{D\}=P\{A+B+C\}=P\{A\}+P\{B\}+P\{C\}=0,\!12+0,\!04+0,\!01 =0,\!17.

Пример 2. При условиях примера 1 найти вероятность того, что очередной будет продана пара обуви меньше 44-го размера.

Решение. События "очередной будет продана пара обуви меньше 44-го размера" и "будет продана пара обуви размера не меньше 44-го" противоположные. Поэтому по формуле (1.2) вероятность наступления искомого события

P\{\overline{D}\}=1-P\{D\}=1-0,\!17=0,\!83.

поскольку P\{D\}=0,\!17 , как это было найдено в примере 1.

Теорема 2.1 сложения вероятностей справедлива только для несовместных событий. Использование ее для нахождения вероятности совместных событий может привести к неправильным, а иногда и абсурдным выводам, что наглядно видно на следующем примере. Пусть выполнение заказа в срок фирмой "Electra Ltd" оценивается вероятностью 0,7. Какова вероятность того, что из трех заказов фирма выполнит в срок хотя бы какой-нибудь один? События, состоящие в том, что фирма выполнит в срок первый, второй, третий заказы обозначим соответственно A,B,C . Если для отыскания искомой вероятности применить теорему 2.1 сложения вероятностей, то получим P\{A+B+C\}=0,\!7+0,\!7+0,\!7=2,\!1 . Вероятность события оказалась больше единицы, что невозможно. Это объясняется тем, что события A,B,C являются совместными. Действительно, выполнение в срок первого заказа не исключает выполнения в срок двух других.

Сформулируем теорему сложения вероятностей в случае двух совместных событий (будет учитываться вероятность их совместного появления).

Теорема 2.2. Вероятность суммы двух совместных событий равна сумме вероятностей этих двух событий без вероятности их совместного появления:

P\{A+B\}=P\{A\}+P\{B\}-P\{AB\}.

Зависимые и независимые события. Условная вероятность

Различают события зависимые и независимые. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. Например, если в цехе работают две автоматические линии, по условиям производства не взаимосвязанные, то остановки этих линий являются независимыми событиями.

Пример 3. Монета брошена два раза. Вероятность появления "герба" в первом испытании (событие A ) не зависит от появления или не появления "герба" во втором испытании (событие B ). В свою очередь, вероятность появления "герба" во втором испытании не зависит от результата первого испытания. Таким образом, события A и B независимые.

Несколько событий называются независимыми в совокупности , если любое из них не зависит от любого другого события и от любой комбинации остальных.

События называются зависимыми , если одно из них влияет на вероятность появления другого. Например, две производственные установки связаны единым технологическим циклом. Тогда вероятность выхода из строя одной из них зависит от того, в каком состоянии находится другая. Вероятность одного события B , вычисленная в предположении осуществления другого события A , называется условной вероятностью события B и обозначается P\{B|A\} .

Условие независимости события B от события A записывают в виде P\{B|A\}=P\{B\} , а условие его зависимости - в виде P\{B|A\}\ne{P\{B\}} . Рассмотрим пример вычисления условной вероятности события.

Пример 4. В ящике находятся 5 резцов: два изношенных и три новых. Производится два последовательных извлечения резцов. Определить условную вероятность появления изношенного резца при втором извлечении при условии, что извлеченный в первый раз резец в ящик не возвращается.

Решение. Обозначим A извлечение изношенного резца в первом случае, а \overline{A} - извлечение нового. Тогда P\{A\}=\frac{2}{5},~P\{\overline{A}\}=1-\frac{2}{5}=\frac{3}{5} . Поскольку извлеченный резец в ящик не возвращается, то изменяется соотношение между количествами изношенных и новых резцов. Следовательно, вероятность извлечения изношенного резца во втором случае зависит от того, какое событие осуществилось перед этим.

Обозначим B событие, означающее извлечение изношенного резца во втором случае. Вероятности этого события могут быть такими:

P\{B|A\}=\frac{1}{4},~~~P\{B|\overline{A}\}=\frac{2}{4}=\frac{1}{2}.

Следовательно, вероятность события B зависит от того, произошло или нет событие A .

Формулы умножения вероятностей

Пусть события A и B независимые, причем вероятности этих событий известны. Найдем вероятность совмещения событий A и B .

Теорема 2.3. Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:

P\{AB\}=P\{A\}\cdot P\{B\}.

Следствие 2.1. Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий:

P\{A_1A_2\ldots{A_n}\}=P\{A_1\}P\{A_2\}\ldots{P\{A_n\}}.

Пример 5. Три ящика содержат по 10 деталей. В первом ящике - 8 стандартных деталей, во втором - 7, в третьем - 9. Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что все три вынутые детали окажутся стандартными.

Решение. Вероятность того, что из первого ящика взята стандартная деталь (событие A ), P\{A\}=\frac{8}{10}=\frac{4}{5} . Вероятность того, что из второго ящика взята стандартная деталь (событие B ), P\{B\}=\frac{7}{10} . Вероятность того, что из третьего ящика взята стандартная деталь (событие C ), P\{C\}=\frac{9}{10} . Так как события A , B и C независимые в совокупности, то искомая вероятность (по теореме умножения)

P\{ABC\}=P\{A\}P\{B\}P\{C\}=\frac{4}{5}\frac{7}{10}\frac{9}{10}=0,\!504.

Пусть события A и B зависимые, причем вероятности P\{A\} и P\{B|A\} известны. Найдем вероятность произведения этих событий, т. е. вероятность того, что появится и событие A , и событие B .

Теорема 2.4. Вероятность совместного появления двух зависимых событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:

P\{AB\}=P\{A\}\cdot P\{B|A\};\qquad P\{AB\}=P\{B\}\cdot P\{A|B\}

Следствие 2.2. Вероятность совместного появления нескольких зависимых событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие события уже появились.

Пример 6. В урне находятся 5 белых шаров, 4 черных и 3 синих. Каждое испытание состоит в том, что наудачу извлекают один шар, не возвращая его в урну. Найти вероятность того, что при первом испытании появится белый шар (событие A ), при втором - черный (событие B ) и при третьем - синий (событие C ).

Решение. Вероятность появления белого шара при первом испытании P\{A\}=\frac{5}{12} . Вероятность появления черного шара при втором испытании, вычисленная в предположении, что при первом испытании появился белый шар, т. е. условная вероятность P\{B|A\}=\frac{4}{11} . Вероятность появления синего шара при третьем испытании, вычисленная в предположении, что при первом испытании появился белый шар, а при втором - черный, P\{C|AB\}=\frac{3}{10} . Искомая вероятность

P\{ABC\}=P\{A\}P\{B|A\}P\{C|AB\}=\frac{5}{12}\frac{4}{11}\frac{3}{10}.

Формула полной вероятности

Теорема 2.5. Если событие A наступает только при условии появления одного из событий , образующих полную группу несовместных событий, то вероятность события A равна сумме произведений вероятностей каждого из событий B_1,B_2,\ldots{B_n} на соответствующую условную вероятность события B_1,B_2,\ldots{B_n} :

P\{A\}=\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}.

При этом события B_i,~i=1,\ldots,n называются гипотезами, а вероятности P\{B_i\} - априорными. Эта формула называется формулой полной вероятности.

Пример 7. На сборочный конвейер поступают детали с трех станков. Производительность станков не одинакова. На первом станке изготовляют 50% всех деталей, на втором - 30%, на третьем - 20%. Вероятность качественной сборки при использовании детали, изготовленной на первом, втором и третьем станке, соответственно 0,98, 0,95 и 0,8, Определить вероятность того, что узел, сходящий с конвейера, качественный.

Решение. Обозначим A событие, означающее годность собранного узла; B_1 , B_2 и B_3 - события, означающие, что детали сделаны соответственно на первом, втором и третьем станке. Тогда

P\{B_1\}=0,\!5;~~~~~P\{B_2\}=0,\!3;~~~~~P\{B_3\}=0,\!2;
P\{A|B_1\}=0,\!98;~~~P\{A|B_2\}=0,\!95;~~~P\{A|B_3\}=0,\!8.

Искомая вероятность

Формула Байеса

Эта формула применяется при решении практических задач, когда событие A , появляющееся совместно с каким-либо из событий B_1,B_2,\ldots{B_n} , образующих полную группу событий, произошло и требуется провести количественную переоценку вероятностей гипотез B_1,B_2,\ldots{B_n} . Априорные (до опыта) вероятности P\{B_1\},P\{B_2\},\ldots{P\{B_n\}} известны. Требуется вычислить апостериорные (после опыта) вероятности, т. е., по существу, нужно найти условные вероятности P\{B_1|A\},P\{B_2|A\},\ldots{P\{B_n|A\}} . Для гипотезы B_j формула Байеса выглядит так:

P\{B_j|A\}=\frac{P\{B_j\} P\{A|B_j\}}{P\{A\}}.

Раскрывая в этом равенстве P\{A\} по формуле полной вероятности (2.1), получаем

P\{B_j|A\}=\dfrac{P\{B_j\}P\{A|B_j\}}{\sum\limits_{i=1}^{n}P\{B_i\}P\{A|B_i\}}.

Пример 8. При условиях примера 7 рассчитать вероятности того, что в сборку попала деталь, изготовленная соответственно на первом, втором и третьем станке, если узел, сходящий с конвейера, качественный.

Источник

Понравилась статья? Поделитесь с друзьями!