Événements aléatoires dépendants et indépendants.

Lois conditionnelles de distribution. Régression.

Définition. La loi de distribution conditionnelle de l'une des composantes unidimensionnelles d'une variable aléatoire bidimensionnelle (X, Y) est sa loi de distribution, calculée à condition que l'autre composante prenne une certaine valeur (ou tombe dans un certain intervalle). Dans le cours précédent, nous avons cherché à trouver des distributions conditionnelles pour des variables aléatoires discrètes. Des formules de probabilités conditionnelles y sont également données :

Dans le cas de variables aléatoires continues, il est nécessaire de déterminer les densités de probabilité des distributions conditionnelles j y (x) et j X (y). Pour cela, dans les formules données, nous remplaçons les probabilités des événements par leurs « éléments de probabilité » !

après réduction par dx et dy on obtient :

ceux. la densité de probabilité conditionnelle de l'une des composantes unidimensionnelles d'une variable aléatoire bidimensionnelle est égale au rapport de sa densité conjointe à la densité de probabilité de l'autre composante. Ces relations s'écrivent sous la forme

sont appelés le théorème (règle) de multiplication des densités de distribution.

Densités conditionnelles j y (x) et j X (y). ont toutes les propriétés d’une densité « inconditionnelle ».

Lors de l'étude de variables aléatoires bidimensionnelles, les caractéristiques numériques des composantes unidimensionnelles X et Y sont prises en compte - attentes et variances mathématiques. Pour une variable aléatoire continue (X, Y), elles sont déterminées par les formules :

Parallèlement à elles, les caractéristiques numériques des distributions conditionnelles sont également prises en compte : les attentes mathématiques conditionnelles M x (Y) et M y (X) et les variances conditionnelles D x (Y) et D Y (X). Ces caractéristiques sont trouvées à l'aide des formules habituelles d'espérance mathématique et de variance, dans lesquelles des probabilités conditionnelles ou des densités de probabilité conditionnelles sont utilisées à la place des probabilités d'événements ou des densités de probabilité.

Espérance mathématique conditionnelle d'une variable aléatoire Y à X = x, c'est-à-dire M x (Y) est une fonction de x, appelée fonction de régression ou simplement régression de Y sur X. De même, M Y (X) est appelée fonction de régression ou simplement régression de X sur Y. Les graphiques de ces fonctions sont appelées droites de régression (ou courbes de régression) Y respectivement par X ou X par Y.

Variables aléatoires dépendantes et indépendantes.

Définition. Les variables aléatoires X et Y sont dites indépendantes si leur fonction de distribution conjointe F(x,y) est représentée comme un produit des fonctions de distribution F 1 (x) et F 2 (y) de ces variables aléatoires, c'est-à-dire

Sinon, les variables aléatoires X et Y sont dites dépendantes.

En différenciant deux fois l'égalité par rapport aux arguments x et y, on obtient

ceux. pour les variables aléatoires continues indépendantes X et Y, leur densité conjointe j(x,y) est égale au produit des densités de probabilité j 1 (x) et j 2 (y) de ces variables aléatoires.

Jusqu'à présent, nous avons rencontré la notion de relation fonctionnelle entre les variables X et Y, lorsque chaque valeur x d'une variable correspondait à une valeur strictement définie de l'autre. Par exemple, la relation entre deux variables aléatoires – le nombre d’équipements défectueux sur une certaine période et leur coût – est fonctionnelle.

En général, ils sont confrontés à un autre type de dépendance, moins sévère que la dépendance fonctionnelle.

Définition. La relation entre deux variables aléatoires est dite probabiliste (stochastique ou statistique) si chaque valeur de l'une d'elles correspond à une certaine distribution (conditionnelle) de l'autre.

Dans le cas d'une dépendance probabiliste (stochastique), il est impossible, connaissant la valeur de l'une d'elles, de déterminer avec précision la valeur de l'autre, mais on ne peut qu'indiquer la distribution de l'autre quantité. Par exemple, le rapport entre le nombre de pannes d’équipement et le coût de ses réparations préventives, le poids et la taille d’une personne, le temps qu’un écolier passe à regarder la télévision et à lire des livres, etc. sont probabilistes (stochastiques).

Sur la fig. La figure 5.10 montre des exemples de variables aléatoires dépendantes et indépendantes X et Y.

d'où nous concluons que m1, m2 sont les attentes mathématiques des composantes X, Y d'une variable aléatoire normale bidimensionnelle (X, Y), σ1, σ2 sont les écarts types de leurs composantes.

Le graphique d'une densité normale bidimensionnelle dans l'espace est une surface en forme de colline située au-dessus de tout le plan xOy, s'en rapprochant asymptotiquement lorsqu'on l'éloigne à l'infini, symétrique par rapport à l'axe vertical passant par le centre (m1, m2), et avec le sommet à ce stade. Toute section de la surface d'un graphique de densité normale par un plan perpendiculaire à xOy est une courbe gaussienne.

6.5 Dépendance et indépendance de deux variables aléatoires

Définition. Les variables aléatoires X, Y sont dites indépendantes si les événements X sont indépendants< x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Théorème. Condition générale nécessaire et suffisante pour l'indépendance de deux variables aléatoires :

FXY (x, y) = FX (x) FY (y)

pour tout réel x et y.

Cette condition est une condition nécessaire et suffisante écrite différemment pour l'indépendance de deux événements : P (AB) = P (A)P (B) pour le cas des événements A = (X< x), B = (Y < y).

Théorème. Une condition nécessaire et suffisante pour l’indépendance de deux variables aléatoires continues :

fXY (x, y) = fX (x) fY (y), x, y.

Théorème. Condition nécessaire et suffisante pour l'indépendance de deux variables aléatoires discrètes :

p je = p je · p k

pour tout i = 1, 2, . . . , m; k = 1, 2, . . . , n.

Commentaire. L'égalité du coefficient de corrélation ρ à zéro est une condition nécessaire et suffisante pour l'indépendance des composantes X, Y d'une variable aléatoire normale bidimensionnelle (X, Y).

6.6 Lois conditionnelles de distribution. Caractéristiques numériques d'une variable aléatoire bidimensionnelle. Relation entre variables aléatoires

6.6.1 Lois conditionnelles de distribution

Définition. Droit de la distribution conditionnelle l'une des composantes unidimensionnelles d'une variable aléatoire bidimensionnelle (X, Y) est appelée sa loi de distribution, calculée à condition que l'autre composante prenne une certaine valeur (ou tombe dans un certain intervalle).

Dans le cas de variables aléatoires discrètes, les formules pour trouver des probabilités conditionnelles ont la forme :

pj(xi) =

P [(X = xi )(Y = yj )]

Pi(yj) =

P [(X = xi )(Y = yj )]

P(Y=yj)

P (X = xi)

Dans le cas de variables aléatoires continues, ces formules prennent la forme

fY (x) =

fXY(x, y)

FX(y)=

fXY(x, y)

fY(y)

fX(x)

ceux. la densité de probabilité conditionnelle de l'une des composantes unidimensionnelles d'une variable aléatoire bidimensionnelle est égale au rapport de sa densité conjointe à la densité de probabilité de son autre composante.

Ces ratios, écrits sous la forme

fXY (x, y) = fX (x)fX (y) = fX (y)fY (x),

sont appelés le théorème (règle) de multiplication des densités de distribution.

En utilisant des formules pour obtenir des composantes unidimensionnelles d'une variable aléatoire continue, nous écrivons des formules pour les composantes conditionnelles :

fY (x) =

fXY(x, y)

FX(y)=

fXY(x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Caractéristiques numériques

Considérons la variable aléatoire ϕ(X, Y), qui est fonction des composantes X, Y de la variable aléatoire bidimensionnelle (X, Y). Les formules générales sont valables :

pour un cas discret.

Ici fXY (x, y) est la densité de probabilité de la variable aléatoire (X, Y), et pik = P (X = xi, Y = yk) (i = 1, . . . , m; k = 1, . . , n) - loi de distribution d'une variable aléatoire bidimensionnelle discrète

À l'aide de ces formules, vous pouvez écrire des formules pour l'espérance mathématique et la dispersion des composantes unidimensionnelles d'une variable aléatoire discrète.

Les formules pour trouver l’espérance mathématique sont :

M(X) = Z Z

xfXY (x, y)dxdy;

M(Y) = yfXY (x, y)dxdy

pour les variables aléatoires continues ;

M(X) = xi pik ;

M(Y) = yk pik

pour un cas discret.

Les formules pour calculer la variance des composantes unidimensionnelles d'une variable aléatoire bidimensionnelle ont la forme :

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

pour un cas discret.

6.6.3 Moment de corrélation et coefficient de corrélation

Les caractéristiques fonctionnelles de la dépendance de deux variables aléatoires ont été formulées ci-dessus. Considérons maintenant les caractéristiques numériques de la relation entre variables aléatoires.

Définition. Moment de corrélation K XY, sinon - covariance , deux variables aléatoires X, Y est appelée l'espérance mathématique du produit des écarts de ces variables aléatoires par rapport à leurs attentes mathématiques :

KXY = M[(X − mX )(Y − mY )].

Évidemment, KXY = KY X.

Les formules de calcul de KXY sont :

KXY =ZZ

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Le moment de corrélation et le coefficient de corrélation sont des caractéristiques numériques d'une variable aléatoire bidimensionnelle, et ρXY est une caractéristique sans dimension. De leurs propriétés, il s'ensuit qu'ils caractérisent la relation entre variables aléatoires.

Propriétés du moment de corrélation et du coefficient de corrélation. Propriété 1.

KXY = M − mX mY .

Cette formule est pratique à utiliser pour calculer la covariance.

Propriété 2.

−1 ≤ ρ ≤ 1.

Cette propriété signifie que le coefficient de corrélation est une caractéristique normalisée. Propriété 3. Pour les variables aléatoires indépendantes X, Y leur moment de corrélation,

et, par conséquent, le coefficient de corrélation est égal à zéro.

Commentaire. La proposition inverse est généralement incorrecte, c'est-à-dire il existe des variables aléatoires indépendantes (X, Y) pour lesquelles KXY = 0.

Définition. Deux variables aléatoires X, Y sont appelées non corrélé, si leur moment de corrélation est nul. Si KXY 6= 0, alors ils disent que X, Y sont en corrélation les uns avec les autres.

Commentaire. Si KXY 6= 0, alors les variables aléatoires X, Y sont dépendantes.

Propriété 4. Pour les variables aléatoires X, Y = aX + b, liées par une dépendance linéaire, le coefficient de corrélation est égal à 1 si a > 0, et −1 si a< 0.

Propriété 5. Si |ρXY | = 1, alors les variables aléatoires X, Y sont liées par une dépendance linéaire avec probabilité un.

Commentaire. La quantité M = α 1,1 est appelée le deuxième moment initial mixte variable aléatoire bidimensionnelle (X, Y) et son moment de corrélation K XY-

deuxième moment central mixte.

Les variables aléatoires sont dites indépendantes si la loi de distribution de l'une d'elles ne dépend pas de la valeur de l'autre variable aléatoire. Le concept de dépendance des variables aléatoires est très important en théorie des probabilités. Les distributions conditionnelles des variables aléatoires indépendantes sont égales à leurs distributions inconditionnelles. Déterminons les conditions nécessaires et suffisantes pour l'indépendance des variables aléatoires.

Théorème. Pour que les variables aléatoires X et Y soient indépendantes, il faut et suffisant que la fonction de distribution du système (X, Y) soit égale au produit des fonctions de distribution des composantes.

Un théorème similaire peut être formulé pour la densité de distribution :

Théorème. Pour que les variables aléatoires X et Y soient indépendantes, il faut et suffisant que la densité de la distribution conjointe du système (X, Y) soit égale au produit des densités de distribution des composantes.

Le moment de corrélation mxy des variables aléatoires X et Y est l'espérance mathématique du produit des écarts de ces valeurs.

Les formules suivantes sont pratiquement utilisées :

Pour les variables aléatoires discrètes :

Pour les variables aléatoires continues :

Le moment de corrélation sert à caractériser la relation entre des variables aléatoires. Si les variables aléatoires sont indépendantes, alors leur moment de corrélation est égal à zéro.

Le moment de corrélation a une dimension égale au produit des dimensions des variables aléatoires X et Y. Ce fait constitue un inconvénient de cette caractéristique numérique, car Avec différentes unités de mesure, différents moments de corrélation sont obtenus, ce qui rend difficile la comparaison des moments de corrélation de différentes variables aléatoires.

Afin d'éliminer cet inconvénient, une autre caractéristique est utilisée : le coefficient de corrélation.

Le coefficient de corrélation rxy des variables aléatoires X et Y est le rapport du moment de corrélation au produit des écarts types de ces valeurs.

Le coefficient de corrélation est une quantité sans dimension. Le coefficient de corrélation des variables aléatoires indépendantes est nul.

Propriété : La valeur absolue du moment de corrélation de deux variables aléatoires X et Y ne dépasse pas la moyenne géométrique de leurs variances.

Propriété : La valeur absolue du coefficient de corrélation ne dépasse pas un.

Les variables aléatoires sont dites corrélées si leur moment de corrélation est différent de zéro, et non corrélées si leur moment de corrélation est égal à zéro.

Si les variables aléatoires sont indépendantes, alors elles ne sont pas corrélées, mais du fait de la non-corrélation, on ne peut pas conclure qu'elles sont indépendantes.

Si deux quantités sont dépendantes, elles peuvent être soit corrélées, soit non corrélées.

Souvent, à partir d'une densité de distribution donnée d'un système de variables aléatoires, on peut déterminer la dépendance ou l'indépendance de ces variables.

Outre le coefficient de corrélation, le degré de dépendance des variables aléatoires peut être caractérisé par une autre quantité, appelée coefficient de covariance. Le coefficient de covariance est déterminé par la formule :

Exemple. La densité de distribution du système de variables aléatoires X et Y est donnée.

Découvrez si les variables aléatoires X et Y sont indépendantes.

Pour résoudre ce problème, nous transformons la densité de distribution :

Ainsi, la densité de distribution pourrait être représentée comme le produit de deux fonctions, dont l’une dépend uniquement de x et l’autre uniquement de y. Ceux. les variables aléatoires X et Y sont indépendantes. Bien entendu, ils ne seront pas non plus corrélés.

Deux variables aléatoires $X$ et $Y$ sont dites indépendantes si la loi de distribution d'une variable aléatoire ne change pas en fonction des valeurs possibles prises par l'autre variable aléatoire. Autrement dit, pour tout $x$ et $y$, les événements $X=x$ et $Y=y$ sont indépendants. Puisque les événements $X=x$ et $Y=y$ sont indépendants, alors par le théorème du produit des probabilités d'événements indépendants $P\left(\left(X=x\right)\left(Y=y\ droite)\droite)=P \gauche(X=x\droite)P\gauche(Y=y\droite)$.

Exemple 1 . Soit la variable aléatoire $X$ exprimer les gains en espèces sur les billets d'une loterie « Loto russe », et la variable aléatoire $Y$ exprimer les gains en espèces sur les billets d'une autre loterie « Golden Key ». Il est évident que les variables aléatoires $X,\Y$ seront indépendantes, puisque les gains des billets d'une loterie ne dépendent pas de la loi de répartition des gains des billets d'une autre loterie. Dans le cas où les variables aléatoires $X,\Y$ exprimeraient les gains de la même loterie, alors, évidemment, ces variables aléatoires seraient dépendantes.

Exemple 2 . Deux ouvriers travaillent dans des ateliers différents et fabriquent divers produits qui ne sont pas liés les uns aux autres par les technologies de fabrication et les matières premières utilisées. La loi de répartition du nombre de produits défectueux fabriqués par le premier ouvrier par équipe a la forme suivante :

$\begin(tableau)(|c|c|)
\hline
Nombre de \produits \ défectueux\x & 0 & 1 \\
\hline
Probabilité & 0,8 & 0,2 \\
\hline
\end(tableau)$

Le nombre de produits défectueux fabriqués par le deuxième ouvrier par équipe obéit à la loi de répartition suivante.

$\begin(tableau)(|c|c|)
\hline
Nombre de \produits \ défectueux\y & 0 & 1 \\
\hline
Probabilité & 0,7 & 0,3 \\
\hline
\end(tableau)$

Trouvons la loi de répartition du nombre de produits défectueux fabriqués par deux ouvriers par équipe.

Soit la variable aléatoire $X$ le nombre de produits défectueux fabriqués par le premier travailleur par équipe, et $Y$ le nombre de produits défectueux fabriqués par le deuxième travailleur par équipe. Par condition, les variables aléatoires $X,\Y$ sont indépendantes.

Le nombre de produits défectueux fabriqués par deux travailleurs par équipe est une variable aléatoire $X+Y$. Ses valeurs possibles sont $0,\ 1$ et $2$. Trouvons les probabilités avec lesquelles la variable aléatoire $X+Y$ prend ses valeurs.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right) =0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ ou\ X=1,\ Y=0\right)=P\left(X=0\right )P\gauche(Y=1\droite)+P\gauche(X=1\droite)P\gauche(Y=0\droite)=0,8\cdot 0,3+0,2\cdot 0,7 =0,38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right) =0,2\cdot 0,3=0,06.$

Puis la loi de répartition du nombre de produits défectueux fabriqués par deux ouvriers par équipe :

$\begin(tableau)(|c|c|)
\hline
Nombre de produits \ défectueux \ & 0 & 1 & 2 \\
\hline
Probabilité & 0,56 & 0,38 & 0,06\\
\hline
\end(tableau)$

Dans l'exemple précédent, nous avons effectué une opération sur des variables aléatoires $X,\Y$, c'est-à-dire que nous avons trouvé leur somme $X+Y$. Donnons maintenant une définition plus rigoureuse des opérations (addition, différence, multiplication) sur des variables aléatoires et donnons des exemples de solutions.

Définition 1. Le produit $kX$ d'une variable aléatoire $X$ par une variable constante $k$ est une variable aléatoire qui prend des valeurs $kx_i$ avec les mêmes probabilités $p_i$ $\left(i=1,\ 2,\ \points ,\ n\ droite)$.

Définition 2. La somme (différence ou produit) des variables aléatoires $X$ et $Y$ est une variable aléatoire qui prend toutes les valeurs possibles de la forme $x_i+y_j$ ($x_i-y_i$ ou $x_i\cdot y_i$) , où $i=1 ,\ 2,\dots ,\ n$, avec des probabilités $p_(ij)$ que la variable aléatoire $X$ prendra la valeur $x_i$, et $Y$ la valeur $y_j$ :

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Puisque les variables aléatoires $X,\Y$ sont indépendantes, alors selon le théorème de multiplication de probabilité pour les événements indépendants : $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ à droite)= p_i\cdot p_j$.

Exemple 3 . Les variables aléatoires indépendantes $X,\ Y$ sont spécifiées par leurs lois de distribution de probabilité.

$\begin(tableau)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(tableau)$

$\begin(tableau)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(tableau)$

Formulons la loi de distribution de la variable aléatoire $Z=2X+Y$. La somme des variables aléatoires $X$ et $Y$, c'est-à-dire $X+Y$, est une variable aléatoire qui prend toutes les valeurs possibles de la forme $x_i+y_j$, où $i=1,\ 2 ,\dots ,\ n$ , avec des probabilités $p_(ij)$ que la variable aléatoire $X$ prendra la valeur $x_i$, et $Y$ la valeur $y_j$ : $p_(ij)=P\left [\left(X=x_i\right )\left(Y=y_j\right)\right]$. Puisque les variables aléatoires $X,\Y$ sont indépendantes, alors selon le théorème de multiplication de probabilité pour les événements indépendants : $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ à droite)= p_i\cdot p_j$.

Ainsi, il a des lois de distribution pour les variables aléatoires $2X$ et $Y$, respectivement.

$\begin(tableau)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(tableau)$

$\begin(tableau)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(tableau)$

Pour faciliter la recherche de toutes les valeurs de la somme $Z=2X+Y$ et de leurs probabilités, nous composerons un tableau auxiliaire, dans chaque cellule duquel nous placerons dans le coin gauche les valeurs de la somme $ Z=2X+Y$, et dans le coin droit - les probabilités de ces valeurs obtenues en multipliant les probabilités des valeurs correspondantes des variables aléatoires $2X$ et $Y$.

En conséquence, on obtient la distribution $Z=2X+Y$ :

$\begin(tableau)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(tableau)$

Les notions de dépendance et d'indépendance des événements aléatoires. Probabilité conditionnelle. Formules pour additionner et multiplier les probabilités d'événements aléatoires dépendants et indépendants. Formule de probabilité totale et formule de Bayes.

Théorèmes d'addition de probabilité

Trouvons la probabilité de la somme des événements A et B (en supposant leur compatibilité ou incompatibilité).

Théorème 2.1.

La probabilité de la somme d'un nombre fini d'événements incompatibles est égale à la somme de leurs probabilités :

P\(A+B+\ldots+N\)=P\(A\)+P\(B\)+\ldots+P\(N\). Exemple 1.

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Solution.

L'événement D requis se produira si une paire de chaussures de taille 44 (événement A) ou 45 (événement B) ou au moins 46 (événement C) est vendue, c'est-à-dire que l'événement D est la somme des événements A, B, C. Les événements A, B et C sont incompatibles. Par conséquent, d’après le théorème de la somme des probabilités, on obtient =0,\!17.

P\(D\)=P\(A+B+C\)=P\(A\)+P\(B\)+P\(C\)=0,\!12+0,\!04 +0,\!01 Exemple 2.

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Les événements « la prochaine paire de chaussures plus petite que la taille 44 sera vendue » et « une paire de chaussures pas plus petite que la taille 44 sera vendue » sont opposés. Par conséquent, selon la formule (1.2), la probabilité d'apparition de l'événement souhaité

P\(\overline(D)\)=1-P\(D\)=1-0,\!17=0,\!83.

puisque P\(D\)=0,\!17 comme cela a été trouvé dans l’exemple 1.

Le théorème 2.1 d'addition de probabilités n'est valable que pour les événements incompatibles. L’utiliser pour déterminer la probabilité d’événements conjoints peut conduire à des conclusions incorrectes et parfois absurdes, comme le montre clairement l’exemple suivant. Supposons que l'exécution d'une commande à temps par Electra Ltd soit estimée avec une probabilité de 0,7. Quelle est la probabilité que sur trois commandes, l’entreprise termine au moins une à temps ? Nous désignons les événements au cours desquels l'entreprise exécutera les première, deuxième et troisième commandes à temps comme A, B, C, respectivement. Si l'on applique le théorème 2.1 d'addition de probabilités pour trouver la probabilité recherchée, on obtient P\(A+B+C\)=0,\!7+0,\!7+0,\!7=2,\!1. La probabilité de l'événement s'est avérée supérieure à un, ce qui est impossible. Cela s'explique par le fait que les événements A, B, C sont conjoints. En effet, honorer la première commande dans les délais n’exclut pas l’exécution des deux autres dans les délais.

Formulons un théorème d'addition de probabilités dans le cas de deux événements conjoints (la probabilité de leur occurrence conjointe sera prise en compte).

Théorème 2.2.

La probabilité de la somme de deux événements conjoints est égale à la somme des probabilités de ces deux événements sans la probabilité de leur occurrence conjointe :

P\(A+B\)=P\(A\)+P\(B\)-P\(AB\).

Événements dépendants et indépendants. Probabilité conditionnelle

Il existe des événements dépendants et indépendants. Deux événements sont dits indépendants si la survenance de l’un d’eux ne modifie pas la probabilité de survenance de l’autre. Par exemple, s'il y a deux lignes automatiques en fonctionnement dans un atelier, qui ne sont pas interconnectées en raison des conditions de production, alors les arrêts de ces lignes sont des événements indépendants. Exemple 3.

La pièce est lancée deux fois. La probabilité que les « armoiries » apparaissent lors du premier essai (événement A) ne dépend pas de l'apparition ou de la non-apparition des « armoiries » lors du deuxième essai (événement B). À son tour, la probabilité que les « armoiries » apparaissent lors du deuxième essai ne dépend pas du résultat du premier essai. Ainsi, les événements A et B sont indépendants. Plusieurs événements sont convoqués collectivement indépendant

, si l'un d'entre eux ne dépend d'aucun autre événement et d'aucune combinaison des autres. Les événements sont appelés, si l’un d’eux affecte la probabilité de l’autre. Par exemple, deux usines de production sont reliées par un seul cycle technologique. La probabilité de défaillance de l’un d’eux dépend alors de l’état de l’autre. La probabilité d'un événement B, calculée dans l'hypothèse de la survenance d'un autre événement A, est appelée probabilité conditionnelleévénement B et est noté P\(B|A\) .

La condition d'indépendance de l'événement B par rapport à l'événement A s'écrit sous la forme P\(B|A\)=P\(B\) , et la condition de sa dépendance - sous la forme P\(B|A\)\ne(P\(B\)). Considérons un exemple de calcul de la probabilité conditionnelle d'un événement.

Exemple 4. La boîte contient 5 emporte-pièces : deux usés et trois neufs. Deux extractions séquentielles des incisives sont réalisées. Déterminer la probabilité conditionnelle qu'un couteau usé apparaisse lors de la deuxième extraction, à condition que le couteau retiré la première fois ne soit pas remis dans la boîte.

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Notons A l'extraction d'une fraise usée dans le premier cas, et \overline(A) l'extraction d'une nouvelle. Alors P\(A\)=\frac(2)(5),~P\(\overline(A)\)=1-\frac(2)(5)=\frac(3)(5). Comme le couteau retiré n'est pas remis dans la boîte, le rapport entre les quantités de couteaux usés et neufs change. Par conséquent, la probabilité de retirer une fraise usée dans le second cas dépend de l'événement qui s'est produit auparavant.

Notons B l'événement signifiant la dépose de la fraise usée dans le deuxième cas. Les probabilités de cet événement pourraient être :

P\(B|A\)=\frac(1)(4),~~~P\(B|\overline(A)\)=\frac(2)(4)=\frac(1)(2 ).

Par conséquent, la probabilité de l’événement B dépend du fait que l’événement A se produise ou non.

Formules de multiplication de probabilité

Supposons que les événements A et B soient indépendants et que les probabilités de ces événements soient connues. Trouvons la probabilité de combiner les événements A et B.

Théorème 2.3.

La probabilité de survenance conjointe de deux événements indépendants est égale au produit des probabilités de ces événements :

P\(AB\)=P\(A\)\cdot P\(B\).

Corollaire 2.1.

La probabilité de survenance conjointe de plusieurs événements indépendants dans l'ensemble est égale au produit des probabilités de ces événements : P\(A_1A_2\ldots(A_n)\)=P\(A_1\)P\(A_2\)\ldots(P\(A_n\)).

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Exemple 5. Trois boîtes contiennent 10 pièces. La première boîte contient 8 pièces standard, la deuxième – 7 et la troisième – 9. Une pièce est retirée au hasard de chaque boîte. Trouvez la probabilité que les trois parties retirées soient standard.. La probabilité qu'une pièce étalon soit extraite de la deuxième case (événement B), P\(B\)=\frac(7)(10). La probabilité qu'une pièce étalon soit extraite de la troisième case (événement C), P\(C\)=\frac(9)(10). Puisque les événements A, B et C sont indépendants dans l'ensemble, alors la probabilité souhaitée (par le théorème de multiplication)

P\(ABC\)=P\(A\)P\(B\)P\(C\)=\frac(4)(5)\frac(7)(10)\frac(9)(10) =0,\!504.

Supposons que les événements A et B soient dépendants et que les probabilités P\(A\) et P\(B|A\) soient connues. Trouvons la probabilité du produit de ces événements, c'est-à-dire la probabilité que l'événement A et l'événement B apparaissent.

Théorème 2.4.

La probabilité de survenance conjointe de deux événements dépendants est égale au produit de la probabilité de l'un d'eux par la probabilité conditionnelle de l'autre, calculée en supposant que le premier événement s'est déjà produit :

P\(AB\)=P\(A\)\cdot P\(B|A\);\qquad P\(AB\)=P\(B\)\cdot P\(A|B\)

Corollaire 2.2. La probabilité d'occurrence conjointe de plusieurs événements dépendants est égale au produit de la probabilité de l'un d'eux et des probabilités conditionnelles de tous les autres, et la probabilité de chaque événement ultérieur est calculée en supposant que tous les événements précédents se sont déjà produits. .

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Exemple 6. L'urne contient 5 boules blanches, 4 noires et 3 bleues. Chaque épreuve consiste à tirer une boule au hasard sans la remettre dans l'urne. Trouvez la probabilité qu'une boule blanche apparaisse au premier essai (événement A), une boule noire au deuxième (événement B) et une boule bleue au troisième (événement C). Probabilité d'apparition d'une boule blanche au premier essai P\(A\)=\frac(5)(12). La probabilité qu'une boule noire apparaisse au deuxième essai, calculée en supposant qu'une boule blanche soit apparue au premier essai, c'est-à-dire probabilité conditionnelle P\(B|A\)=\frac(4)(11). La probabilité qu'une boule bleue apparaisse au troisième essai, calculée en supposant qu'une boule blanche soit apparue au premier essai et une boule noire au deuxième,

P\(C|AB\)=\frac(3)(10)

. Probabilité requise

P\(ABC\)=P\(A\)P\(B|A\)P\(C|AB\)=\frac(5)(12)\frac(4)(11)\frac(3 )(10). Formule de probabilité totale Théorème 2.5. Formule de probabilité totale:

Si l'événement A se produit uniquement sous la condition de la survenance d'un des événements formant un groupe complet d'événements incompatibles, alors la probabilité de l'événement A est égale à la somme des produits des probabilités de chacun des événements.

B_1,B_2,\ldots(B_n)

à la probabilité conditionnelle correspondante de l'événement La chaîne de montage reçoit les pièces de trois machines. La productivité des machines n'est pas la même. La première machine produit 50 % de toutes les pièces, la deuxième - 30 % et la troisième - 20 %. La probabilité d'un assemblage de haute qualité lors de l'utilisation d'une pièce fabriquée sur la première, la deuxième et la troisième machine est respectivement de 0,98, 0,95 et 0,8. Déterminez la probabilité que l'assemblage sortant de la chaîne de montage soit de haute qualité.

La probabilité qu'un magasin vende une paire de chaussures pour hommes de taille 44 est de 0,12 ; 45ème - 0,04 ; 46e et plus - 0,01. Trouvez la probabilité qu'une paire de chaussures pour hommes d'au moins la taille 44 soit vendue. Notons A l'événement indiquant la validité du nœud assemblé ;

B_1, B_2 et B_3 - événements signifiant que les pièces ont été fabriquées respectivement sur la première, la deuxième et la troisième machine. Alors
P\(B_1\)=0,\!5;~~~~~P\(B_2\)=0,\!3;~~~~~P\(B_3\)=0,\!2;

P\(A|B_1\)=0,\!98;~~~P\(A|B_2\)=0,\!95;~~~P\(A|B_3\)=0,\!8 .

Probabilité requise

Formule de Bayes Formule de probabilité totale Cette formule est utilisée pour résoudre des problèmes pratiques lorsque l'événement A, apparaissant avec l'un des événements Formule de probabilité totale, formant un ensemble complet d'événements, s'est produit et il est nécessaire de procéder à une réévaluation quantitative des probabilités des hypothèses . Probabilités a priori (avant expérience) P\(B_1\),P\(B_2\),\ldots(P\(B_n\)) connu. Il est nécessaire de calculer les probabilités a posteriori (après expérience), c'est-à-dire que vous devez essentiellement trouver des probabilités conditionnelles. P\(B_1|A\),P\(B_2|A\),\ldots(P\(B_n|A\))

. Pour l'hypothèse B_j, la formule de Bayes ressemble à ceci :

P\(B_j|A\)=\frac(P\(B_j\) P\(A|B_j\))(P\(A\)).

En développant P\(A\) dans cette égalité en utilisant la formule de probabilité totale (2.1), on obtient

P\(B_j|A\)=\dfrac(P\(B_j\)P\(A|B_j\))(\sum\limits_(i=1)^(n)P\(B_i\)P\( A|B_i\)). Exemple 8.

Dans les conditions de l'exemple 7, calculer les probabilités que l'assemblage comprenne une pièce fabriquée respectivement sur la première, la deuxième et la troisième machine, si l'assemblage sortant de la chaîne de montage est de bonne qualité.

Source Avez-vous aimé l'article?