Système de deux variables aléatoires ou plus. Systèmes de variables aléatoires discrètes

11. Fonction de distribution d'un système de deux variables aléatoires.

Jusqu'à présent, nous avons considéré des variables aléatoires dont les valeurs possibles étaient déterminées par un seul nombre. De telles quantités sont dites unidimensionnelles. Par exemple, le nombre de points pouvant être obtenus en lançant un dé est une quantité discrète unidimensionnelle ; la distance entre le canon et l'endroit où tombe le projectile est une variable aléatoire continue unidimensionnelle.

En plus des variables aléatoires unidimensionnelles, ils étudient des quantités dont les valeurs possibles sont déterminées par deux, trois,..., n nombres. De telles quantités sont appelées respectivement bidimensionnelles, tridimensionnelles, ..., n-dimensionnelles. Nous désignerons par (X,Y) le plan bidimensionnel variable aléatoire. Chacune des grandeurs X et Y est appelée une composante : les deux grandeurs X et Y, considérées simultanément, forment un système de deux variables aléatoires.

De même, une quantité à n dimensions peut être considérée comme un système de n valeurs aléatoires.

quantités Par exemple, n'importe quel point sur le plan de coordonnées XOY peut être considéré comme une variable aléatoire bidimensionnelle avec des composantes X et Y (coordonnées) ; à tout moment espace tridimensionnel- Comment

une variable aléatoire tridimensionnelle avec les composantes X, Y et Z. Il existe des variables aléatoires multidimensionnelles discrètes (les composantes de ces quantités sont discrètes) et continues (les composantes de ces quantités sont continues).

Considérons une variable aléatoire bidimensionnelle (X, Y) (peu importe qu'elle soit discrète ou continue). Soit (x,y) une paire de nombres réels. La probabilité que X prenne une valeur inférieure à x, et en même temps Y prenne une valeur inférieure à y, sera notée F(x,y). Si x et y changent, alors, d'une manière générale, F(x,y) changera également, c'est-à-dire que F(x,y) est fonction de x et y.

Fonction de distribution la variable aléatoire bidimensionnelle (X,Y) est une fonction F(x,y), qui détermine pour chaque paire de nombres x, y la probabilité que X prenne une valeur inférieure à x, et en même temps Y prenne une valeur inférieure à y : F(x, y) = P(X

Géométriquement, cette égalité peut être interprétée comme suit : F(x,y) est la probabilité qu'un point aléatoire (X,Y) tombe dans un quadrant infini avec un sommet (x, y) situé à gauche et en dessous de ce sommet. .

Propriétés de la fonction de distribution d'une variable aléatoire bidimensionnelle

Propriété 1. Les valeurs de la fonction de distribution satisfont la double inégalité 0 ≤ F(x, y) ≤ 1.

Preuve. La propriété découle de la définition de la fonction de distribution comme une probabilité : la probabilité est toujours un nombre non négatif ne dépassant pas un.

Propriété 2. F(x,y) est une fonction non décroissante pour chaque argument, c'est-à-dire

F(x2 ,y) ≥ F(x1 ,y), si x2> x1 ;

F(x ,y2) ≥ F(x ,y1) si y2>y1.

Preuve. Montrons que F(x,y) est une fonction non décroissante par rapport à l'argument x. L'événement où la composante X prendra une valeur inférieure à x2, et en même temps la composante Y< y, можно подразделить на следующие два несовместных события:

1) X prendra une valeur inférieure à x1, et en même temps Y< y с вероятностью P(X< x1,Y

2) X prendra une valeur satisfaisant l'inégalité x1 ≤ X< x2 , и при этом Y

D'après le théorème d'addition,

P(X< x2, Y

P(X< x2, Y

F(x2 ,y) - F(x1 ,y) = P(x1≤X< x2, Y

Toute probabilité est un nombre non négatif, donc

F(x2 ,y) - F(x1 ,y) ≥ 0, ou F(x2 ,y) ≥ F(x1 ,y),

Q.E.D.

La propriété devient clairement claire si nous utilisons l'interprétation géométrique de la fonction de distribution comme la probabilité qu'un point aléatoire tombe dans un quadrant infini avec un sommet (x;y). À mesure que x augmente, la bordure droite de ce quadrant se déplace vers la droite ; tandis que la probabilité de toucher

un point aléatoire dans un nouveau quadrant ne peut évidemment pas être réduit. Il est de même prouvé que F(x,y) est une fonction non décroissante par rapport à

argument y.

Propriété 3. Il existe des relations limites :

1) F(-∞ , y) = 0, 2) F(x, -∞) = 0,

3) F(-∞, -∞) = 0, 4) F(∞, ∞) = 1.

Preuve

1) F(-∞ , y) est la probabilité de l'événement X< -∞ и Y < y; но такое событие невозможно (поскольку невозможно событие X < -∞), следовательно, вероятность этого события равна нулю. Свойство становится наглядно ясным, если прибегнуть к геометрической интерпретации: при x→-∞ правая граница бесконечного квадранта неограниченно сдвигается влево и при этом вероятность попадания случайной точки в квадрант стремится к нулю.

2) Événement Y< -∞ невозможно, поэтому F(x, -∞) = 0.

3) Événement X< -∞ невозможно, поэтому F(-∞ , -∞) = 0.

4) Événement X< ∞ и Y < ∞ достоверно, следовательно, вероятность этого

événements F(∞ , ∞) = 1.

La propriété devient clairement claire si l'on prend en compte que pour x→∞ et y→∞ le quadrant infini se transforme en tout le plan xOy et, par conséquent, l'apparition d'un point aléatoire (X;Y) dans ce plan est un événement fiable .

Propriété 4

a) À y = ∞, la fonction de distribution du système devient la fonction de distribution de la composante X :

F(x, ∞) = F1(x).

b) À x = ∞, la fonction de distribution du système devient la fonction de distribution de la composante Y :

F(∞, y) = F2(y).

Preuve.

a) Depuis l'événement Y< ∞ достоверно, то F(x, ∞) определяет вероятность события X < x, т.е. представляет собой функцию распределения составляющей X.

b) La preuve est similaire.

P+p

E−λ

E − λ e λ = 1.

pk=

−λ

La figure 3.6 montre les graphiques de la fonction

de k)

valeurs

paramètre

λ = 0,5 (ligne continue), 1

(ligne pointillée) et 2 (ligne pointillée)

ligne pointillée). Chaque graphique représente un discret

rangée de points ; pour plus de clarté, les points de connexion

nous sommes une ligne brisée séquentiellement (la soi-disant

polygone de distribution).

Une des raisons du rôle important

Riz . 3.6

Distribution de Poisson pour la pratique, conclut-

dans son lien étroit avec la distribution binomiale. Rappelons (§ 2.5) que si dans la formule de Bernoulli

P n (k )= C n k p k (1− p )n − k

on fixe la valeur de k et commençons à orienter le nombre d'expériences vers l'infini, et la probabilité p vers zéro, de plus, pour que leur produit reste égal à un nombre constant λ (np = λ), alors on aura :

La relation (3.17) montre qu'avec le passage à la limite décrite ci-dessus, le tableau (3.15) de la distribution binomiale passe dans le tableau (3.16) de la distribution de Poisson. Ainsi, la distribution de Poisson est la limite de la distribution binomiale dans les conditions ci-dessus. A noter que cette propriété de la distribution de Poisson - exprimer une distribution binomiale avec un grand nombre d'expériences et une faible probabilité d'événement - est associée au nom souvent utilisé pour celle-ci : loi des événements rares.

§3.5. Systèmes de variables aléatoires discrètes

Jusqu’à présent, nous avons considéré les variables aléatoires isolément les unes des autres, sans aborder la question de leurs relations. Cependant, dans des problèmes pratiques, il arrive souvent que certaines variables aléatoires doivent être étudiées ensemble. Dans de tels cas, on parle d'un système de plusieurs variables aléatoires. Plus précisément : les variables aléatoires forment un système si elles sont définies sur le même espace d'événements élémentaires Ω.

Un système de deux variables aléatoires (X,Y) peut être interprété comme un point aléatoire sur un plan, un système de trois variables aléatoires (X,Y,Z) - comme un point aléatoire dans un espace tridimensionnel. Nous nous limiterons principalement au cas bidimensionnel.

Une approche intuitive du concept d'un système de deux variables aléatoires est associée à l'idée d'expérience dont le résultat est une paire de nombres X,Y. Puisque le résultat de l'expérience est considéré comme un événement aléatoire, il est impossible de prédire à l'avance les valeurs des nombres X et Y (lorsque l'expérience est répétée, elles changent de manière inattendue). Donnons quelques exemples.

Exemple 3.7. Les dés sont lancés deux fois. Notons X le nombre de points au premier lancer, et par Y le nombre de points au second. Le couple (X ,Y ) sera un système de deux variables aléatoires.

Exemple 3.8. Un élève est sélectionné au hasard parmi un certain public ; X est sa taille (disons en centimètres), Y est son poids (en kilogrammes).

Exemple 3.9. Dans une région agricole donnée, une parcelle de semis de blé d'une superficie de 1 hectare est sélectionnée au hasard ; X est la quantité d'engrais appliquée sur cette parcelle ; Y est la récolte obtenue sur la parcelle ;

Exemple 3.10. Les travaux écrits en mathématiques et en langue russe sont comparés : X est la note pour le travail en mathématiques, Y est pour le travail en russe.

La liste de ces exemples est facile à poursuivre.

§3.6. Variables aléatoires discrètes indépendantes

1°. Notes générales. Exemples. Lorsqu’on considère un système de deux variables aléatoires (X,Y), il faut garder à l’esprit que les propriétés du système ne sont pas toujours épuisées par les propriétés des variables elles-mêmes X et Y. En d’autres termes, si nous savons tout sur la quantité X et tout sur la quantité Y, cela ne veut pas dire que nous savons tout sur le système (X,Y). Le fait est qu'il peut y avoir une dépendance entre les quantités X et Y, et sans tenir compte de cette dépendance, il est impossible de construire une loi de distribution pour le système (X,Y).

La dépendance entre variables aléatoires dans des conditions réelles peut être différente. Dans certains cas, il s'avère si fort que, sachant quelle valeur a pris la valeur X, vous pouvez indiquer avec précision la valeur de Y. En utilisant la terminologie traditionnelle, on peut dire que dans ces cas la dépendance entre X et Oui fonctionnel(Cependant, la notion de fonction de variable aléatoire reste encore à préciser ; cette dernière sera donnée au § 3.7). Nous rencontrons constamment des exemples d’une telle dépendance dans la nature et dans la technologie.

Dans le même temps, nous pouvons également citer des exemples d'un autre type - lorsque la dépendance entre variables aléatoires existe, mais n'est pas de nature fonctionnelle strictement définie. De tels exemples sont particulièrement typiques de domaines scientifiques et pratiques tels que la technologie agricole, la biologie, la médecine, l'économie, etc., où le développement des phénomènes dépend généralement de nombreux facteurs difficiles à prendre en compte. On sait par exemple que des précipitations abondantes pendant la période de maturation du blé entraînent une augmentation des rendements ; cependant, cela ne signifie pas que la relation entre la quantité de précipitation X et le rendement Y (par exemple, pour 1 ha) est fonctionnelle ; En plus des précipitations, d'autres facteurs influencent également le rendement : type de sol, quantité d'engrais appliquée, nombre de jours ensoleillés, etc. Dans de tels cas, lorsqu'un changement d'une valeur n'affecte une autre que statistiquement, en moyenne, il est d'usage de parler de connexion probabiliste entre les quantités. Sans donner encore de définitions précises, regardons quelques exemples. Ils illustrent différents degrés de dépendance entre variables aléatoires – depuis une dépendance forte, presque fonctionnelle, jusqu’à une indépendance pratique.

Exemple 3.11. Soit X la taille d'un adulte sélectionné au hasard (disons en centimètres) et Y son poids (en kilogrammes). La relation entre la taille et le poids est très forte ; en première approximation, elle peut même être considérée comme fonctionnelle. La formule qui exprime approximativement cette dépendance s'écrit généralement :

Y (kg) =X (cm) – 100.

Exemple 3.12. X est la hauteur d'un arbre choisi au hasard dans la forêt, Y est le diamètre de sa base. Et ici, la dépendance doit être reconnue comme forte, mais pas dans la même mesure que dans l'exemple précédent.

Exemple 3.13. Une pierre est sélectionnée au hasard parmi un tas de pierres de forme irrégulière. Soit X sa masse et Y sa plus grande longueur. La relation entre X et Y est purement probabiliste.

Exemple 3.14. X est la taille d'un adulte sélectionné au hasard, Y est son âge. Les observations montrent que ces quantités sont pratiquement indépendantes.

2°. Détermination de l'indépendance des variables aléatoires. Laissons de côté pour l'instant la question de

quels nombres peuvent être utilisés pour exprimer le degré de dépendance entre les quantités X et Y. Limitons-nous à une définition stricte de l'indépendance des variables aléatoires.

Définition . Soit le système (X, Y). On dira que les quantités X et Y sont indépendantes si

les événements X A et Y B sont indépendants, où A et B sont deux segments quelconques [ a1 , a2 ] et [ b1 , b2 ].

En d’autres termes, l’égalité est vraie

où x i est toute valeur possible de la quantité X, et y j est toute valeur possible de la quantité Y. En effet, de (3.18) il découle évidemment (3.19). Vérifions cela et vice versa à partir de (3.19)

suit (3.18).

Soit le système (X,Y) caractérisé par le tableau

page 11

page 12

r 21

r 22

Mettons A = [a 1,a 2],B = [b 1,b 2]. Alors

p ij = P (X = x i )P (Y = y j ) (i ,j = 1, 2, ...) (l'égalité écrite est précisément la condition (3.19)). D'ici

P(X UNE, Oui B) =

∑ p ij=

∑ P(X= xi ) P(Y= yj ) =

(je, j

xi A, yj B) ( je, j

xi A, yj B)

= ∑ P (X =x je )

∑ P(Y= yj ) = P(X A) P(Y B) ,

xiA)

y j B)

ceux. les quantités X et Y sont indépendantes.

§3.7. Fonction d'une variable aléatoire. Actions sur des variables aléatoires

Soit X une variable aléatoire. Il est souvent nécessaire de considérer des variables aléatoires de la forme :

Oui = g(X) ,

où g (x) est une fonction numérique donnée. Quelle est la signification de l'entrée (3.20), c'est-à-dire le concept

fonction d'une variable aléatoire ?

Supposons qu'à la suite de l'expérience, un événement s'est produit

X = X

c'est-à-dire que la valeur de X a pris la valeur . Alors, par définition, nous pensons que dans cette expérience la quantité Y a pris la valeur g (x). Il est clair que pour une variable aléatoire discrète, un tel accord détermine complètement la nouvelle variable aléatoire Y. Quant à une variable aléatoire continue, l’affirmation suivante est vraie.

Proposition 3.1. Si g(x) est une fonction continue, alors la relation (3.20) détermine la variable aléatoire Y.

Preuve. Nous utiliserons la condition (3.2), qui équivaut à la définition d'une variable aléatoire. Ainsi, nous devons vérifier que pour tout ouvert U sur la droite numérique, il existe un ensemble d’événements élémentaires pour lesquels

Mais par définition (3.2), l'ensemble des événements élémentaires défini par la condition (3.22) est un événement. Par conséquent, la condition (3.21) détermine l’événement qui doit être prouvé.

Pour toute fonction (3.20) la variable aléatoire

Oui = g(X) ,

comme X, a sa propre loi de distribution. Quelle est cette loi ? Limitons-nous à considérer le cas où la variable aléatoire X est de type discret. Soit la loi de distribution X donnée par le tableau (3.11). Par définition, la loi de distribution de la variable aléatoire Y est donnée par le tableau (3.23), dans lequel

Nous avons remplacé la première ligne de (3.11) par les valeurs correspondantes de la fonction g (x), laissant la deuxième ligne inchangée.

g(x1)

g(x2)

S'il y a des valeurs égales parmi les valeurs Y, vous devez alors combiner les colonnes correspondantes en une seule colonne en ajoutant les probabilités correspondantes.

Exemple 3.15. Soit la variable aléatoire X donnée par la loi de distribution :

Trouvez la loi de distribution de la variable aléatoire Y =X 2.

Solution . Afin de trouver la loi de distribution Y = X 2, on met au carré toutes les valeurs et on obtient le tableau suivant

Très souvent, pour les variables aléatoires X et Y qui forment un système, il faut considérer leur somme et leur produit. Puisque la loi de distribution de telles opérations et d'opérations similaires sur des variables aléatoires est définie de la même manière, nous supposerons que nous considérons une variable aléatoire

Z = g (X, Oui),

où g (x, y) est une fonction numérique.

Alors, laissez le système (X,Y) être caractérisé par le tableau

page 11

page 12

r 21

r 22

dont le sens est connu du lecteur. Ampleur

Z = g(X, Oui)

sera également discret. Ses valeurs possibles seront les nombres z 11 = g (x 1,y 1), z 12 = g (x 1,y 2), ....

Regardons deux cas.

1. Tous les nombres z ij sont différents. Alors l'événement Z =z ij, c'est-à-dire

g (X ,Y )= z ij ,

se produit uniquement lorsque les événements X = x i et Y = y j se produisent simultanément, par conséquent, sa probabilité sera égale à

P(X= xi , Y= yj ) = pij . 1 ,Y = y 2 ) et (X = x 3 ,Y = y 5 ) ,

par conséquent, sa probabilité sera

12+ 35.

Pour résumer, on peut dire que la loi de distribution de la valeur g (X,Y) s'exprimera

tableau (3.25), dans lequel les colonnes avec les mêmes valeurs z ij doivent être combinées en une seule, en additionnant les probabilités p ij qu'elles contiennent.

Exemple 3.16. Soit la loi de distribution du système de variables aléatoires (X,Y) être donnée par un tableau. Retrouvez la loi de distribution de leur produit.

Solution . Les nombres z ij dans ce cas seront

z 11= − 2 z 12= − 4 z 13= − 6

z 21= − 1 z 22= − 2 z 23= − 3

z 31= 0 z 32= 0 z 33= 0 .

Par conséquent, la loi de distribution « préliminaire » pour X Y sera

et la finale

La loi de distribution d'une variable aléatoire bidimensionnelle discrète peut être présentée sous la forme d'un tableau (tableau 1.2), qui caractérise la totalité de toutes les valeurs des variables aléatoires et les probabilités correspondantes :

De plus, la somme de toutes les probabilités, ainsi que la somme des probabilités du groupe complet d'événements incompatibles, est égale à un.

Tableau 1.2

Valeurs SV x 1 x 2 xn Σ P.(oui j)
oui 1 P.(x 1 ,oui 1 ) P.(x 2 ,oui 1 ) P.(xn,y 1 ) P.(oui 1 )
oui 2 P.(x 1 ,oui 2 ) P.(x 2 ,oui 2 ) P.(xn,y 2 ) P.(oui 2 )
ouais P.(x 1 ,eh m) P.(x 2 ,eh m) P.(x n ,y m) P.(ouais m)
Σ P.(xje) P.(x 1 ) P.(x 2 ) P.(xn)

En utilisant la loi de distribution d'une variable aléatoire bidimensionnelle, il est possible de construire des lois de distribution pour chaque variable aléatoire incluse dans le système.

Tableau 1.3

Série de distribution pour SV X:

Droit de la distribution conditionnelle variable aléatoire Xà condition que la variable aléatoire Oui = oui 0 est un ensemble de valeurs possibles X avec probabilités conditionnelles . Lors du calcul de ces probabilités, vous devez utiliser la formule de probabilité conditionnelle :

.

Espérance mathématique du SV bidimensionnel(X, Oui ) est appelé un ensemble de deux attentes mathématiques. M[X]et M[ Oui], défini par les égalités :

,

Dispersion du système SV(X, Y) est appelé un ensemble de deux variances D[X]Et D[Oui], défini par les égalités :

, ,

, ,

Exemple 8. Ci-dessous est un tableau des distributions de probabilité d'une variable aléatoire bidimensionnelle ( X;Oui) (tableau 1.5).

Tableau 1.5

Tableau 1.7

Oui -1
P. 0,2 0,4 0,4

a) Calculer les caractéristiques numériques :

b) On retrouve les caractéristiques numériques du produit de variables aléatoires en multipliant leurs valeurs par les probabilités correspondantes :

Pour trouver l'espérance mathématique conditionnelle, vous devez d'abord trouver la distribution conditionnelle de la variable aléatoire Ouià condition que X= 0. Pour un tableau de distribution bivarié ( X ; Oui) divisez toutes les probabilités de la première ligne par . Nous obtenons une table de distribution conditionnelle Oui:

Oui -1
PX =0 0,75 0,25

Trouvons maintenant l’espérance mathématique conditionnelle :


CHAPITRE 2. STATISTIQUES MATHÉMATIQUES

Travail indépendant selon le cours magistral

Ce type de travail implique une étude indépendante (facultatif) des sujets suivants :

1. Intervalles de confiance pour estimer l'espérance mathématique d'une distribution normale avec un σ connu.

2. Évaluation de la précision des mesures.

3. Estimation de la probabilité (distribution binomiale) par fréquence relative.

4. Méthode des moments pour l'estimation ponctuelle des paramètres de distribution.

5. Méthode du maximum de vraisemblance.

6. Autres caractéristiques de la série de variations.

7. Les cas les plus simples de corrélation curviligne.

8. Le concept de corrélation multiple.

9. Comparaison de deux variances de populations normales.

10. Tester l'hypothèse sur la signification du coefficient de corrélation de l'échantillon.

Tous les sujets répertoriés peuvent être trouvés dans la littérature présentée à la fin des lignes directrices.

Sur l'un des sujets sélectionnés, vous devez rédiger un notes de cours à l'appui, qu'il est conseillé d'illustrer par une tâche résolue de manière indépendante.

Travail indépendant sur des exercices pratiques

Pour ce type de travaux, il est proposé de construire un modèle de régression linéaire basé sur des données expérimentales.

La création d'un modèle mathématique d'un processus technologique ou d'un autre phénomène physique ouvre la possibilité à un chercheur de prédire les résultats de processus lorsque certaines conditions sont remplies, d'étudier des situations critiques, de prédire la qualité d'un produit, etc.

Lors de la réalisation de la tâche de construction d'un modèle de régression, il est nécessaire de démontrer une compréhension des termes des statistiques mathématiques, d'analyser et de tirer des conclusions sur la base des résultats de calcul obtenus. La mise en œuvre de ce travail vise à systématiser et à appliquer les connaissances acquises lors de l'étude du thème « Statistiques mathématiques ».

Considérons la possibilité de construire un modèle de régression linéaire basé sur des données expérimentales.

Exemple.À la suite de l'expérience, les données statistiques suivantes ont été obtenues (tableau 2.1) :

Tableau 2.1

x oui x oui x oui x oui x oui
8,35 3,50 10,50 6,00 11,35 9,50 12,15 6,00 12,85 9,50
8,74 1,49 10,75 2,50 11,50 6,00 12,25 8,05 13,15 9,02
9,25 6,40 10,76 5,74 11,50 9,00 12,35 5,01 13,25 6,49
9,50 4,50 11,00 8,50 11,62 8,50 12,50 7,03 13,26 10,50
9,75 5,00 11,00 5,26 11,75 10,00 12,76 7,53 13,40 7,51
10,24 7,00 11,25 8,00 12,00 9,00 12,85 6,01 13,50 10,00
13,65 9,50 14,50 10,00 13,75 8,51 14,75 12,00 14,00 11,00
15,25 12,50 14,23 8,40 16,00 11,50 14,26 10,00 16,00 13,00
14,51 9,50 16,25 12,00

Pour l’échantillon donné, effectuez les tâches suivantes.

1) Présenter l'échantillon sous forme de séries statistiques d'intervalles de variables aléatoires X Et Oui.

2) Pour une variable aléatoire X construire un polygone de fréquence et un histogramme. Trouvez la fonction de distribution empirique et tracez-la.

3) Trouver les caractéristiques numériques de l'échantillon (moyenne de l'échantillon, variance de l'échantillon sans biais, écart type sans biais) pour les variables aléatoires X Et Oui.

4) Construire des intervalles de confiance pour l'espérance mathématique et la variance d'une variable aléatoire X avec une probabilité de confiance β = 0,95.

5) Tester l'hypothèse sur la distribution normale de la variable aléatoire X.

6) Effectuer une analyse de corrélation.

7) Construisez un modèle de régression linéaire.

Solution. La taille de l'échantillon est n=42.

1. Pour représenter l'échantillon sous forme de séries statistiques d'intervalles, nous déterminons les longueurs des intervalles pour chaque variable aléatoire.

Pour une variable aléatoire X la plus grande valeur est 16,25, la plus petite est 8,35. Trouvons la longueur de l'intervalle par X:

Choisir h x=1,2. Nous obtenons sept intervalles. Déplaçons-nous un peu vers la gauche à partir de la plus petite valeur de 8,35, nous commencerons donc le premier intervalle avec une valeur de 8,3. Calculons la fréquence d'obtention d'une variable aléatoire X X prend la forme (tableau 2.2) :

Tableau 2.2

Pour une variable aléatoire Oui la valeur la plus grande est 13,0, la plus petite est 1,49. Trouvons la longueur de l'intervalle par Oui:

Choisir salut=1,8. Nous obtenons sept intervalles. Déplaçons-nous un peu vers la gauche à partir de la plus petite valeur de 1,49, nous commencerons donc le premier intervalle avec une valeur de 1,5. Calculons la fréquence d'obtention d'une variable aléatoire Oui dans chaque intervalle, et nous convenons que la valeur limite sera incluse dans un intervalle plus grand. Séries statistiques d'intervalle pour Oui prend la forme (tableau 2.3) :

Tableau 2.3

2. Pour construire un polygone de fréquence pour une variable aléatoire X, trouvons la fréquence moyenne et relative pour chaque intervalle (tableau 2.4).

Tableau 2.4

Limites d'intervalle 8,3–9,5 9,5–10,7 10,7–11,9 11,9–13,1 13,1–14,3 14,3–15,5 15,5–16,7
Milieu des intervalles 8,9 10,1 11,3 12,5 13,7 14,9 16,1

Sur la figure 2.1, le long de l'axe des abscisses, nous marquons les milieux des intervalles x je, le long de l'ordonnée - fréquences relatives.

Lors de la construction d'un histogramme de distribution, nous marquons les limites des intervalles le long de l'axe des abscisses et les fréquences relatives divisées par la longueur de l'intervalle le long de l'axe des ordonnées (Fig. 2.2).

On trouve la fonction de distribution empirique à l'aide de la formule :

.

Afin de trouver la valeur de la fonction de distribution empirique pour un X, il suffit de compter le nombre d'expériences dans lesquelles la valeur X a pris une valeur inférieure à X, et divisez par le nombre total d'expériences effectuées n.

Traçons la fonction de distribution empirique (Fig. 2.3).

3. X nous utilisons le tableau (2.5).

Tableau 2.5

Limites d'intervalle Milieu de l'intervalle Fréquence
8,3 – 9,5 8,9 26,7 237,63
9,5 – 10,7 10,1 40,4 408,04
10,7 – 11,9 11,3 1276,9
11,9 – 13,1 12,5 1250,0
13,1 – 14,3 13,7 1876,9
14,3 – 15,5 14,9 44,7 666,03
15,5 – 16,7 16,1 64,4 1036,84
Somme 526,2 6752,34

Dans l'exemple de formule de moyenne, nous remplaçons la somme dans la quatrième colonne (tableau 2.5) :

Dans la formule de la variance de l'échantillon sans biais, nous substituons la somme dans la cinquième colonne (tableau 2.5) :

Pour calculer des estimations de caractéristiques numériques pour Oui nous utilisons le tableau (2.6).

Tableau 2.6

Limites d'intervalle Milieu de l'intervalle Fréquence
1,5 – 3,3 2,4 4,8 11,52
3,3 – 5,1 4,2 16,8 70,56
5,1 – 6,9 6,0
6,9 – 8,7 7,8 85,8 669,24
8,7 – 10,5 9,6 921,6
10,5 – 12,3 11,4 45,6 519,84
12,3 – 14,1 13,2 39,6 522,72
Somme 336,6 3003,48

Dans l'exemple de formule de moyenne, nous remplaçons la somme dans la quatrième colonne (tableau 2.6) :

Dans la formule de la variance de l'échantillon sans biais, nous substituons la somme dans la cinquième colonne (tableau 2.6) :

Écart type de l’échantillon sans biais :

4. Construisons des intervalles de confiance pour l'espérance mathématique et la variance d'une variable aléatoire X avec une probabilité de confiance β = 0,95.

A l'aide du tableau 4 des annexes, on retrouve la valeur de la statistique de Student pour la probabilité de confiance β=0,95 et le nombre de degrés de liberté k=42-1=41:

La moitié de la longueur de l’intervalle de confiance :

Nous substituons les valeurs obtenues dans la formule d'intervalle de confiance pour l'espérance mathématique :

Pour déterminer l'intervalle de confiance de la variance, selon le tableau 3 des annexes, on retrouvera la valeur de la statistique χ 2 pour le niveau de signification α=1–β=1–0,95=0,05 et le nombre de degrés de liberté k=42-1=41:

Remplaçons les valeurs trouvées des statistiques χ 2 dans la formule d'intervalle de confiance pour la variance :

Ainsi, les vraies valeurs de l'espérance mathématique M(x) et écart D(x) tombent dans les intervalles résultants avec une probabilité β=0,95.

5. Vérifions l'hypothèse sur la distribution normale d'une variable aléatoire X en utilisant le critère de Pearson.

Le graphique du polygone de fréquence et l'histogramme (similitude externe avec la courbe de Gauss) suggèrent que la population obéit à une loi de distribution normale.

Nous avançons l’hypothèse principale :

H 0 : La population suit une loi de distribution normale.

L’hypothèse alternative prend alors la forme :

H 1 : La loi de distribution n’est pas normale.

Nous fixons le niveau de signification α = 0,05.

En élargissant les limites du premier et du dernier intervalles (tableau 2.3), nous résumons les résultats de tous les calculs dans le tableau 2.7.

Tableau 2.7

Limites d'intervalle Fréquence
–∞ – 9,5 0,0618 0,022
9,5 – 10,7 0,11440
10,7 – 11,9 0,1983 8,3286 0,335
11,9 – 13,1 0,2396 10,0632 0,423
13,1 – 14,3 0,2218 9,9356 0,082
14,3 – 15,5 0,0986 0,018
15,5 – +∞ 0,0654
Somme 1,0062 1,0000 0,88

Dans le tableau 2.7, la quatrième colonne présente les résultats des calculs de probabilités théoriques trouvés sous l'hypothèse que la variable aléatoire obéit à une loi de distribution normale, selon la formule :

Les valeurs de la fonction de Laplace se trouvent dans le tableau 2 de l'annexe.

Trouvons les probabilités d'entrer dans chaque intervalle :

La fréquence théorique des deux premiers intervalles et des deux derniers est inférieure à 5, nous les regroupons donc dans les deuxième et quatrième colonnes (tableau 2.7).

La cinquième colonne (tableau 2.7) est le résultat de calculs utilisant la formule :

Il ne faut pas oublier que les deux premiers et deux derniers intervalles sont combinés.

Ainsi, la somme de la cinquième colonne (tableau 2.7) est la valeur calculée du critère :

Puisqu'après la fusion, il reste 5 intervalles ( je= 5), et les estimations de deux paramètres ont été déterminées à partir de l'échantillon, c'est-à-dire r=2, alors le nombre de degrés de liberté est égal à . A l'aide du tableau 3 de l'annexe, on retrouve la valeur des statistiques pour . p=1–α=0,95 et k= 2:

En comparant les valeurs obtenues, on voit que

l'hypothèse d'une distribution normale n'est donc pas rejetée.

6. Pour effectuer une analyse de corrélation basée sur les exemples de données, nous créerons un tableau de corrélation (tableau 2.8) :

Tableau 2.8

Oui Limites et milieux des intervalles pour X
8,3–9,5 8,9 9,5–10,7 10,1 10,7–11,9 11,3 11,9–13,1 12,5 13,1–14,3 13,7 14,3–15,5 14,9 15,5–16,7 16,1
1,5–3,3 2,4
3,3–5,1 4,2
5,1–6,9 6,0
6,9–8,7 7,8
8,7–10,5 9,6
10,5–12,3 11,4
12,3–14,1 13,2

À l'aide des estimations des caractéristiques numériques obtenues au paragraphe 3, nous trouvons le moment de corrélation de l'échantillon à l'aide de la formule :

Calculons d'abord le montant :

Nous trouvons l'échantillon de coefficient de corrélation à l'aide de la formule :

Il est à noter que la proximité du coefficient de corrélation de l'échantillon en valeur absolue par rapport à l'unité est un argument sérieux en faveur du choix d'un modèle de régression linéaire.

7. Construisons un modèle de régression linéaire.

Sur la base de la méthode des moindres carrés, une relation linéaire a été obtenue Oui depuis X:

Nous substituons les estimations de caractéristiques numériques obtenues au paragraphe 3 :

En simplifiant l'expression, nous obtenons finalement l'exemple d'équation de régression linéaire :

Vous pouvez également construire une équation de dépendance X depuis Oui:

Remplaçons les estimations des caractéristiques numériques obtenues précédemment :

Construisons les deux droites sur le champ de corrélation (Fig. 2.4). Les lignes droites se coupent au point . L'angle entre les lignes droites, appelées « ciseaux », s'est avéré aigu, ce qui est tout à fait cohérent avec la valeur obtenue du coefficient de corrélation de l'échantillon.

Le modèle de régression résultant nous permet de prédire la valeur d'une variable aléatoire Oui depuis X, et vice-versa.

Figure 2.4


Questions pour la maîtrise de soi

1. Donner les conditions de faisabilité du projet de Bernoulli ?

2. Dans quels cas la formule de Bernoulli est-elle remplacée par des formules approchées

3. Principaux types de distributions et leurs caractéristiques numériques.

4. Quelles sont les tâches principales de la statistique mathématique ?

5. Quel est le principe de la méthode d’échantillonnage ?

6. Le concept de série de variations, de fréquence et de fréquence relative.

7. Le concept de distribution d'échantillonnage statistique et de fonction de distribution empirique.

8. Décrire les méthodes permettant de représenter graphiquement les distributions statistiques.

9. Quelles caractéristiques de distribution sont utilisées dans les statistiques mathématiques. Fournissez des exemples et le contexte de leur utilisation.

10. Spécifiez les propriétés des estimations statistiques. Lesquels d’entre eux ont des caractéristiques connues de la distribution de l’échantillon.

11. Le concept d'exactitude et de fiabilité des estimations d'intervalle.

12. Le concept d'hypothèse statistique. Donner les principaux types d'hypothèses statistiques.

13.Formuler l'algorithme de base pour tester une hypothèse statistique.

14. Quels types de domaines critiques connaissez-vous ?

15. Erreurs du premier et du deuxième genre. Moyens de réduire la probabilité qu’une erreur se produise.

16. Le concept de dépendance statistique et de corrélation.

17. Principales tâches de la théorie des corrélations.

18. Exemple de coefficient de régression et ses propriétés.


Références

1. Bolchev L.N., Smirnov N.V. Tableaux de statistiques mathématiques. M. : Nauka, 1983.

2. Ventzel E.S. Théorie des probabilités. − M. : Plus haut. école, 1998. − 578 p.

3. Ventzel, E.S., Ovcharov, L.A. Théorie des probabilités et ses applications techniques. -M. : Nauka, 1988. - 480 p.

4. Ventzel, E.S. Théorie des probabilités : Manuel pour les universités / E.S. Wenzel - 6e éd., stéréotype - M. : Lycée. 1999. - 400 p.

5. Gmurman, V.E. Théorie des probabilités et statistiques mathématiques : manuel. manuel pour les universités/V.E. Gmurman – 9e éd. stéréotype., - M. : Lycée, 2003. - 479 p.

6. Gmurman, V.E. Guide pour résoudre des problèmes de théorie des probabilités et de statistiques mathématiques : manuel. manuel / V.E. Gmurman – 5e éd. stéréotype., - M. : Lycée, 1999. - 400 p.

7. Kolde Y.K. Atelier sur la théorie des probabilités et les statistiques mathématiques. -M. : Ecole Supérieure, 1991. - 157 p.

8. Kolmogorov A.N., Zhurbenko I.G., Prokhorov A.V. Introduction à la théorie des probabilités. -M. : Sciences. Rédaction principale de littérature physique et mathématique, 1982. - 160 p.

9. Écrit, D.T. Notes de cours sur la théorie des probabilités et les statistiques mathématiques. – M. : Iris-presse, 2006. – 288 p. – (Enseignement supérieur).

10. Chetyrkin E.M., Kalikhman I.L. Probabilités et statistiques. -M. : Finances et Statistiques, 1982.- 319 p.

11. Chistiakov V.P. Cours de théorie des probabilités. − M. : Nauka, 1982.


DEMANDES

Tableau 1

Valeurs normalisées de la fonction de densité de distribution normale N(0,1)

x 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,3989 0,3989 0,3989 0,3988 0,3986 0,3984 0,3982 0,3980 0,3977 0,3973
0,1 0,3970 0,3965 0,3961 0.3956 0,3951 0,3945 0,3939 0,3932 0,3925 0,3918
0,2 0,3910 0,3902 0,3894 0,3885 0,3876 0,3867 0,3857 0,3847 0,3836 0,3825
0,3 0,3814 0,3802 0,3790 0,3778 0,3765 0,3752 0,3739 0,3725 0,3712 0,3697
0,4 0,3683 0,3668 0,3653 0,3637 0,3621 0,3605 0,3589 0,3572 0,3555 0,3538
0,5 0,3521 0,3503 0,3485 0,3467 0,3448 0,3429 0,3410 0,3391 0,3372 0,3352
0,6 0,3332 0,3312 0,3292 0,3271 0,3251 0,3230 0,3209 0,3187 0,3166 0,3144
0,7 0,3123 0,3101 0,3079 0,3056 0,3034 0,3011 0,2989 0,2966 0,2943 0,2920
0,8 0,2897 0,2874 0,2850 0,2827 0,2803 0,2780 0,2756 0,2732 0,2709 0,2685
0,9 0,2661 0,2637 0,2613 0,2589 0,2565 0,2541 0,2516 0,2492 0,2468 0,2444
1,0 0,2420 0,2396 0,2371 0,2347 0,2323 0,2299 0,2275 0,2251 0,2227 0,2203
1,1 0,2179 0,2155 0,2131 0,2107 0,2083 0,2059 0,2036 0,2012 0,1989 0,1965
1,2 0,1942 0,1919 0,1859 0,1872 0,1849 0,1826 0,1804 0,1781 0,1758 0,1736
1,3 0,1714 0,1691 0,1669 0,1647 0,1626 0,1604 0,1582 0,1561 0,1539 0,1518
1,4 0,1497 0,1476 0,1456 0,1435 0,1415 0,1394 0,1374 0,1354 0,1334 0,1315
1,5 0,1295 0,1276 0,1257 0,1238 0,1219 0,1200 0,1182 0,1163 0,1145 0,1127
1,6 0,1109 0,1092 0,1074 0,1057 0,1040 0,1023 0,1006 0,0989 0,0973 0,0957
1,7 0,0940 0,0925 0,0909 0,0893 0,0878 0,0863 0,0848 0,0833 0,0818 0,0804
1,8 0,0790 0,0775 0,0761 0,0748 0,0734 0,0721 0,0707 0,0694 0,0681 0,0669
1,9 0,0656 0,0644 0,0632 0,0620 0,0608 0,0596 0,0584 0,0573 0,0562 0,0551
2,0 0,0540 0,0529 0,0519 0,0508 0,0498 0,0488 0,0478 0,0468 0,0459 0,0449
2,1 0,0440 0,0431 0,0422 0,0413 0,0404 0,0396 0,0387 0,0379 0,0371 0,0363
2,2 0,0355 0,0347 0,0339 0,0332 0,0325 0,0317 0,0310 0,0303 0,0297 0,0290
2,3 0,0283 0,0277 0,0270 0,0264 0,0258 0,0252 0,0246 0,0241 0,0235 0,0229
2,4 0,0224 0,0219 0,0213 0,0208 0,0203 0,0198 0,0194 0,0189 0,0184 0,0180
2,5 0,0175 0,0171 0,0167 0,0163 0,0158 0,0154 0,0151 0,0147 0,0143 0,0139
2,6 0,0136 0,0132 0,0129 0,0126 0,0122 0,0119 0,0116 0,0113 0,0110 0,0107
2,7 0,0104 0,0101 0,0099 0,0096 0,0093 0,0091 0,0088 0,0086 0,0084 0,0081
2,8 0,0079 0,0077 0,0075 0,0073 0,0071 0,0069 0,0067 0,0065 0,0063 0,0061
2,9 0,0060 0,0058 0,0056 0,0055 0,0053 0,0051 0,0050 0,0048 0,0047 0,0046
3,0 0,0044 0,0043 0,0042 0,0040 0,0039 0,0038 0,0037 0,0036 0,0035 0,0034
3,1 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026 0,0025 0,0025
3,2 0,0024 0,0023 0,0022 0,0022 0,0021 0,0020 0,0020 0,0019 0,0018 0,0018
3,3 0,0017 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014 0,0013 0,0013
3,4 0,0012 0,0012 0,0012 0,0011 0,0011 0,0010 0,0010 0,0010 0,0009 0,0009
3.5 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007 0,0007 0,0007 0,0006
3.6 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005 0,0005 0,0005 0,0005 0,0004
3,7 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003 0,0003 0,0003 0,0003
3,8 0.0003 0,0003 0,0003 0,0003 0,0003 0,0002 0,0002 0,0002 0,0002 0,0002
3,9 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0001 0,0001
4.0 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
x 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09

Tableau 2

Valeur de la fonction

    Le concept d'un système de variables aléatoires

    Fonction de distribution d'un système de deux variables aléatoires

    1. Définition

      Propriétés de la fonction de distribution d'un système de variables aléatoires

    Densité de distribution d'un système de deux variables aléatoires

    1. Définition

      Interprétation géométrique et « mécanique » de la densité de distribution d'un système de deux variables aléatoires

      Propriétés de la densité de distribution du système

    Lois de répartition des quantités individuelles incluses dans le système. Lois conditionnelles de distribution

    1. Définitions

      Théorème de multiplication pour les lois de distribution

    Variables aléatoires dépendantes et indépendantes

    1. Définition variables aléatoires indépendantes

    Caractéristiques numériques d'un système de deux variables aléatoires. Moment de corrélation.

    1. Coefficient de corrélation

    La notion de variables aléatoires non corrélées est-elle équivalente à la notion d'indépendance ?

    Système d'un nombre arbitraire de variables aléatoires

    Le concept de fonction de distribution d'un système de variables aléatoires Détermination de la densité de distribution d'un système de n continu

    variables aléatoires

Caractéristiques numériques d'un système de plusieurs variables aléatoires

Dans les applications pratiques de la théorie des probabilités, on rencontre souvent des problèmes dans lesquels le résultat d'une expérience n'est pas décrit par une variable aléatoire, mais par deux ou plusieurs variables aléatoires formant un complexe ou un système. Par exemple, le point d'impact d'un projectile est déterminé non pas par une variable aléatoire, mais par deux : l'abscisse et l'ordonnée - et peut être considéré comme un complexe de deux variables aléatoires. De même, le point d’éclatement d’un projectile télécommandé est déterminé par un complexe de trois variables aléatoires. Lors d'un tir groupé de coups, l'ensemble des points d'impact sur le plan peut être considéré comme un complexe ou un système de variables aléatoires : abscisse et ordonnée des points d'impact. Le fragment formé lors de la rupture d'un projectile est caractérisé par un certain nombre de variables aléatoires : poids, taille, vitesse initiale, direction de vol, etc. Acceptons de désigner un système de plusieurs variables aléatoires.

Les propriétés d'un système de plusieurs variables aléatoires ne se limitent pas aux propriétés des variables individuelles qui le composent : en outre, elles incluent également les connexions mutuelles (dépendances) entre les variables aléatoires.

Lorsque l'on considère les problèmes liés aux systèmes de variables aléatoires, il convient d'utiliser l'interprétation géométrique du système. Par exemple, un système de deux variables aléatoires peut être représenté comme un point aléatoire sur un plan avec des coordonnées et (Fig. 1.1). De même, un système de trois variables aléatoires peut être représenté par un point aléatoire dans un espace tridimensionnel. Il est souvent pratique de parler d’un système de variables aléatoires comme d’un « point aléatoire dans l’espace de mesure ». Malgré le fait que cette dernière interprétation n'est pas directement claire, son utilisation présente certains avantages en termes de terminologie commune et de simplification des notations.

Souvent, au lieu de l’image d’un point aléatoire, l’image d’un vecteur aléatoire est utilisée pour l’interprétation géométrique d’un système de variables aléatoires. Un système de deux variables aléatoires est considéré comme un vecteur aléatoire sur le plan dont les composantes le long des axes représentent des variables aléatoires (Fig. 1.2). Un système de trois variables aléatoires est représenté par un vecteur aléatoire dans un espace tridimensionnel, et un système de variables aléatoires est représenté par un vecteur aléatoire dans un espace dimensionnel. Dans ce cas, la théorie des systèmes de nombres aléatoires est considérée comme une théorie des vecteurs aléatoires.

Figure 1.1.

Figure 1.2

Lorsqu'il s'agit de systèmes de variables aléatoires, nous considérerons à la fois les caractéristiques probabilistes complètes et exhaustives - les lois de distribution, et les caractéristiques incomplètes - les caractéristiques numériques.

Nous commençons notre présentation par le cas le plus simple d'un système de deux variables aléatoires.

Souvent, lorsqu'on étudie des phénomènes aléatoires, il faut traiter non pas une variable aléatoire, mais deux, trois ou plus. L'étude conjointe d'un nombre fini de variables aléatoires conduit à un système de variables aléatoires. Voici quelques exemples de systèmes de variables aléatoires :

  • 1. Le point d'atterrissage du vaisseau spatial réutilisable de la navette spatiale est caractérisé par un système de trois variables aléatoires : latitude (av), longitude (A,), altitude (H).
  • 2. La performance académique d'un étudiant sélectionné au hasard est caractérisée par un système de variables aléatoires - des notes placées en annexe du diplôme.

Un ensemble ordonné de variables aléatoires >,

donné sur l’espace des événements élémentaires est appelé un système de n variables aléatoires. Il est pratique de le considérer comme les coordonnées d’un vecteur aléatoire dans un espace à n dimensions. Un système de n variables aléatoires est fonction d'un événement élémentaire, c'est-à-dire :

Chaque événement élémentaire est associé à n nombres réels - valeurs acceptées par des variables aléatoires (X, X 2, ..., XJ à la suite de l'expérience.

Les variables aléatoires (X 1 ? X 2, ..., X) incluses dans le système peuvent être discrètes et non discrètes (continues et mixtes). Toutes les définitions de base du concept d'une variable aléatoire s'y appliquent pratiquement sans changement.

Considérons un système de deux variables aléatoires (X;Y). Ses concepts de base sont facilement généralisables au cas d’un plus grand nombre de composants. Un système de deux variables aléatoires (X;Y) peut être représenté par un point aléatoire sur le plan OXY (Fig. 2.18) ou un vecteur aléatoire (Fig. 2.19).

Une caractéristique complète d'un système de variables aléatoires est sa loi de distribution, qui prend diverses formes :

  • matrice de distribution ;
  • fonction de répartition ;
  • densité de distribution.

Un analogue de la série de distribution d'une variable aléatoire discrète X pour un système de deux variables aléatoires (X,Y) est la matrice de distribution - un tableau rectangulaire dans lequel

les probabilités sont organisées

Un événement est un produit d'événements (X = xd)

Et (Oui = oui).

La matrice de distribution de deux variables aléatoires discrètes a la forme :


Noter que

Sur la fig. La figure 2.20 montre un graphique de la distribution d'une variable aléatoire discrète bidimensionnelle (X, Y).

Connaissant la matrice de distribution d'une variable aléatoire discrète bidimensionnelle (X,Y), on peut déterminer la série de distribution de chaque composante (l'inverse est généralement impossible).

Les formules requises ressemblent à :

La formule la plus universelle de la loi de distribution pour un système de deux variables aléatoires est la fonction de distribution, que nous notons F(x,y).

La fonction de distribution de deux variables aléatoires (X,Y) est la probabilité de réalisation conjointe de l'inégalité : X x et Y y, c'est-à-dire

Géométriquement F(x,y) interprété comme la probabilité qu'un point aléatoire (X, Y) tombe dans un carré infini avec son sommet au point ( x, y), qui est situé à gauche et en dessous (Fig. 2.21).

Notez que les bordures supérieure et droite du carré ne sont pas incluses.

Si la matrice de distribution de deux variables aléatoires discrètes (2.49) est donnée, alors la fonction de distribution d'une variable aléatoire bidimensionnelle est déterminée par la formule :

Présentons quelques propriétés de la fonction de distribution d'une variable aléatoire bidimensionnelle.

1. Ensemble de valeurs de fonction de distribution F(x,y) appartient au segment, c'est-à-dire

2. Fonction de répartition F(x,y) est une fonction non décroissante de ses deux arguments, c'est-à-dire

3. Si au moins un des arguments de la fonction de distribution F(x,y) devient -oo, alors la fonction de distribution devient zéro, c'est-à-dire

  • 4. Si les deux arguments de la fonction de distribution F(x,y) se tourne vers +oo, alors il devient égal à un, c'est-à-dire F(+oo, +oo) = 1.
  • 5. Si l'un des arguments de la fonction de distribution devient +oo, alors la fonction de distribution d'un système de deux variables aléatoires devient la fonction de distribution de la variable aléatoire qui correspond à l'autre argument, c'est-à-dire

F x (x) et F 2 (y) - fonctions de distribution des variables aléatoires X et Y, respectivement.

6. Fonction de distribution d'un système de deux variables aléatoires F(x,y) est laissé continu par rapport à chacun de ses arguments, c'est-à-dire

Connaître la fonction de distribution F(x, y), vous pouvez trouver la probabilité de toucher un point aléatoire ( X, Y) en un rectangle G de côtés parallèles aux axes de coordonnées, limité par des abscisses une, b et les ordonnées c et d, avec les limites gauche et inférieure incluses dans G, mais les limites droite et supérieure ne sont pas incluses (Fig. 2.22).

Si la fonction de distribution F(x,y) est continu et différentiable par rapport à chacun des arguments, alors le système de deux variables aléatoires (X, Y) est continu, et les composants de ce système sont des variables aléatoires continues.

Pour les variables aléatoires bidimensionnelles continues, le concept de densité de distribution (ou densité de distribution conjointe) est introduit comme loi de distribution. f(x, y), qui est la deuxième dérivée partielle mixte de la fonction de distribution, c'est-à-dire

Densité de distribution f(x,y) représente une certaine surface, appelée surface de distribution (Fig. 2.23).

Densité de distribution f(x,y) a les propriétés suivantes :

  • 1) la densité de distribution est une fonction non négative, c'est-à-dire f(x, y) > 0;
  • 2) le volume limité par la surface de répartition et le plan Oxy est égal à l'unité, soit

3) la probabilité qu'un point aléatoire (X, Y) tombe dans la région G est déterminée par la formule

4) la fonction de distribution d'un système de deux variables aléatoires (X, Y) est exprimée à travers la densité de distribution conjointe comme suit :

Comme dans le cas d'une variable aléatoire, nous introduisons la notion d'élément de probabilité pour un système de deux variables aléatoires continues : f(x, y)dxdy.

Jusqu’à des ordres infinitésimaux supérieurs, l’élément de probabilité f(x, y)dxdy est égale à la probabilité qu'un point aléatoire (X, Y) tombe dans un rectangle élémentaire de dimensions dx et dy, adjacent à un point (x, y)(Fig. 2.24).

Cette probabilité est approximativement égale au volume d'un parallélépipède élémentaire de hauteur f(x, y), qui repose sur ce rectangle.

Les densités de distribution des composantes unidimensionnelles X et Y d'une variable aléatoire continue bidimensionnelle sont trouvées à l'aide des formules

Connaissant la densité de distribution conjointe d'une variable aléatoire continue bidimensionnelle/(x, y), vous pouvez trouver la fonction de distribution de chacune de ses composantes :

Si les lois de distribution des variables aléatoires X et Y incluses dans le système (X, Y) sont connues, alors il n'est possible de déterminer la loi de distribution du système que si les variables aléatoires X et Y sont indépendantes. Deux variables aléatoires X et Y ne seront indépendantes que si la loi de distribution de chacune d'elles ne dépend pas des valeurs que prend l'autre. Sinon, les valeurs de X et Y seront dépendantes.

Nous présentons sans preuve les conditions d'indépendance de deux variables aléatoires.

Théorème 2.2. Pour que deux variables aléatoires discrètes X et Y, formant le système (X, Y), soient indépendantes, il faut et suffisant que l'égalité

pour Vi = 1, n Et j = 1, T.

Théorème 2.3. Pour que les variables aléatoires X et Y incluses dans le système (X, Y) soient indépendantes, il faut et suffisant que la fonction de distribution du système soit égale au produit des fonctions de distribution de ses composants, c'est-à-dire

Théorème 2.4. Pour que les variables aléatoires continues X et Y incluses dans le système (X, Y) soient indépendantes, il faut et suffisant que l'égalité

c'est-à-dire que la densité de distribution conjointe du système (X, Y) doit être égale au produit des densités de distribution de ses composants.

Dans le cas où les variables aléatoires X et Y formant le système sont dépendantes, les notions de lois conditionnelles de distribution des variables aléatoires sont introduites pour caractériser leur dépendance.

Nous n’aborderons pas les lois conditionnelles de distribution dans ce manuel. Les personnes intéressées peuvent en prendre connaissance, par exemple sur.

Tout comme une variable aléatoire X, un système de deux variables aléatoires (X, Y) peut être spécifié par des caractéristiques numériques. En tant que tel, des moments initiaux et centraux de différents ordres sont généralement utilisés.

Le moment initial de la commande + s) d'un système de deux variables aléatoires (X et Y) est appelée l'espérance mathématique du produit Xk sur Oui, c'est-à-dire

Le moment central de l’ordre + s) d'un système de deux variables aléatoires (X, Y) est appelée l'espérance mathématique

travaux Xk sur U®, c'est à dire

où sont centrés aléatoirement

quantités.

Rappelons que l'ordre des moments initial et central est la somme de ses indices, c'est-à-dire + s).

Présentons des formules pour trouver les moments initiaux et centraux.

Pour un système de deux variables aléatoires discrètes, on a
Rappelons que

Pour un système de deux variables aléatoires continues on obtient

En pratique, les moments initiaux et centraux du premier et du deuxième ordre sont le plus souvent utilisés.

Il y a deux moments initiaux de premier ordre :

Ce sont les attentes mathématiques des variables aléatoires X et Y.

Point avec coordonnées ( M[X], M[Y]) sur le plan OXY - caractéristique de la position d'un point aléatoire (X, Y), c'est-à-dire que sa propagation se produit autour du point (M[X, M[Y]).

Les deux moments centraux du premier ordre sont égaux à zéro, c'est-à-dire

Il y a trois moments initiaux du second ordre :

Moment un 11 souvent trouvé dans les applications. A partir des expressions (2.66) et (2.68) les formules pour son calcul suivent :

Pour un système de deux variables aléatoires discrètes

Pour un système de deux variables aléatoires continues

Il y a trois moments centraux du second ordre :

Les deux premiers moments des formules (2.74) sont des dispersions. Et l'instant { est appelé covariance, ou moment de corrélation du système de variables aléatoires (X, Y). Une désignation spéciale est introduite pour cela K = Kxy. A partir des expressions (2.67) et (2.69) les formules pour son calcul suivent :

Pour un système de variables aléatoires discrètes

Pour les systèmes de variables aléatoires continues

Les moments centraux peuvent être exprimés à travers les moments initiaux et vice versa. La covariance est donc souvent exprimée en termes de moments initiaux.

c'est-à-dire que la covariance d'un système de deux variables aléatoires est égale à l'espérance mathématique de leur produit moins le produit de leurs espérances mathématiques.

Voici quelques propriétés de covariance :

1. La covariance est symétrique, c'est-à-dire que lorsque les indices sont échangés, elle ne change pas :

2. La variance d'une variable aléatoire est sa covariance avec elle-même, c'est-à-dire

3. Si les variables aléatoires X et Oui sont indépendants, alors la covariance est nulle :

La dimension du moment de corrélation est égale au produit des dimensions des variables aléatoires X et Y. Il est plus pratique d'utiliser un coefficient sans dimension qui caractérise uniquement la dépendance entre les variables aléatoires X et Y. Par conséquent, la covariance est divisée par le produit des écarts types a[X] x a[Y] et le coefficient de corrélation est obtenu :

Ce coefficient caractérise le degré de dépendance des variables aléatoires X et Y, et non aucune dépendance, mais uniquement linéaire. Pour deux variables aléatoires X et Y, l’inégalité suivante est vraie :

Si g xy= 0, alors il n'y a pas de relation linéaire entre les variables aléatoires X et Y et elles sont dites non corrélées. Si g xy F 0, alors les variables aléatoires X et Y sont dites corrélées.

Plus r est proche de ±1, plus la relation linéaire existe entre les variables aléatoires X et Y. Si r = ±1, alors entre les variables aléatoires X et Y il existe une relation linéaire fonctionnelle rigide de la forme

De l’indépendance des variables aléatoires X et Y, il s’ensuit qu’elles ne sont pas corrélées. Mais l’inverse n’est pas vrai dans le cas général, c’est-à-dire si g xy= 0, alors cela indique uniquement l'absence de relation linéaire entre les variables aléatoires. Ils peuvent être reliés entre eux par une relation curviligne.

Regardons un exemple spécifique.

Exemple 2.5

La matrice de distribution d'un système de deux variables aléatoires discrètes (X,Y) est donnée.

Trouver les caractéristiques numériques du système (X,Y) : M[X], M[Y], D[X], D[Y], st[X], a[Y], K)

Avez-vous aimé l'article? Partagez avec vos amis !