Distribution conjointe de variables aléatoires. Distribution conjointe de deux variables aléatoires

Soit n variables aléatoires x 1 , x 2 ,….,ξ n associées au test. Indiquons brièvement comment les concepts introduits dans ce chapitre sont transférés à ce cas.

1. La fonction de distribution conjointe des variables aléatoires x 1 , x 2 ,….,ξ n est la fonction

La densité de probabilité conjointe des variables aléatoires x 1 , x 2 ,….,ξ n est la fonction

Il y a l'égalité

2. Notons une je, σ j espérance mathématique et écart type d'une variable aléatoire ξ i, à ij – covariance des variables aléatoires ξ i, ξ j :

appelé matrice de dispersion variables aléatoires x 1, x 2,….,ξ n. Notons les propriétés suivantes de la matrice D.

1 0 . Les éléments de la diagonale principale de la matrice D sont les variances des variables aléatoires x 1, x 2,….,ξ n :

2 0 . La matrice D est symétrique : k ij =k ji .

3 0 . Les valeurs propres de la matrice D sont non négatives.

Les propriétés de 1 0, 2 0 sont évidentes. Nous invitons le lecteur à vérifier la propriété 3 0 pour le cas particulier n=2.

Dans ce cas, la matrice D a la forme

(28)

où r est le coefficient de corrélation des variables aléatoires x 1, x 2.

3. Au §3 de ce chapitre, le concept de distribution normale conjointe des variables aléatoires x 1, x 2 a été introduit - voir formule (25). Ce concept est généralisé comme suit. Les variables aléatoires x 1 , x 2 ,….,ξ n sont dites avoir une distribution normale conjointe si la densité de probabilité conjointe est donnée par la formule

où est le déterminant de la matrice de dispersion D,

avec ij – éléments de la matrice C=D -1.

Il est facile de vérifier que dans le cas particulier n=2 cette définition coïncide avec la définition (25) ; Pour ce faire, vous devez utiliser la formule (28) pour la matrice D et la formule d'inversion pour une matrice du second ordre avec un déterminant non nul :

(Nous encourageons le lecteur à vérifier par lui-même).

Les affirmations suivantes sont vraies : si x 1, x 2,….,ξ n ont une distribution normale conjointe, alors chacun d'eux séparément est également normal ; si chaque ξ i est normal et x 1 , x 2 ,….,ξ n sont indépendants, alors leur distribution conjointe est également normale et la formule est vraie

où f i (x) est la densité de probabilité ξ i . Dans la situation générale, la normalité de chaque individu ξ i n'implique pas la normalité de la distribution conjointe.

Le concept de distribution normale conjointe joue un rôle important dans les applications de la théorie des probabilités.

Chapitre 5. Loi des grands nombres. Théorèmes limites

Sous loi des grands nombres comprendre les modèles dans massif phénomènes aléatoires, lorsque l'interaction d'un grand nombre de facteurs aléatoires conduit à un résultat non aléatoire. Un exemple d'un modèle de ce type est donné en introduction : la proportion d'occurrence d'un événement aléatoire dans une longue série d'essais identiques et indépendants est pratiquement non aléatoire. Autre exemple remarquable : il s'avère que dans un certain nombre de cas la loi de répartition de la somme d'un grand nombre de termes aléatoires ne dépend pas des lois de répartition des termes et peut être prédite ! Le but des théorèmes limites en théorie des probabilités est de fournir des formulations et des justifications strictes pour diverses formes de la loi des grands nombres. Dans ce chapitre, nous examinerons brièvement ces types de résultats.

Soit l'espace des résultats élémentaires  d'une expérience aléatoire tel que chaque résultat  i j soit associé à une valeur de la variable aléatoire  égale à x i et la valeur de la variable aléatoire  égale à oui j.

1. Imaginons un grand ensemble de pièces ayant la forme d’une tige. L'expérience consiste à sélectionner au hasard une tige. Cette tige a une longueur, que nous désignerons par , et une épaisseur par - (vous pouvez préciser d'autres paramètres - volume, poids, finition, exprimés en unités standards).

2. Si l'on considère les actions de deux sociétés différentes, alors à un jour de bourse donné, chacune d'elles se caractérise par une certaine rentabilité. Les variables aléatoires  et  sont les rendements des actions de ces sociétés.

Dans ces cas, on peut parler de distribution conjointe des variables aléatoires  et , ou de variable aléatoire « bidimensionnelle ».

Si  et  sont discrets et prennent un nombre fini de valeurs ( – n valeurs, et  – k valeurs), alors la loi de distribution conjointe des variables aléatoires  et  peut être spécifiée si chaque paire de nombres x je , oui j (Où x je appartient à l'ensemble des valeurs , et oui j-ensemble de valeurs ) pour associer une probabilité p je j, égal à la probabilité qu'un événement combine tous les résultats  je j(et constitué uniquement de ces résultats), qui conduisent aux valeurs  = xi;  = oui j.

Cette loi de répartition peut être précisée sous forme de tableau :

oui 1

oui j

oui k

r 1 j

r 1 k

x je

r je 1

r je 2

r je j

r je k

P. je

x n

r n 1

r n 2

r n j

r n k

P. n

P. j

P. k

Évidemment

Si on résume tout r je j V je-ième ligne, on obtient alors la probabilité que la variable aléatoire  prenne la valeur x i. r je j V j De même, si nous résumons tout

-ème colonne, on obtient oui la probabilité que  prenne la valeur .

j x jeP. je (je Correspondance n= 1,2,, oui j P. j (j Correspondance k) détermine la loi de distribution de la variable aléatoire .

Évidemment ,.

Nous avons dit précédemment que les variables aléatoires  et  sont indépendantes si

pij=PiPj (je= 1,2, ,n;j= 1,2,, k).

Si ce n’est pas vrai, alors  et  sont dépendants.

Quelle est la dépendance des variables aléatoires  et  et comment peut-elle être identifiée à partir du tableau ?

Considérez la colonne oui 1. x je Chaque numéro

p je / 1 = (1)

faisons correspondre le numéro que nous appellerons probabilité conditionnelle = je x oui avec = P. je 1. que nous appellerons probabilité conditionnelle = je Veuillez noter que ce n'est pas une probabilité.

événements =

x, et comparez la formule (1) avec la formule de probabilité conditionnelle déjà connue.r, et comparez la formule (1) avec la formule de probabilité conditionnelle déjà connue./ 1 , (je Correspondance n)

je oui=1,2,,

nous appellerons la distribution conditionnelle de la variable aléatoire  avec = oui 2 ; oui 1. oui nÉvidemment . x je Des lois conditionnelles similaires de distribution de la variable aléatoire  peuvent être construites pour toutes les autres valeurs de  égales à p je / j =().

3 ,, oui j

x je

x n

p je / j

, correspondant au numéro oui j

probabilité conditionnelle x je Le tableau montre la loi de distribution conditionnelle de la variable aléatoire  à =

(j Correspondance k)

Vous pouvez introduire le concept d'espérance mathématique conditionnelle  lorsque  = x je :

Notez que  et  sont équivalents. Vous pouvez introduire une distribution conditionnelle  avec = conformité(/ = oui j Vous pouvez également introduire le concept d'espérance mathématique conditionnelle d'une variable aléatoire  pour = j Correspondance k De la définition il résulte que si  et  sont indépendants, alors toutes les lois de distribution conditionnelle sont les mêmes et coïncident avec la loi de distribution  (rappelons que la loi de distribution  est définie dans le tableau (*) par le premier et le dernier colonne). Dans ce cas, il est évident que toutes les attentes mathématiques conditionnelles coïncident

M

) à

, qui sont égaux à M.

Si les lois de distribution conditionnelle de  pour différentes valeurs de  sont différentes, alors on dit qu'il existe une dépendance statistique entre  et .

Exemple I. Soit la loi de distribution conjointe de deux variables aléatoires  et  soit donnée par le tableau suivant. Ici, comme mentionné précédemment, les première et dernière colonnes déterminent la loi de distribution de la variable aléatoire , et les première et dernière lignes déterminent la loi de distribution de la variable aléatoire .

Les polygones de distributions conditionnelles peuvent être représentés sur un graphique tridimensionnel (Fig. 1).

Ici, la dépendance de la loi de distribution conditionnelle  sur la valeur  est clairement visible.

Exemple II.

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Évidemment aussi Р(=3; =0)=0.

Construisons des polygones de distributions conditionnelles. Ici la dépendance de  sur  est assez proche du fonctionnel : la valeur =1 correspond au seul =2, la valeur =2 correspond au seul =3, mais pour =0 on peut seulement dire que  avec probabilité 3/4 prend la valeur 1 et avec probabilité 1/4 – valeur 2.

Exemple III.

Considérons la loi de distribution conjointe de  et , donnée par le tableau

Dans ce cas, la condition P(= x je ; =oui j)=P(= x je)P(= oui j), je, j =1,2,3

Construisons les lois des distributions conditionnelles

r =1 ()= r = 2 ()= r = 3 ()= r = 4 ()

Les lois des distributions conditionnelles  ne diffèrent pas les unes des autres lorsque =1,2,3 et coïncident avec la loi de distribution de la variable aléatoire .

Dans ce cas,  et  sont indépendants.

La dépendance entre les variables aléatoires  et  est caractérisée par l'espérance mathématique du produit des écarts  et  de leurs centres de distribution (comme on appelle parfois l'espérance mathématique d'une variable aléatoire), appelée coefficient de covariance ou simplement covariance. cov(; ) =((– cov(; ) =)(– cov(; ) =))

M x 1 , x 2 , x 1. x n ,  =  oui 1 , oui 2 , oui Soit  =  oui k 3 ,,

.

Alors

cov(; )=(2) x jecov(; ) =)( oui jcov(; ) = Cette formule peut être interprétée comme suit.

Si pour les grandes valeurs de  les grandes valeurs de  sont plus probables, et pour les petites valeurs de  les petites valeurs de  sont plus probables, alors sur le côté droit de la formule (2) les termes positifs dominent , et la covariance prend des valeurs positives.

Si les produits ( : ), constitué de facteurs de signes différents, c'est-à-dire que les résultats d'une expérience aléatoire conduisant à de grandes valeurs de  conduisent généralement à de petites valeurs de  et vice versa, alors la covariance prend de grandes valeurs négatives.

Dans le premier cas, il est d'usage de parler de lien direct : avec une augmentation de , la variable aléatoire  a tendance à augmenter. x jecov(; ) =)( oui jcov(; ) =)p je j Dans le deuxième cas on parle de feedback

à mesure que  augmente, la variable aléatoire  a tendance à diminuer ou à baisser. P.(( = x je)∩( = oui j)) = P.( = x je)P.( = oui j) (je Correspondance n; j Correspondance k Si à peu près la même contribution à la somme est apportée par les produits positifs et négatifs (

, alors on peut dire qu'au total ils vont « s'annuler » et la covariance sera proche de zéro. Dans ce cas, la dépendance d'une variable aléatoire par rapport à une autre n'est pas visible.

Il est facile de montrer que si ), alors cov(; )= 0..

Preuve (pour des variables aléatoires discrètes avec un nombre fini de valeurs).

Il est pratique de représenter la covariance sous la forme

cov(; )= cov(; ) =(– cov(; ) =–cov(; ) =+ cov(; ) =cov(; ) =)=cov(; ) =()– cov(; ) =( cov(; ) =)–cov(; ) =(cov(; ) =)+ cov(; ) =(cov(; ) =cov(; ) =)=

=cov(; ) =()– cov(; ) =cov(; ) =– cov(; ) =cov(; ) =+cov(; ) =cov(; ) ==cov(; ) =()– cov(; ) =cov(; ) =

La covariance de deux variables aléatoires est égale à l’espérance mathématique de leur produit moins le produit de leurs espérances mathématiques.

La propriété suivante de l’espérance mathématique est facilement prouvée : si  et  sont des variables aléatoires indépendantes, alors conformité()= conformitéconformité. cov(; ) =() = )

(Prouvez-le vous-même en utilisant la formule Ainsi, pour les variables aléatoires indépendantes  et  cov(;)=0. Tâches

.

    1. Une pièce est lancée 5 fois. Variable aléatoire  – nombre d'armoiries abandonnées, variable aléatoire  – nombre d'armoiries abandonnées au cours des deux derniers lancers. Construire une loi de distribution conjointe de variables aléatoires, construire des lois de distribution conditionnelle  pour différentes valeurs de .

Trouvez les attentes conditionnelles et la covariance de  et .

2. Deux cartes sont tirées au hasard dans un jeu de 32 feuilles.

La variable aléatoire  est le nombre d'as dans l'échantillon, la variable aléatoire  est le nombre de rois dans l'échantillon. Construire une loi de distribution conjointe pour  et , construire des lois de distribution conditionnelle pour  pour différentes valeurs de .

Trouvez les attentes conditionnelles et la covariance de  et .

Polygone de distribution CBX - le nombre de points obtenus en lançant un dé.

3Rangée de distribution, polygone de distribution

Les méthodes ou formes de présentation de la loi de distribution SW peuvent être différentes. La forme la plus simple de spécification de la loi de distribution de DSV X est une série de distribution. La série de distributions de probabilité DSV X est un tableau qui répertorie toutes les valeurs possibles de SV et les probabilités que CB prenne ces valeurs. Puisque les événements sont incompatibles, parce qu'ils ne peuvent prendre qu'un seul sens à la suite de l'expérience, et former un ensemble complet d'événements, alors. Par conséquent, pour vérifier l’exactitude du tableau, il est nécessaire de résumer toutes les probabilités.

Pour plus de clarté, les séries de distribution sont présentées graphiquement. Pour ce faire, toutes les valeurs possibles de SV sont tracées le long de l'axe

0x , et le long de l'axe

Les polygones de distribution peuvent avoir différentes formes.

Exemple- La probabilité qu'un cadet réussisse l'examen semestriel lors de la session dans les disciplines A et B, respectivement, est de 0,7 et 0,8. Compilez une série de distribution et construisez un polygone pour la répartition du nombre d'examens semestriels qu'un cadet passe.

Solution Valeurs possibles C B X - nombre d'examens réussis - 0, I, 2.

Que l'événement soit que le cadet passe je l'examen ( je=1, 2).

En supposant que et soient indépendants, nous aurons la probabilité que

que le cadet ne réussira pas les examens

qui réussira un examen

qu'il réussira deux examens

La série de distribution et le polygone de distribution ressembleront à

La loi de répartition du TCO peut être précisée sous diverses formes. Une forme d'affectation est la table de distribution SRES.

Soit X et Y des DSV dont les valeurs possibles sont , où,. Ensuite, la distribution d'un système de tels SV peut être caractérisée en indiquant les probabilités que SV X prenne une valeur et, en même temps, SV Y prenne une valeur. Les probabilités sont résumées dans un tableau de la forme

Une telle table est appelée table de distribution SRES (matrice) avec un nombre fini de valeurs possibles. Tous les événements possibles constituent un groupe complet d'événements incompatibles, donc

La colonne ou la ligne résultante du tableau de distribution représente respectivement la distribution des composantes univariées.

En effet, la distribution d'un SCV unidimensionnel peut être obtenue en calculant la probabilité d'un événement comme la somme des probabilités d'événements incompatibles.

De même

Ainsi Afin de trouver la probabilité à partir du tableau de distribution qu'un SV unidimensionnel ait pris une certaine valeur, vous devez résumer les probabilités de la ligne (colonne) de ce tableau correspondant à cette valeur.

Si nous fixons la valeur d'un argument, par exemple set , alors la distribution résultante de SVX est appelée la distribution conditionnelle de X sous condition.

Les probabilités de cette distribution seront les probabilités conditionnelles de l'événement, trouvées étant donné que l'événement s'est produit.

De la définition de la probabilité conditionnelle

De même, la distribution plus conditionnelle des VCA sous la condition est égale à

    Distributions standard de variables aléatoires.

Distribution uniforme et ses caractéristiques.

Loi de distribution d'une variable aléatoire et d'un vecteur aléatoire

Il faut aussi savoir avec quelles probabilités le SV prend ces valeurs, et plus généralement, quelles sont les probabilités que le SV touche certains intervalles de l'ensemble des points de l'axe. La forme la plus simple de spécification de la loi de distribution de DSV X est une série de distribution..

Les intervalles sont généralement considérés

Si toutes les valeurs possibles de SV sont connues, et s'il est possible de trouver les probabilités de divers événements associés à SV, c'est-à-dire trouver les probabilités de tomber dans un intervalle particulier, alors d'un point de vue probabiliste tout est connu sur ce SV.

La loi de distribution de SV est toute relation qui établit un lien entre les valeurs possibles de SV et les probabilités correspondantes.

On dit de SV qu'elle est soumise à cette loi de répartition. Il peut être spécifié analytiquement, sous forme de tableau, graphiquement.

Une caractéristique d’un vecteur aléatoire est aussi sa loi de distribution.

La loi de répartition du TCO est une relation qui établit un lien entre les zones de valeurs possibles du TCO et les probabilités du système apparaissant dans ces zones.

Tout comme pour un SV, la loi de distribution de SV peut être spécifiée sous diverses formes.

Une fonction de distribution conjointe de variables aléatoires est une fonction dépendant de n variables réelles telle que la Proposition 4.1 (Pas de preuve) . Listons quelques propriétés des fonctions de distribution de plusieurs variables aléatoires : Monotonie pour chaque variable, par exemple,

Limites à « moins l'infini » : si dans la fonction de distribution conjointe nous fixons toutes les variables sauf une et dirigeons la variable restante vers, alors la limite est égale à zéro. Par exemple, pour des limites fixes à « plus l'infini ». Par exemple, Droites de régression, corrélations Si deux variables aléatoires X et Y ont des fonctions de régression linéaire l'une par rapport à l'autre, alors les valeurs X et Y sont dites liées

dépendance de corrélation linéaire. Théorème. Si une variable aléatoire bidimensionnelle (X, Y) est normalement distribuée, alors X et Y sont liés par une corrélation linéaire.

Les trois premiers moments (variance attendue et troisième moment central) de la somme c2 sont respectivement égaux à f, 2f, 8f. La somme de deux variables aléatoires indépendantes c1^2 et c2^2, avec f^1 et f^2 degrés de liberté, obéit au « H.-k ». r. avec f^1 + f^2 degrés de liberté. Exemples de "H.-k." r. peut servir de distributions de carrés de variables aléatoires qui obéissent à la distribution de Rayleigh et à la distribution de Maxwell. En termes de "H.-K." r. avec un nombre pair de degrés de liberté, la distribution de Poisson s'exprime : Si le nombre de termes f de la somme c2 augmente sans limite, alors, selon le théorème central limite, la distribution du rapport normalisé converge vers la distribution normale standard : où

Une conséquence de ce fait est une autre relation limite, pratique pour calculer Ff (x) pour de grandes valeurs de f :

Répartition des étudiants

Cette distribution tire son nom du pseudonyme Student, avec lequel le scientifique anglais Gosset signait ses travaux sur les statistiques. Soit des variables aléatoires normales standard indépendantes. La distribution de Student à degrés de liberté est la distribution de la variable aléatoire suivante : (46) Si l'on rappelle la variable aléatoire introduite par la formule (44), on peut dire que la relation a une distribution de Student. La densité de cette distribution est une fonction symétrique donnée par la formule. La forme du graphique de fonction ressemble au graphique de densité de la loi normale standard, mais avec une diminution plus lente des « queues ». Lorsque la séquence de fonctions converge vers une fonction qui est la densité de distribution. Pour comprendre pourquoi ce fait se produit, il faut faire attention au fait que, selon la loi des grands nombres, le dénominateur de l'expression (46) tend à

Soit l'espace des résultats élémentaires W d'une expérience aléatoire tel que chaque résultat w i j soit associé à une valeur de la variable aléatoire X égale à x i et la valeur de la variable aléatoire Y égale à oui j.

1. Imaginons un ensemble de pièces caractérisé par 2 dimensions hors tout. Une expérience aléatoire consiste à sélectionner au hasard une partie. Cette pièce a une longueur, que nous noterons X, et une épaisseur, Y.

2. Si le résultat de l'expérience est la sélection d'un étudiant qui sera nominé pour une bourse majorée. Alors X et Y sont les scores moyens des deux dernières sessions

Dans ce cas, on peut parler de distribution conjointe des variables aléatoires X et Y ou de variable aléatoire « bidimensionnelle ».

Si X et Y sont discrets et prennent un nombre fini de valeurs (X – n valeurs, et Y – m valeurs), alors la loi de distribution conjointe des variables aléatoires X et Y peut être spécifiée si chaque paire de nombres x je, yj(Où x je appartient à l'ensemble des valeurs X, et yj-ensemble de valeurs Y) pour correspondre à la probabilité p ij, égal à la probabilité d'un événement combinant tous les résultats w je(et constitué uniquement de ces résultats), qui conduisent aux valeurs X = x je; Oui= yj.

Cette loi de répartition peut être précisée sous forme de tableau :

et les première et dernière lignes donnent la série de distribution de la variable aléatoire Y. Le tableau est la loi de distribution d'une variable aléatoire discrète bidimensionnelle si la somme des probabilités dans la dernière ligne ou dans la dernière colonne (et, par conséquent, la somme des probabilités dans le tableau) = 1.

A l'aide de ce tableau, par analogie avec le cas unidimensionnel, on peut déterminer la fonction de distribution conjointe. Pour ce faire, il faut additionner p ij sur tout i, j pour lequel x je< x, y j < y

Considérons exemple(« TV » MSTU du nom de Bauman)

Conformément au schéma de Bernoulli, avec une probabilité de réussite p et une probabilité d'échec q = 1-p, 2 tests sont réalisés.

Considérons la distribution d'un vecteur bidimensionnel (X 1, X 2), dont chacune peut prendre 2 valeurs : 0 ou 1 (le nombre de réussites dans l'expérience correspondante). Le nombre de réussites dans les deux essais est nul lorsque 2 échecs surviennent, ce qui, du fait de l’indépendance, est égal à qq. C'est pourquoi

et à l'intersection des colonnes « 0 » on écrit q 2.

Fonction de distribution conjointe F (x 1 , x 2) définit une surface dans un espace tridimensionnel.

Définition. Loi sur la distribution conditionnelle(X |Y=y j)(j conserve la même valeur pour toutes les valeurs de X) est un ensemble de probabilités conditionnelles p(x 1 |y j), p(x 2 |y j),… p(x n |y j) , et les probabilités conditionnelles sont calculées à l'aide des formules :



р(X=x i |Y=y j) = р(X=x i ,Y=y j) / р(Y=y j)

Exemple. Une quantité discrète bidimensionnelle est spécifiée

X
P. 0,2 0,32 0,48

р(X=x 1 |Y=y 1) = р(X=x 1,Y=y 1) / р(Y=y 1)= 0,15/0,8 = 3/16

р(X=x 2 |Y=y 1) = р(X=x 2,Y=y 1) / р(Y=y 1)=0,3/0,8 = 3/8

р(X=x 3 |Y=y 1) = р(X=x 3,Y=y 1) / р(Y=y 1) = 0,35/0,8 = 7/16

X
p(X |Y=y1) 3/16 3/8 7/16

Vérifier : la somme des probabilités est 1.

Commentaire. De cette manière, il est possible de vérifier l’indépendance des variables aléatoires. Semblable au cas de l’indépendance des événements, l’indépendance des variables aléatoires peut être déterminée par des probabilités conditionnelles. Il ne reste plus qu'à comparer les lois de distribution conditionnelles et inconditionnelles.

Exemple.

Considérons une boîte contenant deux cartes portant le chiffre 1 et trois cartes portant le chiffre 2. Deux cartes sont retirées l'une après l'autre. X est le numéro sur la première carte. Y – à la seconde. Trouver la loi de distribution conjointe (X,Y)

Nous utilisons la formule du produit des probabilités P((X,Y)=(1,1)) = P(X=1)P(Y=1|X=1)=2/5× ¼ = 1/10

(X, Oui) (1,1) (1,2) (2,1) (2,2)
P. 1/10 3/10 3/10 3/10

Somme des probabilités = 1.

Soit n variables aléatoires  1,  2,….,ξ n associées au test. Indiquons brièvement comment les concepts introduits dans ce chapitre sont transférés à ce cas.

1. La fonction de distribution conjointe des variables aléatoires  1,  2,….,ξ n est la fonction

La densité de probabilité conjointe des variables aléatoires  1,  2,….,ξ n est la fonction

Il y a l'égalité

2. Notons UN je , σ j espérance mathématique et écart type d'une variable aléatoire ξ i, à ij – covariance des variables aléatoires ξ i, ξ j :

appelé matrice de dispersion variables aléatoires  1,  2,….,ξ n. Notons les propriétés suivantes de la matrice D.

1 0 . Les éléments de la diagonale principale de la matrice D sont les variances des variables aléatoires  1,  2,….,ξ n :

2 0 . La matrice D est symétrique : k ij =k ji .

3 0 . Les valeurs propres de la matrice D sont non négatives.

Les propriétés de 1 0, 2 0 sont évidentes. Nous invitons le lecteur à vérifier la propriété 3 0 pour le cas particulier n=2.

(28)

Dans ce cas, la matrice D a la forme

où r est le coefficient de corrélation des variables aléatoires  1,  2.

3. Au §3 de ce chapitre, le concept de distribution normale conjointe des variables aléatoires  1,  2 a été introduit - voir formule (25). Ce concept est généralisé comme suit. Les variables aléatoires  1,  2,….,ξ n sont dites avoir une distribution normale conjointe si la densité de probabilité conjointe est donnée par la formule

- déterminant de la matrice de dispersion D,

avec ij – éléments de la matrice C=D -1.

Il est facile de vérifier que dans le cas particulier n=2 cette définition coïncide avec la définition (25) ; Pour ce faire, vous devez utiliser la formule (28) pour la matrice D et la formule d'inversion pour une matrice du second ordre avec un déterminant non nul :

(Nous encourageons le lecteur à vérifier par lui-même).

Les affirmations suivantes sont vraies : si  1,  2,….,ξ n ont une distribution normale conjointe, alors chacun d'eux séparément est également normal ; si chaque ξ i est normal et qu'en même temps  1,  2,....,ξ n sont indépendants, alors leur distribution conjointe est également normale, et la formule est vraie

où f i (x) est la densité de probabilité ξ i . Dans la situation générale, la normalité de chaque individu ξ i n'implique pas la normalité de la distribution conjointe.

Chapitre 5. Loi des grands nombres. Théorèmes limites

Le concept de distribution normale conjointe joue un rôle important dans les applications de la théorie des probabilités. loi des grands nombres Sous massif phénomènes aléatoires, lorsque l'interaction d'un grand nombre de facteurs aléatoires conduit à un résultat non aléatoire. Un exemple d'un modèle de ce type est donné en introduction : la proportion d'occurrence d'un événement aléatoire dans une longue série d'essais identiques et indépendants est pratiquement non aléatoire. Autre exemple remarquable : il s'avère que dans un certain nombre de cas la loi de répartition de la somme d'un grand nombre de termes aléatoires ne dépend pas des lois de répartition des termes et peut être prédite ! Le but des théorèmes limites en théorie des probabilités est de fournir des formulations et des justifications strictes pour diverses formes de la loi des grands nombres. Dans ce chapitre, nous examinerons brièvement ces types de résultats.

§1. Loi des grands nombres sous la forme de Chebyshev

En pratique, le modèle suivant est bien connu, qui peut être formulé comme suit : la moyenne arithmétique d'un grand nombre indépendantdu même genre les facteurs aléatoires ne sont pratiquement pas une coïncidence. Par exemple, la moyenne arithmétique d'un grand nombre de mesures d'une même grandeur ne diffère pratiquement pas de la valeur réelle de cette grandeur ; l'énergie cinétique moyenne d'un grand nombre de molécules en mouvement chaotique n'est pratiquement pas aléatoire et caractérise la température du corps.

Les méthodes de la théorie des probabilités permettent de donner une formulation mathématique stricte de cette loi.

Soit une séquence infinie de variables aléatoires

 1 , 2 , … , n , … (29)

Appelons brièvement les variables aléatoires (29) même type s'ils ont la même espérance mathématique UN et la même variance D.

Théorème. Supposons que les variables aléatoires (29) soient du même type et indépendantes, alors la relation est vraie

à n, (30)

UN=conformité[ k ],k= 1, 2, …, – tout nombre positif arbitrairement petit.

Cela signifie : avec une taille suffisamment grande n avec une certitude pratique (avec probabilité100%) l'égalité

.

Ce théorème a été prouvé pour la première fois par le mathématicien russe P.L. Chebyshev. La preuve du théorème repose sur trois lemmes.

Lemme 1. Soit la variable aléatoire≥ 0. Alors l'inégalité est vraie

R.(≥) ≤, (31)

où  est n’importe quel nombre positif.

Preuve Faisons-le pour une variable aléatoire continue. Densité de probabilité d'une variable aléatoire f(X) = 0 à X< 0, так как≥ 0.

Par définition de l’espérance mathématique, nous avons :



(≥),

d'où l'inégalité (31).

Lemme 2. Soit une variable aléatoire avec des caractéristiques numériques ( UN,D), alors l’inégalité suivante est vraie :

R.(|– un| < ) ≥ 1 – .

Preuve. Nous avons

R.(|– un| ≥ ) =P. ((– un) 2 ≥ 2) ≤
.

Ici nous utilisons l’inégalité (31) avec  = ( – un) 2 ,  = 2 .

De l’inégalité qui en résulte, il résulte

R.(|– un| < ) = 1 –R.(|– un| ≥ ) ≥ 1 – .

Lemme 3. Soit  1 , 2 , …, n- des variables aléatoires indépendantes du même type avec des caractéristiques numériques ( UN,D). Alors pour tout>0 l'inégalité est vraie

≥ 1 – . (32)

– tout nombre positif, un = cov(; ) =[ je ],D = D[ je ],je= 1, 2, …,n..

L'inégalité (32) est appelée Inégalité de Chebyshev.

Preuve. Notons

.

Des propriétés de l'espérance mathématique et de la dispersion pour les variables aléatoires indépendantes, il résulte :

Ainsi, la variable aléatoire a des caractéristiques numériques
; En lui appliquant le lemme 2, nous obtenons l’inégalité requise (32).

Preuve du théorème de Chebyshev.

En vertu de l’inégalité de Chebyshev (32), nous avons pour tout n double inégalité

1 ≥
≥ 1 – .

Aller à la limite à net en tenant compte du théorème de comparaison issu de la théorie des limites, on obtient la relation recherchée (30).

Commentaire. Introduisons un terme pratique. Soit une séquence de variables aléatoires

 1 , 2 , …, n , … . (33)

On dit que la séquence (33) converge en probabilitéà une valeur non aléatoire UN et écrire

à n,

si pour tout > 0 la relation est satisfaite

R.(| nun| < )1 à n.

Évidemment, le théorème de Chebyshev peut être formulé comme suit : la moyenne arithmétique de variables aléatoires indépendantes du même type, avec une augmentation illimitée du nombre de termes, converge en probabilité vers leur espérance mathématique commune.

Exemple. Combien de mesures indépendantes d'égale précision d'une grandeur donnée doivent être effectuées afin de garantir, avec une probabilité d'au moins 0,95, que la moyenne arithmétique de ces mesures ne s'écarte pas de plus de 1 de la valeur réelle de la grandeur (en valeur absolue), si l'écart type de chaque mesure ne dépasse pas 5 ?

Solution. Laissez je- résultat jeème dimension ( je= 1,2,…,n),un– la vraie valeur de la grandeur mesurée, c'est-à-dire cov(; ) =[ je ] =unà tout moment je; en tenant compte de l'équi-précision des mesures je ont la même dispersion D≤ 25. En raison de l'indépendance des mesures je sont des variables aléatoires indépendantes.

Il faut trouver n, à laquelle

≥ 0,95.

Conformément à l’inégalité de Chebyshev (32), cette inégalité sera satisfaite si

1 – ≥ 1– ≥ 0,95, facile à trouver

n≥500 mesures.



Avez-vous aimé l'article? Partagez avec vos amis !