Fonction de deux arguments aléatoires. Fonctions de variables aléatoires

Si chaque paire de valeurs possibles Variables aléatoires X Et Oui correspond à une valeur possible de la variable aléatoire Z, Que Z appelé fonction de deux arguments aléatoires X Et Oui :

Z= j ( X, Oui).

D'autres exemples montreront comment trouver la distribution de la fonction Z = X + Oui selon des distributions de termes connues. Ce problème se produit souvent dans la pratique. Par exemple, si X- erreur de lecture de l'appareil de mesure (normalement distribué), Oui- l'erreur d'arrondi des lectures à la division d'échelle la plus proche (également répartie), alors la tâche se pose - trouver la loi de distribution de la somme des erreurs Z=X+Y.

1. Laissez X Et Oui-variables aléatoires indépendantes discrètes. Afin d'établir la loi de distribution de la fonction Z = X + Oui, nous devons tout trouver valeurs possibles Z et leurs probabilités.

Exemple 1. Les variables aléatoires indépendantes discrètes sont spécifiées par des distributions :

X Oui
p 0, 4 0, 6 p 0, 2 0, 8

Créer une distribution d'une variable aléatoire Z = X+Y.

Solution. Valeurs possibles Z il y a des sommes de chaque valeur possible X avec toutes les valeurs possibles Oui :

z 1 = 1+ 3= 4; z 2 = 1+ 4= 5; z 3 = 2+ 3= 5; z 4 = 2+ 4= 6.

Trouvons les probabilités de ces valeurs possibles. Pour Z= 4, il suffit que la valeur X a pris le sens X 1 =1 et valeur Oui- signification oui 1 = 3. Les probabilités de ces valeurs possibles, telles qu'elles résultent de ces lois de répartition, sont respectivement égales à 0,4 et 0,2.

Arguments X Et Oui sont indépendants, donc les événements X= 1i Oui= 3 sont indépendants et, par conséquent, la probabilité de leur occurrence conjointe (c'est-à-dire la probabilité de l'événement Z= 1+3 = 4) par le théorème de multiplication est égal à 0,4*0,2 = 0,08.

De même on retrouve :

P.(Z= 1+ 4= 5) = 0, 4* 0, 8= 0, 32;

R.(Z= 2 + 3 = 5) = 0, 6* 0, 2 = 0, 12;

R.(Z= 2 + 4 = 6)= 0, 6* 0, 8 = 0, 48.

Écrivons la distribution requise en additionnant d'abord les probabilités événements incompatibles Z = z 2 , Z = z 3 (0,32+0,12 = 0,44):

Z
p 0, 08 0, 44 0, 48

Contrôle : 0,08 + 0,44 + 0,48 = 1.

2. Laissez X Et Oui- variables aléatoires continues. Prouvé : si X Et Oui indépendant, alors la densité de distribution g(z) les montants Z = X + Oui(à condition que la densité d'au moins un des arguments soit spécifiée sur interval() par une formule) peut être trouvée en utilisant l'égalité

(*)

ou en utilisant une égalité équivalente

(**)

F 1 ,F 2 - densités de distribution des arguments.

Si les valeurs possibles des arguments sont non négatives, alors g(z) se trouvent à l’aide de la formule

(***)

ou par une formule équivalente

(****)

La densité de distribution de la somme des variables aléatoires indépendantes est appelée composition.

La loi de distribution de probabilité s'appelle durable, si la composition de ces lois est la même loi (différant, d'une manière générale, par les paramètres). Une loi normale a la propriété de stabilité : la composition des lois normales a aussi distribution normale (valeur attendue et la variance de cette composition sont égales respectivement aux sommes des espérances mathématiques et des variances des termes). Par exemple, si X Et Oui- variables aléatoires indépendantes distribuées normalement avec des espérances mathématiques et des variances respectivement égales UN 1 = Z, une 2 = 4, D 1 =1, D 2 = 0, 5, puis la composition de ces quantités (c'est-à-dire la densité de probabilité de la somme Z = X+ Oui)est également normalement distribué, et l'espérance mathématique et la variance de la composition sont respectivement égales UN = 3 + 4 = 7; D=l +0,5=1,5.

Exemple 2. Variables aléatoires indépendantes X Et Oui sont donnés par les densités de distribution :

F(X)= ;

F(oui)= .

Trouver la composition de ces lois, c'est-à-dire la densité de distribution de la variable aléatoire Z = X+Y.

Solution. Les valeurs possibles des arguments sont non négatives, nous utiliserons donc la formule (***)

Notez qu'ici z 0 parce que Z=X+Y et, par condition, les valeurs possibles X Et Oui non négatif.

Distribution du chi carré

Laisser X je(je = 1, 2, ...,P) sont des variables aléatoires indépendantes normales, et l'espérance mathématique de chacune d'elles est égale à zéro et l'écart type est égal à un. Alors la somme des carrés de ces quantités

distribué selon la loi du chi carré avec k = n degrés de liberté; si ces quantités sont liées par une relation linéaire, par exemple , puis le nombre de degrés de liberté k=n- 1.

La densité de cette distribution

- fonction gamma ; en particulier,

(m+ 1)=n!.

Cela montre que la distribution du Chi carré est déterminée par un paramètre : le nombre de degrés de liberté. k.

À mesure que le nombre de degrés de liberté augmente, la distribution se rapproche lentement de la normale.

Répartition des étudiants

Laisser Z est une variable aléatoire normale, et M(Z) = 0, s( Z)= 1, un V-indépendant de Z une quantité qui est distribuée conformément à la loi avec k degrés de liberté. Alors la valeur

a une distribution appelée t- distribution ou distribution Student (pseudonyme du statisticien anglais W. Gosset), avec k degrés de liberté.

Ainsi, le rapport du normalisé taille normaleÀ racine carréeà partir d'une variable aléatoire indépendante distribuée selon la loi du chi carré avec k degrés de liberté divisés par k, distribué selon la loi de Student avec k degrés de liberté.

À mesure que le nombre de degrés de liberté augmente, la distribution de Student se rapproche rapidement de la normale. Informations Complémentaires sur cette répartition sont donnés ci-dessous (voir chapitre XVI, § 16).

§ 15. Répartition F Fischer - Snédécor

Si U Et V-variables aléatoires indépendantes distribuées selon la loi avec degrés de liberté k 1 et k 2 , alors la valeur

a une distribution appelée la distribution F Fischer-Snedecor avec degrés de liberté k 1 et k 2 (parfois désigné par V 2).

La densité de cette distribution

On voit que la distribution F est déterminé par deux paramètres : le nombre de degrés de liberté. Des informations complémentaires sur cette répartition sont données ci-dessous (voir chapitre XIX, § 8).

Tâches

1. Trouver l'espérance mathématique et la variance d'une variable aléatoire X, connaissant sa densité de distribution :

UN) pour d'autres valeurs X;

b) F(X)= 1/ 2jeà UN- lxa+l, F(X)= 0 pour les autres valeurs X.

représentant un)M(X)= 0, D(X) = l/2; b) M(X)= une, ré(X)= je 2 / 3.

2. Valeur aléatoire X normalement distribué. L'espérance mathématique et l'écart type de cette valeur sont respectivement égaux à 6 et 2. Trouvez la probabilité que cela résulte du test. X prendra la valeur contenue dans l’intervalle (4,8).

représentant 0,6826.

3. La variable aléatoire est normalement distribuée. L'écart type de cette valeur est de 0,4. Trouver la probabilité que l'écart d'une variable aléatoire par rapport à son espérance mathématique par valeur absolue sera inférieur à 0,3.

représentant 0,5468.

4. Des erreurs de mesure aléatoires sont sujettes à loi normale avec moyenne écart carré s=1 mm et espérance mathématique UN= 0. Trouvez la probabilité que sur deux observations indépendantes, l'erreur d'au moins l'une d'entre elles ne dépasse pas 1,28 mm en valeur absolue.

représentant 0,96.

5. Les rouleaux produits par une machine automatique sont considérés comme standard si l'écart du diamètre du rouleau par rapport à la taille de conception ne dépasse pas 2 mm. Déviations aléatoires les diamètres des rouleaux obéissent à la loi normale avec un écart type s = 1,6 mm et une espérance mathématique une = 0. Quel pourcentage de rouleaux standards la machine produit-elle ?

représentant Environ 79 %.

6. Variable aléatoire discrète X est donnée par la loi de distribution :

X
p 0, 2 0, 1 0, 7

Si chaque paire de valeurs possibles des variables X et Y correspond à une valeur possible de la variable aléatoire Z, alors Z est appelé fonction de deux cas des arguments X et Y : Z=φ(X, Y).

1. Soit X et Y des quantités discrètes indépendantes.

Afin d'établir la loi de distribution de la fonction Z=X+Y, il faut trouver toutes les valeurs possibles de Z et leurs probabilités. Parce que X et Y sont des quantités indépendantes, alors zi=xi+yi, pz=px*py. Si zi=zj, alors leurs probabilités s'additionnent.

2. Soit X et Y des quantités continues. Il a été prouvé : si X et Y sont indépendants, alors la densité de distribution g(z) de la somme Z=X+Y (à condition que la densité d'au moins un des arguments soit donnée sur l'intervalle (-∞;∞ ) par une formule) peut être trouvé à l'aide de la formule :

Où f1, f2 sont les densités de distribution des arguments.

Si les valeurs possibles des arguments sont non négatives, alors g(z) est trouvé à l'aide de la formule :

La densité de distribution de la somme de quantités aléatoires indépendantes est appelée composition, et la loi de distribution de probabilité est dite stable si la composition de ces lois est la même loi. M(z)=M(x)+M(y); D(z)=D(x)+D(y).

Vous pouvez également trouver les informations qui vous intéressent dans le moteur de recherche scientifique Otvety.Online. Utilisez le formulaire de recherche :

En savoir plus sur le sujet 26. Fonction de deux arguments aléatoires :

  1. 15. Dérivées partielles des fonctions de deux arguments, leur signification géométrique.
  2. 23. Les valeurs les plus petites et les plus grandes d'une fonction de deux arguments dans une région fermée.
  3. Espérance mathématique d'une fonction scalaire d'arguments aléatoires. Cas discret bidimensionnel.
  4. 31. Fonction de distribution d'un système de deux variables aléatoires
  5. 120. Montrez avec un exemple et expliquez l'essence des techniques dans un différend : « argument au public », « argument à la pitié », « argument à l'ignorance », « argument à la vanité » et « argument à l'individu ». Illustrez avec un exemple et expliquez le terme logique « vérification ».

Si chaque paire de variables aléatoires
Et correspond à une des valeurs possibles de la variable aléatoire , Que
appelé fonction de deux arguments aléatoires
Et . En pratique, la tâche la plus courante est de trouver la loi de distribution de la fonction
selon des distributions de termes connues.
Par exemple, si est l'erreur de lecture d'un appareil de mesure (généralement distribué normalement), et
.


- l'erreur d'arrondi des lectures de cet appareil (uniformément répartie), alors la tâche se pose - trouver la loi de distribution de la somme des erreurs
qui sont spécifiés par leurs lois de distribution.
Et Puis les valeurs possibles de la variable aléatoire - ce sont toutes les valeurs possibles des sommes de valeurs
Et , et les probabilités des valeurs correspondantes

se trouvent comme produits des probabilités correspondantes de valeurs
Et .

inclus dans et comme les sommes de ces produits, si une valeur de la somme correspond à différentes combinaisons de valeurs
Et .

Exemple 1.
Soit la série de distribution de variables aléatoires discrètes

Alors la fonction :

prend les valeurs : 1, 3, 4, 6, 7, 8, 9. On retrouve les probabilités de ces valeurs à l'aide des théorèmes de multiplication et d'addition de probabilités comme suit :
.

On obtient la série de distribution de la variable aléatoire
Et -La somme des probabilités dans la ligne du bas est égale à 1, donc ce tableau précise en fait la série de distribution de la variable aléatoire 7.2.
Et - sont indépendants, connaissant alors les densités de distribution des variables aléatoires
Et -
, respectivement, la densité de distribution de la variable aléatoire

peut être trouvé en utilisant l’une des formules suivantes :

;

.

En particulier, si
prendre uniquement des valeurs positives sur l'intervalle
, puis remplissant les formules suivantes :


EXEMPLE 2. Soit des variables aléatoires indépendantes
Et sont donnés par leurs densités de distribution :


Trouver la loi de distribution d'une variable aléatoire
.

Ainsi,

Il est facile de vérifier que la propriété principale de la densité de distribution est satisfaite, à savoir :

§ 8. Systèmes de variables aléatoires

8.1 Lois de distribution d'un système de variables aléatoires.

Toutes les variables aléatoires considérées jusqu'à présent ont été définies par un seul nombre (un argument) - des variables aléatoires unidimensionnelles. Mais, en plus d'eux, nous pouvons considérer des quantités qui dépendent de deux, trois arguments ou plus, les variables aléatoires dites multidimensionnelles, qui peuvent être considérées comme des systèmes de variables aléatoires unidimensionnelles.
À travers
Et - désigne une variable aléatoire bidimensionnelle, et chacune des valeurs - appelé .

composant (composant) Une variable aléatoire bidimensionnelle est appelée discret

, si ses composantes sont des variables aléatoires discrètes. Continu

appelée variable aléatoire bidimensionnelle, dont les composantes sont des variables aléatoires continues. La loi de distribution d'une variable aléatoire bidimensionnelle discrète

appelé un tableau de la forme :
,

Depuis les événements formulaire groupe complet

événements incompatibles, alors la somme de toutes les probabilités du tableau est égale à un.

Connaissant la loi de distribution d'une variable aléatoire bidimensionnelle, vous pouvez trouver la loi de distribution de chaque composante :

(somme des probabilités dans la colonne du tableau) ;

(somme des probabilités dans la ligne du tableau). Exemple 1 .

La loi de distribution du hasard bidimensionnel
Et .

quantités:
Élaborer des lois de distribution de variables aléatoires

Valeur aléatoire a une répartition : Définition.
Fonction de distribution d'une variable aléatoire bidimensionnelle
est appelée une fonction qui a du sens pour les variables aléatoires discrètes et continues. Géométriquement, cette égalité peut être interprétée comme la probabilité qu'un point aléatoire

tombe dans un carré infini avec son sommet au point

, situé à gauche et en dessous de ce sommet.
.

PROPRIÉTÉS DE BASE DE LA FONCTION DE DISTRIBUTION : Propriété 1.

Propriété 2. La fonction de distribution est une fonction non décroissante pour les deux arguments, c'est-à-dire Et Propriété 3.

Pour tous les relations suivantes sont vérifiées :

Valeur aléatoirePropriété 4. distribution conjointe Les probabilités d'une variable aléatoire continue bidimensionnelle sont appelées dérivée seconde mixte de la fonction de distribution, c'est-à-dire

.

Exemple 2. La fonction de distribution du système de variables aléatoires est donnée
:
Trouvez sa densité de distribution.

Que la densité de distribution du système de variables aléatoires soit connue
-
.

,

Ensuite, la fonction de distribution peut être trouvée en utilisant l'égalité :

Cela découle directement de la définition de la densité de distribution.
Probabilité de réussite
à la région

est déterminé par l'égalité

, situé à gauche et en dessous de ce sommet. PROPRIÉTÉS DE LA DENSITÉ DE DISTRIBUTION BIDIMENSIONNELLE.

PROPRIÉTÉS DE BASE DE LA FONCTION DE DISTRIBUTION : La densité de distribution bidimensionnelle est toujours positive : Double intégrale impropre

avec des limites d'intégration infinies à partir de la densité de distribution est égale à l'unité
Si la densité de distribution de probabilité conjointe d'un système de deux variables aléatoires est connue, alors les densités de distribution de chaque composante peuvent être trouvées.
Mais

.

.

,

Alors De la même manière, nous obtenons

Exemple 3.
Et

Soit la densité de distribution bidimensionnelle
Trouver la densité de distribution de variables aléatoires
à Et et est égal à zéro en dehors de cet intervalle. De même, en raison de la symétrie de la fonction

      relativement

, on a:
Lois conditionnelles de distribution.

Un concept similaire au concept de probabilité conditionnelle pour les événements aléatoires

, peut être introduit pour caractériser la dépendance entre variables aléatoires. Considérons séparément les cas de variables aléatoires bidimensionnelles discrètes et continues. UN)

Pour une quantité aléatoire bidimensionnelle discrète,

tableau donné : les probabilités conditionnelles sont calculées à l'aide des formules :

Commentaire. Les sommes des probabilités conditionnelles correspondantes sont égales à un, c'est-à-dire

Exemple 4.
Soit une variable aléatoire discrète donnée par le tableau : Trouver la loi de distribution conditionnelle du composant .

à condition que la variable aléatoire

a pris le sens Évidemment, la somme de ces probabilités est égale à un. b) Pour
Variable aléatoire bidimensionnelle continue
densité de distribution conditionnelle
composant

,

à une valeur donnée appelé attitude
densité de distribution conditionnelle
-
.

de la même manière, densité de distribution conditionnelle
Exemple 5.
Soit la densité de distribution conjointe d'une variable aléatoire bidimensionnelle continue


donné par la fonction :

.

      Trouvez les densités de distribution conditionnelle des composants.

Valeur aléatoireLes calculs ont utilisé l'intégrale de Poisson Alors les densités de distribution conditionnelles ont la forme : Soit la densité de distribution bidimensionnelle
Espérance mathématique conditionnelle. Espérance mathématique conditionnelle

variable aléatoire discrète

est la somme des produits de valeurs possibles Soit une variable aléatoire discrète bidimensionnelle donnée par le tableau :

Trouvez des attentes mathématiques conditionnelles : à
Et
à

Alors

Alors

Pour des quantités continues :

      Variables aléatoires dépendantes et indépendantes.

Valeur aléatoire Deux variables aléatoires sont appelées indépendant , si la loi de distribution de l'une d'elles ne dépend pas des valeurs possibles prises par l'autre variable aléatoire. De ceci les définitions devraient que les lois de distribution conditionnelle des variables aléatoires indépendantes sont égales à leurs lois de distribution inconditionnelle.

THÉORÈME.
Et étaient indépendants, il est nécessaire et suffisant que l'égalité soit assurée :

Nous ne prouverons pas le théorème, mais en conséquence, nous obtenons :

Conséquence. Pour que les variables aléatoires
Et étaient indépendants, il est nécessaire et suffisant que la densité de la répartition conjointe du système
était égal -sur le travail densités de distribution des composants, c'est-à-dire

      Caractéristiques numériques d'un système de deux aléatoires

quantités Moment de corrélation. Coefficient

corrélations.

Valeur aléatoireMoment de corrélation
systèmes de variables aléatoires
Et L'espérance mathématique du produit des écarts de ces quantités s'appelle :

Note 1. Il est facile de voir que le moment de corrélation peut s’écrire sous la forme :

Note 2. Moment de corrélation de deux variables aléatoires indépendantes égal à zéro.

Cela découle de la condition d’indépendance des variables aléatoires.

Note 3. Pour le moment de corrélation de variables aléatoires
Et l’inégalité persiste

Valeur aléatoireCoefficient de corrélation
Variables aléatoires
Et est appelé le rapport du moment de corrélation au produit des écarts types de ces grandeurs, c'est-à-dire

(2)

Si les variables aléatoires sont indépendantes, alors leur moment de corrélation est égal à zéro et, par conséquent, leur coefficient de corrélation est égal à zéro.

Compte tenu de la remarque 3, on obtient la propriété principale du coefficient de corrélation :

(3)

Exemple 7. Considérons le cas d'un système de variables aléatoires discrètes dont la distribution est donnée dans le tableau :

Trouver les attentes mathématiques et les variances des composants et trouver leur coefficient de corrélation .

Trouvons les lois unidimensionnelles de distribution des composants

et eux caractéristiques numériques.

Pour

Pour

Attente mathématique du produit :

Alors le moment de corrélation est égal à :

Et enfin, le coefficient de corrélation est :

Cela signifie que les variables aléatoires
Et ont une très faible dépendance.

Considérons un problème similaire pour le cas de variables aléatoires continues.

Exemple 8. Laissez le système de variables aléatoires
est soumis à la loi de répartition avec densité :

où est la superficie. Trouvervaleur du paramètre
Et et leur coefficient de corrélation .

Région
- c'est un triangle :

0 2

On trouve d'abord la valeur du paramètre , en tenant compte de la condition de base de la densité de distribution :

Dans notre cas,

D'ici,
et la densité de distribution a la forme :

Retrouvons les caractéristiques numériques des composants.

Puisque la fonction
et région
symétrique par rapport à Et , alors les caractéristiques numériques des valeurs aléatoires
Et coïncider, c'est-à-dire

Espérance mathématique d'un produit de variables aléatoires


Le moment de corrélation est égal à :

Et enfin,

      Corrélation et dépendance du hasard

quantités

Valeur aléatoire Deux variables aléatoires
Et appelé corrélé , si leur moment de corrélation (ou, de manière équivalente, le coefficient de corrélation) est différent de zéro.

Les quantités corrélées sont dépendantes. L’hypothèse inverse n’est pas toujours vraie, c’est-à-dire les variables aléatoires dépendantes peuvent être corrélées ou non. Si les variables aléatoires sont indépendantes, alors elles ne sont nécessairement pas corrélées.

Voyons par exemple que deux quantités dépendantes peuvent être décorrélés.

Exemple.
Soit une variable aléatoire bidimensionnelle

pour – donné par la densité de distribution :
Et Prouve-le

- des quantités non corrélées.

Les densités de distribution des composants, comme il est facile de le voir, à l'intérieur d'une ellipse donnée sont données par les formules correspondantes et sont égales à zéro à l'extérieur de l'ellipse.
Et Depuis lors

Puisque la fonction
- variables aléatoires dépendantes.
est symétrique par rapport à l’axe Oy, alors
, de la même manière,
, en raison de la symétrie

par rapport à l'axe Ox (fonctions paires). puisque l'intégrale interne est égale à zéro (l'intégrale de non même fonction

est égal à une fonction paire et les limites de l'intégration sont symétriques). Alors

Note 1. ceux. ces variables aléatoires dépendantes ne sont pas corrélées.

Note 2. Pour les composantes normalement distribuées d'une variable aléatoire bidimensionnelle, les concepts de décorrélation et d'indépendance sont équivalents.
Et Si les composants
, Que

sont liés par une dépendance linéaire, c'est-à-dire

    LISTE BIBLIOGRAPHIQUE

    Gmurman V.E. Théorie des probabilités et statistiques mathématiques - M. : Vyssh. école, 2001.

    Gmurman V.E. Un guide pour résoudre des problèmes de théorie des probabilités et de statistiques mathématiques - M. : Vyssh. école , 2001

    Gursky E.I. Théorie des probabilités avec des éléments de statistique mathématique - M. : Vyssh.

    école, 1971.

    Izosova L.A., Izosov A.V. Variables aléatoires //méthode d'indication// - Magnitogorsk, 2003.

    Chistiakov V.P. Cours de théorie des probabilités - M. : Nauka, 1982.

XV X2, ..., HP Type de fonction Z= cf (Xp X2, ..., XJ et elle
(Économétrie)
  • X avec densité de distribution px. Une autre variable aléatoire à à
  • Accidents attendus et imaginés dans les relations internationales
    Case est le pseudonyme de Dieu quand il ne veut pas signer son propre nom. Anatole France En théorie relations internationales l'idée de leur nature systémique. La découverte de différences dans la manifestation des caractéristiques systémiques les plus importantes a permis de construire l'histoire de la coopération internationale...
    (Sociologie de l'imaginaire des relations internationales)
  • Détermination des caractéristiques numériques des fonctions d'arguments aléatoires
    Considérons le problème de la détermination des caractéristiques numériques des fonctions d'arguments aléatoires dans la formulation suivante. La variable aléatoire Z est fonction du système d'arguments aléatoires XV X2, ..., HP Type de fonction Z= cf (Xp X2, ..., XJ et elle les paramètres sont connus, mais les caractéristiques numériques...
    (Économétrie)
  • Lois de distribution des fonctions d'arguments aléatoires
    Il existe une variable aléatoire continue X avec densité de distribution px. Une autre variable aléatoire à lui est lié par la dépendance fonctionnelle Densité de répartition de la grandeur à quand fonction monotone/ selon est défini comme suit : où /_1...
    (Numérique analyse probabiliste données incertaines)
  • APPLICATION DE LA MÉTHODE DE RECHERCHE ALÉATOIRE AVEC RÉDUCTION CONSTANTE DE LA ZONE DE RECHERCHE
    MÉTHODE DE RECHERCHE ALÉATOIRE AVEC RÉDUCTION CORRESPONDANTE DU DOMAINE DE RECHERCHE Description de la stratégie de recherche globale extremum La méthode de recherche aléatoire d'un extremum global avec réduction séquentielle de la zone d'étude, la méthode Luus-Jakola (Luus-Jakola, LJ), est applicable à la résolution du problème...
    (Algorithmes métaheuristiques pour la recherche d'un contrôle optimal du programme)
  • Définition d'une fonction de variables aléatoires. Fonction discrète argument aléatoire et ses caractéristiques numériques. Fonction d'argument aléatoire continu et ses caractéristiques numériques. Fonctions de deux arguments aléatoires. Détermination de la fonction de distribution de probabilité et de la densité pour une fonction de deux arguments aléatoires.

    Loi de distribution de probabilité d'une fonction d'une variable aléatoire

    Lors de la résolution de problèmes liés à l'évaluation de l'exactitude de divers systèmes automatiques, précision de production éléments individuels systèmes, etc., il est souvent nécessaire de considérer les fonctions d’une ou plusieurs variables aléatoires. De telles fonctions sont également des variables aléatoires. Par conséquent, lors de la résolution de problèmes, il est nécessaire de connaître les lois de distribution des variables aléatoires apparaissant dans le problème. Dans ce cas, la loi de distribution du système d'arguments aléatoires et la dépendance fonctionnelle sont généralement connues.

    Se pose alors un problème que l’on peut formuler comme suit.

    Étant donné un système de variables aléatoires (X_1,X_2,\ldots,X_n), dont la loi de distribution est connue. Une variable aléatoire Y est considérée en fonction de ces variables aléatoires :

    Y=\varphi(X_1,X_2,\ldots,X_n).

    Il faut déterminer la loi de distribution de la variable aléatoire Y, connaissant la forme des fonctions (6.1) et la loi de distribution conjointe de ses arguments.

    Considérons le problème de la loi de distribution d'une fonction d'un argument aléatoire

    Y=\varphi(X).

    \begin(array)(|c|c|c|c|c|)\hline(X)&x_1&x_2&\cdots&x_n\\\hline(P)&p_1&p_2&\cdots&p_n\\\hline\end(array)

    Alors Y=\varphi(X) est également une variable aléatoire discrète avec des valeurs possibles. Si toutes les valeurs y_1,y_2,\ldots,y_n sont différents, alors pour chaque k=1,2,\ldots,n les événements \(X=x_k\) et \(Y=y_k=\varphi(x_k)\) sont identiques. Ainsi,

    P\(Y=y_k\)=P\(X=x_k\)=p_k


    et la série de distribution requise a la forme

    \begin(array)(|c|c|c|c|c|)\hline(Y)&y_1=\varphi(x_1)&y_2=\varphi(x_2)&\cdots&y_n=\varphi(x_n)\\\hline (P)&p_1&p_2&\cdots&p_n\\\hline\end(tableau)

    Si parmi les chiffres y_1=\varphi(x_1),y_2=\varphi(x_2),\ldots,y_n=\varphi(x_n) il y en a des identiques, alors chaque groupe valeurs identiques y_k=\varphi(x_k) vous devez allouer une colonne dans le tableau et ajouter les probabilités correspondantes.

    Pour les variables aléatoires continues, le problème se pose comme suit : connaissant la densité de distribution f(x) de la variable aléatoire X, trouver la densité de distribution g(y) de la variable aléatoire Y=\varphi(X). Pour résoudre le problème, nous considérons deux cas.

    Supposons d'abord que la fonction y=\varphi(x) est monotone croissante, continue et dérivable sur l'intervalle (a;b) sur lequel se situent toutes les valeurs possibles de X. Alors la fonction inverse x=\psi(y) existe, tout en étant également croissante de façon monotone, continue et différentiable. Dans ce cas on obtient

    G(y)=f\bigl(\psi(y)\bigr)\cdot |\psi"(y)|.

    Exemple 1. Variable aléatoire X distribuée avec densité

    F(x)=\frac(1)(\sqrt(2\pi))e^(-x^2/2)

    Trouver la loi de distribution de la variable aléatoire Y associée à la valeur X par la dépendance Y=X^3.

    Solution. Puisque la fonction y=x^3 est monotone sur l'intervalle (-\infty;+\infty), on peut appliquer la formule (6.2). Fonction inverse par rapport à la fonction \varphi(x)=x^3 il y a \psi(y)=\sqrt(y) , sa dérivée \psi"(y)=\frac(1)(3\sqrt(y^2)). Ainsi,

    G(y)=\frac(1)(3\sqrt(2\pi))e^(-\sqrt(y^2)/2)\frac(1)(\sqrt(y^2))

    Considérons le cas d'une fonction non monotone. Soit la fonction y=\varphi(x) telle que la fonction inverse x=\psi(y) soit ambiguë, c'est-à-dire qu'une valeur de y correspond à plusieurs valeurs de l'argument x, que l'on note x_1=\psi_1(y),x_2=\psi_2(y),\ldots,x_n=\psi_n(y), où n est le nombre de sections dans lesquelles la fonction y=\varphi(x) change de manière monotone. Alors

    G(y)=\sum\limits_(k=1)^(n)f\bigl(\psi_k(y)\bigr)\cdot |\psi"_k(y)|.

    Exemple 2. Dans les conditions de l'exemple 1, trouvez la distribution de la variable aléatoire Y=X^2.

    Solution. La fonction inverse x=\psi(y) est ambiguë. Une valeur de l'argument y correspond à deux valeurs de la fonction x


    En appliquant la formule (6.3), on obtient :

    \begin(rassemblé)g(y)=f(\psi_1(y))|\psi"_1(y)|+f(\psi_2(y))|\psi"_2(y)|=\\\\ =\frac(1)(\sqrt(2\pi))\,e^(-\left(-\sqrt(y^2)\right)^2/2)\!\left|-\frac(1 )(2\sqrt(y))\right|+\frac(1)(\sqrt(2\pi))\,e^(-\left(\sqrt(y^2)\right)^2/2 )\!\left|\frac(1)(2\sqrt(y))\right|=\frac(1)(\sqrt(2\pi(y)))\,e^(-y/2) .\end(rassemblé)

    Loi de distribution d'une fonction de deux variables aléatoires

    Soit la variable aléatoire Y fonction de deux variables aléatoires formant le système (X_1;X_2), c'est-à-dire Y=\varphi(X_1;X_2). La tâche consiste à trouver la distribution de la variable aléatoire Y en utilisant la distribution connue du système (X_1;X_2).

    Soit f(x_1;x_2) la densité de distribution du système de variables aléatoires (X_1;X_2) . Introduisons en considération une nouvelle quantité Y_1 égale à X_1 et considérons le système d'équations

    Nous supposerons que ce système est résoluble de manière unique par rapport à x_1,x_2


    et satisfait aux conditions de différentiabilité.

    Densité de distribution de la variable aléatoire Y

    G_1(y)=\int\limits_(-\infty)^(+\infty)f(x_1;\psi(y;x_1))\!\left|\frac(\partial\psi(y;x_1)) (\partial(y))\right|dx_1.

    Notez que le raisonnement ne change pas si la nouvelle valeur introduite Y_1 est égale à X_2.

    Espérance mathématique d'une fonction de variables aléatoires

    En pratique, il existe souvent des cas où il n'est pas particulièrement nécessaire de déterminer complètement la loi de distribution d'une fonction de variables aléatoires, mais il suffit simplement d'indiquer ses caractéristiques numériques. Ainsi se pose le problème de déterminer les caractéristiques numériques des fonctions de variables aléatoires en plus des lois de distribution de ces fonctions.

    Soit la variable aléatoire Y fonction de l'argument aléatoire X avec donné par la loi distribution

    Y=\varphi(X).

    Il faut, sans trouver la loi de distribution de la quantité Y, déterminer son espérance mathématique

    M(Y)=M[\varphi(X)].

    Soit X une variable aléatoire discrète ayant une série de distribution

    \begin(array)(|c|c|c|c|c|)\hline(x_i)&x_1&x_2&\cdots&x_n\\\hline(p_i)&p_1&p_2&\cdots&p_n\\\hline\end(array)

    Faisons un tableau des valeurs de la valeur Y et des probabilités de ces valeurs :

    \begin(array)(|c|c|c|c|c|)\hline(y_i=\varphi(x_i))&y_1=\varphi(x_1)&y_2=\varphi(x_2)&\cdots&y_n=\varphi( x_n)\\\hline(p_i)&p_1&p_2&\cdots&p_n\\\hline\end(array)

    Ce tableau n'est pas une série de distribution de la variable aléatoire Y, puisque dans cas général Certaines valeurs peuvent être identiques et les valeurs de la rangée supérieure ne sont pas nécessairement classées par ordre croissant. Cependant, l'espérance mathématique de la variable aléatoire Y peut être déterminée par la formule

    M[\varphi(X)]=\sum\limits_(i=1)^(n)\varphi(x_i)p_i,


    puisque la valeur déterminée par la formule (6.4) ne peut pas changer du fait que sous le signe somme certains termes seront combinés à l'avance et l'ordre des termes sera modifié.

    La formule (6.4) ne contient pas explicitement la loi de distribution de la fonction \varphi(X) elle-même, mais contient uniquement la loi de distribution de l'argument X. Ainsi, pour déterminer l’espérance mathématique de la fonction Y=\varphi(X), il n’est pas du tout nécessaire de connaître la loi de répartition de la fonction \varphi(X), mais plutôt de connaître la loi de répartition de l’argument X.

    Pour une variable aléatoire continue, l'espérance mathématique est calculée à l'aide de la formule

    M[\varphi(X)]=\int\limits_(-\infty)^(+\infty)\varphi(x)f(x)\,dx,


    où f(x) est la densité de distribution de probabilité de la variable aléatoire X.

    Considérons des cas où, pour trouver l'espérance mathématique d'une fonction d'arguments aléatoires, la connaissance même des lois de distribution des arguments n'est pas requise, mais il suffit de connaître seulement certaines de leurs caractéristiques numériques. Formulons ces cas sous forme de théorèmes.

    Théorème 6.1. L'espérance mathématique de la somme de deux variables aléatoires dépendantes et indépendantes est égale à la somme des espérances mathématiques de ces variables :

    M(X+Oui)=M(X)+M(Oui).

    Théorème 6.2. L'espérance mathématique du produit de deux variables aléatoires est égale au produit de leurs espérances mathématiques plus le moment de corrélation :

    M(XY)=M(X)M(Y)+\mu_(xy).

    Corollaire 6.1. L'espérance mathématique du produit de deux variables aléatoires non corrélées est égale au produit de leurs espérances mathématiques.

    Corollaire 6.2. L'espérance mathématique du produit de deux variables aléatoires indépendantes est égale au produit de leurs espérances mathématiques.

    Variance d'une fonction de variables aléatoires

    Par définition de la dispersion, nous avons D[Y]=M[(Y-M(Y))^2].. Ainsi,

    D[\varphi(x)]=M[(\varphi(x)-M(\varphi(x)))^2], Où .

    Donne moi formules de calcul uniquement pour le cas d'arguments aléatoires continus. Pour une fonction d'un argument aléatoire Y=\varphi(X), la variance est exprimée par la formule

    D[\varphi(x)]=\int\limits_(-\infty)^(+\infty)(\varphi(x)-M(\varphi(x)))^2f(x)\,dx,

    M(\varphi(x))=M[\varphi(X)]- espérance mathématique de la fonction \varphi(X) ;

    f(x) - densité de distribution de la valeur X.

    La formule (6.5) peut être remplacée par la suivante :

    D[\varphi(x)]=\int\limits_(-\infty)^(+\infty)\varphi^2(x)f(x)\,dx-M^2(X) Considérons théorèmes de dispersion qui joue rôle important

    en théorie des probabilités et ses applications. Théorème 6.3. La variance de la somme des variables aléatoires est égale à la somme des variances de ces variables plus deux fois la somme

    moments de corrélation

    chacune des quantités totales avec tous les éléments suivants :

    D\!\left[\sum\limits_(i=1)^(n)X_i\right]=\sum\limits_(i=1)^(n)D+2\sum\limits_(i Corollaire 6.3.

    La variance de la somme des variables aléatoires non corrélées est égale à la somme des variances des termes :


    D\!\left[\sum\limits_(i=1)^(n)X_i\right]=\sum\limits_(i=1)^(n)D

    \mu_(y_1y_2)= M(Y_1Y_2)-M(Y_1)M(Y_2). \mu_(y_1y_2)=M(\varphi_1(X)\varphi_2(X))-M(\varphi_1(X))M(\varphi_2(X))..

    c'est-à-dire que le moment de corrélation de deux fonctions de variables aléatoires est égal à l'espérance mathématique du produit de ces fonctions moins le produit des espérances mathématiques.

    Regardons l'essentiel

    propriétés du moment de corrélation et du coefficient de corrélation



    Propriété 1. L'ajout de constantes à des variables aléatoires ne modifie pas le moment de corrélation et le coefficient de corrélation. Partage avec tes amis!