Le concept de processus mobiles et stationnaires. Processus stochastiques stationnaires et non stationnaires

Cet article est une traduction gratuite de la réponse donnée par Mark Eichenlaub à la question « Quelle est une manière intuitive de comprendre l'entropie » posée sur le site Web de Quora ?

Entropie. C’est peut-être l’un des concepts les plus difficiles à comprendre que l’on puisse rencontrer dans un cours de physique, du moins lorsqu’il s’agit de physique classique. Peu de diplômés en physique peuvent expliquer de quoi il s’agit. Cependant, la plupart des problèmes liés à la compréhension de l’entropie peuvent être résolus en comprenant une chose. L'entropie est qualitativement différente des autres grandeurs thermodynamiques : telles que la pression, le volume ou énergie interne, car ce n'est pas une propriété du système, mais de la façon dont nous considérons ce système. Malheureusement, dans les cours de thermodynamique, elle est généralement traitée sur un pied d’égalité avec les autres fonctions thermodynamiques, ce qui exacerbe les malentendus.

Alors, qu’est-ce que l’entropie ?

En un mot, alors
L'entropie est la quantité d'informations que vous ne connaissez pas sur un système

Par exemple, si vous me demandez où j'habite et que je réponds : en Russie, alors mon entropie pour vous sera élevée, après tout, la Russie grand pays. Si je vous dis mon code postal : 603081, alors mon entropie pour vous diminuera, puisque vous recevrez plus d'informations.


Un code postal contient six chiffres, ce qui signifie que je vous ai donné six caractères d'information. L'entropie de votre connaissance de moi a diminué d'environ 6 caractères. (En fait, pas vraiment, car certains index correspondent à plus d'adresses et d'autres à moins, mais nous l'ignorerons).


Ou considérons un autre exemple. Donnez-moi dix dés (à six faces), et en les jetant, je vous dis que leur somme est de 30. Sachant seulement cela, vous ne pouvez pas dire quels sont les nombres spécifiques sur chacun des dés - vous manquez d'informations. Ces nombres spécifiques sur les dés dans physique statistique sont appelés microétats, et la somme totale (30 dans notre cas) est appelée macroétat. Il existe 2 930 455 microétats qui correspondent à une somme de 30. Ainsi, l'entropie de ce macroétat est d'environ 6,5 caractères (la moitié apparaît du fait que lors de la numérotation des microétats dans l'ordre du septième chiffre, tous les nombres ne vous sont pas disponibles, mais seulement 0, 1 et 2).

Et si je vous disais que la somme est de 59 ? Il n'y a que 10 microétats possibles pour ce macroétat, donc son entropie n'est qu'un symbole. Comme vous pouvez le constater, différents macroétats ont des entropies différentes.

Maintenant laissez-moi vous dire que la somme des cinq premiers dés est 13, et la somme des cinq autres est 17, donc montant total encore une fois 30. Cependant, vous disposez de plus d'informations dans ce cas, donc l'entropie du système devrait tomber pour vous. Et en effet, 13 sur cinq dés peuvent donner 420 de différentes manières, et 17 - 780e, c'est-à-dire numéro complet les microétats ne seront que de 420x780 = 327 600. L'entropie d'un tel système est d'environ un caractère inférieure à celle du premier exemple.

Nous mesurons l'entropie comme le nombre de symboles nécessaires pour écrire le nombre de microétats. Mathématiquement, cette quantité est définie comme un logarithme, désignant donc l'entropie avec le symbole S, et le nombre de microétats avec le symbole Ω, on peut écrire :

Ce n'est rien de plus que la formule de Boltzmann (jusqu'à un facteur k près, qui dépend des unités de mesure choisies) pour l'entropie. Si un macroétat correspond à un microétat, son entropie selon cette formule est égale à zéro. Si vous avez deux systèmes, alors l'entropie totale est égale à la somme des entropies de chacun de ces systèmes, car log(AB) = log A + log B.

De la description ci-dessus, il devient clair pourquoi il ne faut pas considérer l'entropie comme propre propriété systèmes. Le système a une certaine énergie interne, une certaine quantité de mouvement, une certaine charge, mais il n'a pas une certaine entropie : l'entropie de dix dés dépend de si l'on connaît seulement leur somme totale, ou aussi les sommes partielles des cinq dés.

En d’autres termes, l’entropie est la façon dont nous décrivons un système. Et cela la rend très différente des autres grandeurs avec lesquelles il est habituel de travailler en physique.

Exemple physique : gaz sous un piston

Le système classique considéré en physique est un gaz situé dans un récipient sous un piston. Le microétat d'un gaz est la position et l'impulsion (vitesse) de chacune de ses molécules. Cela équivaut à connaître la valeur de chaque dé dans l’exemple évoqué précédemment. Le macroétat d'un gaz est décrit par des grandeurs telles que la pression, la densité, le volume, composition chimique. C’est comme la somme des nombres lancés sur les dés.

Les grandeurs décrivant le macroétat peuvent être reliées les unes aux autres par ce que l'on appelle « l'équation d'état ». C'est la présence de cette connexion qui permet, sans connaître les microétats, de prédire ce qui arrivera à notre système si nous commençons à le chauffer ou à déplacer le piston. Pour gaz parfait l'équation d'état a une forme simple :

Bien que vous soyez probablement plus familier avec l'équation de Clapeyron-Mendeleev pV = νRT, c'est la même équation, juste avec quelques constantes ajoutées pour vous confondre. Plus il y a de microétats correspondant à un macroétat donné, c'est-à-dire plus il y a de particules qui font partie de notre système, mieux l'équation d'état le décrit. Pour le gaz valeurs caractéristiques le nombre de particules est égal au nombre d'Avogadro, c'est-à-dire qu'elles sont d'environ 10 23.

Des valeurs telles que la pression, la température et la densité sont dites moyennées, car elles sont la manifestation moyennée de microétats en constante évolution correspondant à un macroétat donné (ou plutôt de macroétats proches de celui-ci). Pour découvrir dans quel microétat se trouve le système, nous avons besoin de beaucoup d’informations : nous devons connaître la position et la vitesse de chaque particule. La quantité de ces informations est appelée entropie.

Comment l'entropie change-t-elle avec un changement de macro-état ? C'est facile à comprendre. Par exemple, si nous chauffons un peu un gaz, la vitesse de ses particules augmentera, par conséquent, le degré de notre ignorance de cette vitesse augmentera, c'est-à-dire que l'entropie augmentera. Ou bien, si nous augmentons le volume de gaz en rétractant le piston, notre ignorance de la position des particules augmentera, et l’entropie augmentera également.

Solides et énergie potentielle

Si l'on considère, au lieu du gaz, certains solide, surtout avec une structure ordonnée, comme dans les cristaux, par exemple un morceau de métal, alors son entropie sera petite. Pourquoi? Parce que connaissant la position d'un atome dans une telle structure, vous connaissez la position de tous les autres (ils sont également alignés dans le bon sens). structure cristalline), les vitesses des atomes sont faibles, car ils ne peuvent pas voler loin de leur position et n'oscillent que légèrement autour de la position d'équilibre.

Si un morceau de métal se trouve dans un champ gravitationnel (par exemple, élevé au-dessus de la surface de la Terre), alors l'énergie potentielle de chaque atome du métal est approximativement égale à l'énergie potentielle des autres atomes, et l'entropie associée à cette énergie est faible. Cela distingue l'énergie potentielle de l'énergie cinétique, qui, pour le mouvement thermique, peut varier considérablement d'un atome à l'autre.

Si un morceau de métal élevé à une certaine hauteur est libéré, alors son énergie potentielle se transformera en énergie cinétique, mais l'entropie n'augmentera pratiquement pas, car tous les atomes se déplaceront à peu près de la même manière. Mais lorsque la pièce touche le sol, les atomes métalliques se déplacent dans une direction aléatoire lors de l’impact et l’entropie augmente considérablement. L’énergie cinétique du mouvement dirigé se transformera en énergie cinétique du mouvement thermique. Avant l’impact, nous connaissions approximativement le mouvement de chaque atome, mais nous avons maintenant perdu cette information.

Comprendre la deuxième loi de la thermodynamique

La deuxième loi de la thermodynamique stipule que l'entropie ( système fermé) ne diminue jamais. On comprend désormais pourquoi : parce qu’il est impossible d’obtenir soudainement plus d’informations sur les microétats. Une fois que vous avez perdu certaines informations microétatiques (comme lorsqu'un morceau de métal touche le sol), vous ne pouvez pas les récupérer.


Revenons à dés. Rappelons qu'un macroétat avec une somme de 59 a une entropie très faible, mais ce n'est pas si facile à obtenir. Si vous lancez les dés encore et encore, les sommes (macroétats) qui correspondent à plus des microétats, c'est-à-dire des macroétats à haute entropie, seront réalisés. La somme 35 a l'entropie la plus élevée, et c'est cette somme qui apparaîtra plus souvent que les autres. C’est exactement ce que dit la deuxième loi de la thermodynamique. Toute interaction aléatoire (non contrôlée) entraîne une augmentation de l'entropie, au moins jusqu'à ce qu'elle atteigne son maximum.

Mélange de gaz

Et encore un exemple pour renforcer ce qui a été dit. Disons un conteneur contenant deux gaz séparés par une cloison située au milieu du conteneur. Appelons les molécules d'un gaz bleues et l'autre rouge.

Si la cloison est ouverte, les gaz commenceront à se mélanger, car le nombre de microétats dans lesquels les gaz sont mélangés est bien supérieur au nombre de microétats dans lesquels ils sont séparés, et tous les microétats sont naturellement également probables. Lorsque nous avons ouvert la partition, pour chaque molécule, nous avons perdu des informations sur le côté de la partition sur lequel elle se trouvait désormais. S'il y avait N molécules, alors N bits d'information (bits et symboles, en dans ce contexte, c'est en fait la même chose et ne diffère que par un certain facteur constant).

Faire face au démon de Maxwell

Et enfin, considérons la solution dans le cadre de notre paradigme au fameux paradoxe du démon de Maxwell. Permettez-moi de vous rappeler que c'est le suivant. Ayons des gaz mélangés de molécules bleues et rouges. Remontons la cloison en y faisant un petit trou dans lequel nous mettrons un démon imaginaire. Sa tâche est de faire passer uniquement les rouges de gauche à droite et uniquement les bleus de droite à gauche. Évidemment, après un certain temps, les gaz seront à nouveau séparés : toutes les molécules bleues seront à gauche de la cloison, et toutes les molécules rouges seront à droite.


Il s’avère que notre démon a réduit l’entropie du système. Rien n'est arrivé au démon, c'est-à-dire que son entropie n'a pas changé et notre système était fermé. Il s'avère que nous avons trouvé un exemple où la deuxième loi de la thermodynamique n'est pas satisfaite ! Comment est-ce devenu possible ?

La solution à ce paradoxe est pourtant très simple. Après tout, l’entropie n’est pas une propriété d’un système, mais de notre connaissance de ce système. Vous et moi connaissons peu le système, c'est pourquoi il nous semble que son entropie diminue. Mais notre démon en sait beaucoup sur le système : pour séparer les molécules, il doit connaître la position et la vitesse de chacune d'elles (au moins lorsqu'il s'approche de lui). S'il sait tout sur les molécules, alors de son point de vue, l'entropie du système est en fait égale à zéro - il n'a tout simplement pas les informations manquantes à ce sujet. Dans ce cas, l’entropie du système était égale à zéro et reste égal à zéro, et la deuxième loi de la thermodynamique n'a été violée nulle part.

Mais même si le démon ne connaît pas toutes les informations sur le microétat du système, il a au minimum besoin de connaître la couleur de la molécule qui s'approche de lui afin de comprendre s'il doit la laisser passer ou non. Et si nombre total molécules est N, alors le démon doit avoir N bits d'informations sur le système - mais c'est exactement la quantité d'informations que nous avons perdues lorsque nous avons ouvert la partition. C'est-à-dire que la quantité d'informations perdues est exactement égale à la quantité d'informations qui doivent être obtenues sur le système afin de le ramener à son état d'origine - et cela semble tout à fait logique et ne contredit pas encore une fois la deuxième loi de la thermodynamique. .

  • 5. Procédure d'estimation d'un modèle économétrique linéaire à partir d'une équation isolée dans Excel. La signification des informations statistiques de sortie du service de régression. (10) page 41
  • 6.Spécification et estimation de la méthode des moindres carrés des modèles économétriques non linéaires en paramètres. (30) p.24-25,
  • 7. Modèle de régression par paires classique. Spécification du modèle. Théorème de Gauss-Markov.
  • 8. Méthode des moindres carrés : algorithme de la méthode, conditions d'application.
  • 9.Identification des équations individuelles d'un système d'équations simultanées : condition d'ordre. (30)
  • Condition nécessaire d’identifiabilité
  • 10. Estimation des paramètres d'un modèle de régression apparié par la méthode des moindres carrés. (10)
  • 11.Variables factices : définition, objectif, types.
  • 12. Autocorrélation de perturbations aléatoires. Raisons. Conséquences.
  • 13.Algorithme pour vérifier la signification d'un régresseur dans un modèle de régression apparié.
  • 14.Estimation par intervalles de la valeur attendue de la variable dépendante dans un modèle de régression apparié.
  • 15. Test de Chow pour la présence de changements structurels dans le modèle de régression. (20) p. 59.60
  • 16. Algorithme de vérification de l'adéquation d'un modèle de régression apparié. (20) p. 37, 79
  • 17. Coefficient de détermination dans un modèle de régression apparié.
  • 18. Estimation des paramètres d'un modèle de régression multiple par la méthode des moindres carrés.
  • 20. Hétéroscédasticité d'une perturbation aléatoire. Raisons. Conséquences. test gq(20)
  • 21.Variable muette de pente : affectation ; spécification d'un modèle de régression avec une variable de pente fictive ; valeur de paramètre pour une variable factice. (20) p.65
  • 22..Algorithme pour le test de Durbin-Watson pour la présence (absence) d'autocorrélation de perturbations aléatoires. (20) page 33
  • 23. Formes structurelles et réduites de spécification des modèles économétriques.
  • 24. Hétéroscédasticité d'une perturbation aléatoire. Raisons. Conséquences. Algorithme de test de Goldfeld-Quandt pour la présence ou l'absence d'hétéroscédasticité de perturbations aléatoires.
  • Algorithme pour le test de Goldfeld-Quandt pour la présence (absence) d'hétéroscédasticité de perturbations aléatoires.
  • 25. Spécification et estimation de modèles économétriques des moindres carrés non linéaires en paramètres.
  • 26. Méthodes d'ajustement de l'hétéroscédasticité. Méthode des moindres carrés pondérés
  • 27. Le problème de la multicolinéarité dans les modèles de régression multiple. Signes de multicolinéarité.
  • 28.Qu'est-ce que logit, tobit, probit.
  • 29. Qu'est-ce que la méthode du maximum de vraisemblance p.
  • 30. Qu'est-ce qu'un processus stationnaire ?
  • 31.Propriétés des séries chronologiques.
  • 32.Modèles ar et var.
  • 33. Identifiable du système.
  • 34. Mise en place d'un modèle avec un système d'équations simultanées.
  • 35.Qu'est-ce que la méthode Monte Carlo p.
  • 36. Évaluez la qualité du modèle par f, gq, dw (linéaire).
  • 37. Estimation des erreurs des paramètres du modèle économétrique à l'aide de la méthode de Monte Carlo.
  • 38. Réflexion dans le modèle de l'influence de facteurs non pris en compte. Prérequis du théorème de Gauss-Markov.
  • 39.Modèles de séries chronologiques. Propriétés des séries boursières en bourse (20) p.93.
  • 40. Valeur attendue d'une variable aléatoire, sa variance et son écart type. (20) p.12-21
  • 41. Estimation des paramètres d'un modèle de régression apparié par la méthode des moindres carrés à l'aide du service Recherche de solution.
  • 42. Test d'hypothèses statistiques, statistiques t de Student, probabilité de confiance et intervalle de confiance, valeurs critiques des statistiques de Student. Que sont les « grosses queues » ?
  • 43.Le problème de la multicolinéarité dans les modèles de régression multiple. Signes de multicolinéarité
  • 44. Coefficients partiels de détermination.
  • 46. ​​​​​​Signification économique des coefficients des équations de régression linéaire et de puissance.
  • 47. Estimation des coefficients du modèle Samuelson-Hicks
  • 48. Erreurs liées à l'inclusion de variables non significatives dans le modèle ou à l'exclusion de variables significatives P.80.
  • 49. Recherche sur un modèle de régression multiple pp. 74-79.
  • 50. Multicolinéarité : pourquoi c’est mauvais, comment la détecter et comment la combattre.
  • 51. Signes de stationnarité d'un processus stochastique. Qu’est-ce que le bruit blanc ? p.100
  • 52. Formes structurelles et réduites de spécification des modèles économétriques.
  • 53. Algorithme pour vérifier la signification d'un régresseur dans un modèle de régression apparié. Par statistiques t, par statistiques f.
  • 54. Propriétés des séries de prix en bourse. Les principes de Markowitz en matière de construction de portefeuille p.93,102
  • 55.Modèle dynamique à partir d'équations linéaires simultanées (donner un exemple) p.105.
  • 56. Méthode du maximum de vraisemblance : principes et faisabilité d'utilisation
  • 57. Étapes de recherche d'un modèle de régression multiple pp. 74-79.
  • 30. Qu'est-ce que processus stationnaire?

    La stationnarité est la propriété d'un processus de ne pas changer ses caractéristiques au fil du temps. Cela a du sens dans plusieurs domaines scientifiques. La stationnarité d'un processus aléatoire signifie l'invariance de ses modèles probabilistes dans le temps

    La série chronologique est la mise en œuvre finale processus stochastique: générer un ensemble de variables aléatoires Y(t).

    Un processus stochastique peut être stationnaire et non stationnaire. Le processus est stationnaire si

    1. L'espérance mathématique des valeurs des variables ne change pas.

    2. L'espérance mathématique des variances des variables ne change pas.

    3. Il n’y a pas de fluctuations périodiques.

    Reconnaissance de stationnarité :

    1. Graphique : croissance ou diminution systématique, vagues et zones de forte volatilité (dispersion) dans une longue série sont immédiatement visibles.

    2. Autocorrélation (diminue à mesure que le décalage augmente)

    3. Tests de tendance : tester l'hypothèse selon laquelle le coefficient à t est égal à zéro.

    4. Tests spéciaux inclus dans les progiciels Stata,

    31.Propriétés des séries chronologiques.

    Un modèle économétrique peut être construit à partir de trois types de données d’entrée :

    Données caractérisant une collection de divers objets à un certain moment (période) de temps : croix en coupe données , « spatial » ;

    Données caractérisant un objet pendant un certain nombre d'instants consécutifs

    (périodes) de temps : séries chronologiques, temps série ;

      données caractérisant un ensemble d'objets différents pour un certain nombre d'instants successifs : panneau données , « panneau ».

    Séries chronologiques est un ensemble de valeurs de n'importe quel indicateur pour plusieurs moments (périodes) de temps successifs. Il se forme sous l'influence grand nombre facteurs qui peuvent être divisés en trois groupes :

      facteurs qui façonnent la tendance ( s'orienter ) rangée;

      facteurs qui façonnent cyclique fluctuations des séries, par exemple saisonnières, hebdomadaires ; les séries de prix en bourse sont caractérisées par oscillations non périodiques ;

      aléatoire facteurs.

    Les modèles construits à partir de données caractérisant un objet sur plusieurs périodes consécutives sont appelés modèles de séries chronologiques.

    Chaque niveau d'une série chronologique peut être formé par ses composantes de tendance (T), cycliques ou saisonnières (S), ainsi que par ses composantes aléatoires (E).

    Les modèles dans lesquels la série chronologique est présentée comme une somme des composants répertoriés sont appelés additifs ; s'ils se présentent sous la forme d'un produit, ils sont appelés modèles multiplicatifs.

    Le modèle additif a la forme: Y=T+S+E

    Le modèle multiplicatif a la forme: Y=T*S*E

    Construire un modèle de série chronologique:

      effectuer un alignement de séries chronologiques (par exemple, en utilisant la méthode de la moyenne mobile) ; 2. Calculer les valeurs de la composante saisonnière ; 3. La composante saisonnière est éliminée et une ligne alignée est obtenue ; 4. L'alignement analytique des niveaux (T et E) et le calcul des valeurs E sont effectués à l'aide de l'équation de tendance résultante ; 5. Calculez les valeurs de T et E ; 6. Calculez les erreurs absolues et relatives.

    La construction d'une fonction analytique lors de la modélisation d'une tendance dans tout problème économétrique sur des séries temporelles est appelée alignement analytique d'une série temporelle et les fonctions suivantes sont principalement utilisées : linéaire, puissance, hyperbolique, parabolique, etc.

    Les paramètres de tendance sont déterminés comme dans le cas d'une régression linéaire à l'aide de la méthode OLS, où le temps est la variable indépendante et les niveaux des séries chronologiques sont la variable dépendante. Critères de sélection meilleure forme sert de tendance valeur la plus élevée coefficient de détermination, tests de Fisher et Student.

    L'autocorrélation des résidus est une corrélation entre les valeurs des résidus pour le moment actuel et le moment précédent. Pour déterminer l'autocorrélation des résidus, le critère de Durbin-Watson est utilisé :

    Une série chronologique est une variable économique datée de points entiers dans le temps t. Cette variable sert de caractéristique quantitative d'un certain objet économique, donc l'évolution de cette variable dans le temps est déterminée par des facteurs qui influencent cet objet au fil du temps.

    Tous les facteurs sont divisés en 3 classes. Classe 1 : facteurs (influences « séculaires ») dont l'influence résultante sur un objet donné ne change pas de direction sur une longue période de temps. Ils génèrent une composante monotone (tendance ou tendance). Classe 2 : facteurs (influences cycliques) dont l'influence résultante sur l'objet effectue un cercle complet pendant une période de temps déterminée T. Classe 3 : facteurs (influences aléatoires) dont l'influence résultante sur l'objet change de direction et d'intensité. à grande vitesse. 3 classes de facteurs vous permettent d'interpréter la valeur de chaque période de temps comme une variable aléatoire

    Définition [ | ]

    X t (⋅) : Ω → R , t ∈ T (\displaystyle X_(t)(\cdot)\colon \Omega \to \mathbb (R) ,\quad t\in T),

    T (style d'affichage T) un ensemble arbitraire est appelé fonction aléatoire .

    Terminologie [ | ]

    Cette classification n'est pas stricte. En particulier, le terme « processus aléatoire » est souvent utilisé comme synonyme absolu du terme « fonction aléatoire ».

    Classification [ | ]

    • Processus aléatoire X (t) (\style d'affichage X(t)) appelé un processus discret dans le temps, si le système dans lequel cela se produit change d'état seulement à des moments précis t 1 , t 2 , … (\displaystyle \;t_(1),t_(2),\ldots ), dont le nombre est fini ou dénombrable. Le processus aléatoire est appelé processus avec temps continu , si le passage d'un état à l'autre peut se produire à tout moment.
    • Le processus aléatoire est appelé processus avec états continus , si la valeur du processus aléatoire est continue variable aléatoire. Le processus aléatoire est appelé processus aléatoire avec des états discrets, si la valeur du processus aléatoire est une variable aléatoire discrète :
    • Le processus aléatoire est appelé stationnaire, si toutes les lois de distribution multidimensionnelle dépendent uniquement de position relative moments dans le temps t 1 , t 2 , … , t n (\displaystyle \;t_(1),t_(2),\ldots,t_(n)), mais pas sur les valeurs de ces quantités elles-mêmes. En d’autres termes, un processus aléatoire est dit stationnaire si ses modèles probabilistes sont constants dans le temps. Sinon, on l'appelle non stationnaire.
    • La fonction aléatoire s'appelle stationnaire dans au sens large , si son espérance mathématique et sa variance sont constantes et que l'ACF dépend uniquement de la différence entre les instants pour lesquels les ordonnées sont prises fonction aléatoire. Le concept a été introduit par A. Ya.
    • Un processus aléatoire est appelé un processus à incréments stationnaires un certain ordre, si les modèles probabilistes d'un tel incrément sont constants dans le temps. De tels processus ont été envisagés par Yaglom.
    • Si les ordonnées d'une fonction aléatoire obéissent à la loi de distribution normale, alors la fonction elle-même est appelée normale.
    • Fonctions aléatoires dont la loi de distribution des ordonnées à un instant futur est entièrement déterminée par la valeur de l'ordonnée du processus dans moment présent temps et ne dépend pas des valeurs ordonnées du processus aux instants précédents sont appelés Markovien.
    • Le processus aléatoire est appelé processus avec incréments indépendants, si pour un ensemble t 1 , t 2 , … , t n (\displaystyle t_(1),t_(2),\ldots,t_(n)), Où n > 2 (\displaystyle n>2), UN t1< t 2 < … < t n {\displaystyle t_{1} , variables aléatoires (X t 2 − X t 1) (\displaystyle (X_(t_(2))-X_(t_(1)))), (X t 3 − X t 2) (\displaystyle (X_(t_(3))-X_(t_(2)))), … (\ displaystyle \ ldots ), (X t n − X t n − 1) (\displaystyle (X_(t_(n))-X_(t_(n-1)))) collectivement indépendants.
    • Si, lors de la détermination des fonctions de moment d'un processus aléatoire stationnaire, l'opération de moyenne sur un ensemble statistique peut être remplacée par une moyenne dans le temps, alors un tel processus aléatoire stationnaire est appelé ergodique .
    • Parmi les processus aléatoires, on distingue les processus aléatoires impulsifs.

    Trajectoire d'un processus aléatoire[ | ]

    Soit un processus aléatoire ( X t ) t ∈ T (\displaystyle \(X_(t)\)_(t\in T)). Puis pour chaque fixe t ∈ T (\displaystyle t\in T) Xt (\ displaystyle X_ (t))- une variable aléatoire appelée coupe transversale. Si le résultat élémentaire est fixe ω ∈ Ω (\displaystyle \omega \in \Omega ), Que X t : T → R (\displaystyle X_(t)\colon T\to \mathbb (R) )- fonction paramètre déterministe t (style d'affichage t). Cette fonction est appelée trajectoire ou mise en œuvre fonction aléatoire ( X t ) (\displaystyle \(X_(t)\)).

    Définition. Par un processus aléatoire X(t) est un processus dont la valeur pour toute valeur de l'argument t est une variable aléatoire.

    Dans la pratique, nous rencontrons souvent des processus aléatoires qui se déroulent à peu près uniformément dans le temps et se présentent sous la forme d'oscillations aléatoires autour d'une certaine valeur moyenne, et ni l'amplitude moyenne ni la nature de ces oscillations ne changent de manière significative au fil du temps. De tels processus aléatoires sont appelés stationnaire. Des exemples de processus aléatoires stationnaires comprennent les oscillations d'un avion en vol horizontal en régime permanent, les fluctuations de tension dans un circuit électrique, le bruit aléatoire dans un récepteur radio, le processus de balancement d'un navire, etc.

    Chaque processus stationnaire peut être considéré comme se poursuivant dans le temps de manière continue pendant une longue période, et lors de l'étude d'un processus stationnaire, n'importe quel moment dans le temps peut être choisi comme point de départ. En étudiant un processus stationnaire à tout instant, on doit obtenir les mêmes caractéristiques.

    En règle générale, un processus aléatoire dans tout système dynamique commence par une étape non stationnaire, après quoi le système passe généralement dans un état stable, puis les processus qui s'y déroulent peuvent être considérés comme stationnaires. À cet égard, il est devenu largement utilisé théorie des processus aléatoires stationnaires ou, plus précisément, théorie des fonctions aléatoires stationnaires(puisque l'argument d'une fonction aléatoire stationnaire dans le cas général peut ne pas être le temps).

    Définition . Fonction aléatoire X(t) s'appelle stationnaire , si toutes ses caractéristiques probabilistes ne dépendent pas de t(plus précisément, ils ne changent pas avec le déplacement des arguments dont ils dépendent le long de l'axe t).

    Dans le chapitre précédent, lors de l'étude des fonctions aléatoires, nous n'avons pas utilisé de caractéristiques probabilistes telles que les lois de distribution : nous avons étudié uniquement espérance mathématique, fonction de variance et de corrélation. Formulons la définition d'une fonction aléatoire stationnaire en fonction de ces caractéristiques.



    Puisque le changement dans une fonction aléatoire stationnaire doit se produire uniformément dans le temps, il est naturel d'exiger que son espérance mathématique soit constante :

    m x(t) = m x = const.

    Faisons cependant attention au fait que cette exigence n'est pas indispensable : on sait que par la fonction aléatoire X(t) vous pouvez toujours accéder à une fonction aléatoire centrée pour laquelle l'espérance mathématique est identiquement égale à zéro. Ainsi, si un processus aléatoire est non stationnaire uniquement en raison de l’attente mathématique, cela ne l’empêche pas d’être étudié comme stationnaire.

    La deuxième condition qu’une fonction aléatoire stationnaire doit évidemment satisfaire est la condition de variance constante :

    Dx(t) = Dx = const.

    Déterminons maintenant à quelle condition la fonction de corrélation d'une fonction aléatoire stationnaire doit satisfaire. Considérons la fonction aléatoire X(t) et mettez l'expression Kx(t 1 , t 2) t 2 = t 1 + τ . Considérons maintenant Kx(t 1 , t 1 + τ ) – moment de corrélation de deux sections d'une fonction aléatoire séparées par un intervalle de temps τ . Évidemment, si le processus aléatoire est réellement stationnaire, alors ce moment de corrélation ne devrait pas dépendre de ça, où exactement sur l'axe 0t nous avons pris l'intrigue τ , mais seulement de la longueur cette zone. Autrement dit, la fonction de corrélation d'un processus aléatoire stationnaire ne devrait dépendre que de l'écart entre le premier et le deuxième arguments.

    Kx(t 1 , t 1 + τ ) = k x(τ ).

    Ainsi, la fonction de corrélation d'un processus aléatoire stationnaire est fonction d'un argument, ce qui simplifie grandement les opérations sur les fonctions aléatoires stationnaires.

    Notez que la constance de la dispersion est un cas particulier de la formule ci-dessus, puisque Dx(t) = Kx(t, t) = k x(0) = const.

    Ainsi, en utilisant le raisonnement ci-dessus, reformulons la définition d'une fonction aléatoire stationnaire - c'est une fonction aléatoire X(t), dont l'espérance mathématique est constante pour toutes les valeurs de l'argument t et dont la fonction de corrélation dépend uniquement de la différence entre les arguments t 2 - t 1. Dans ce cas, la fonction de corrélation est fonction d'un argument, et la dispersion est égale à la valeur de la fonction de corrélation à l'origine (à τ = t 2 - t 1 = 0).

    Propriétés de la fonction de corrélation d'une fonction stationnaire.

    1 0 . Fonction de corrélation d'une fonction aléatoire stationnaire – fonction paire : k x(τ ) = k x(-τ ). Cela découle du fait que Kx(t 1 , t 2) = Kx(t 2 , t 1).

    2 0 . La valeur absolue de la fonction de corrélation d'une fonction aléatoire stationnaire ne dépasse pas sa valeur à l'origine : | k x(τ )| ≤ k x(0).

    En pratique, au lieu de la fonction de corrélation k x(τ ) souvent utilisé fonction de corrélation normalisée:

    ρx(τ ) = ,

    Dx = k x(0) – dispersion constante du processus stationnaire. C'est évident que ρx(0) ≡ 1.

    Introduisons un autre concept lié à la stationnarité.

    Définition . Deux fonctions aléatoires sont appelées connecté en permanence , si leur fonction de corrélation mutuelle dépend uniquement de la différence des arguments.

    Faisons attention au fait que deux fonctions stationnaires ne sont pas toutes connectées de manière stationnaire ; en revanche, deux fonctions non stationnaires peuvent être couplées de manière stationnaire.

    Définition [ | ]

    X t (⋅) : Ω → R , t ∈ T (\displaystyle X_(t)(\cdot)\colon \Omega \to \mathbb (R) ,\quad t\in T),

    T (style d'affichage T) un ensemble arbitraire est appelé fonction aléatoire .

    Terminologie [ | ]

    Cette classification n'est pas stricte. En particulier, le terme « processus aléatoire » est souvent utilisé comme synonyme absolu du terme « fonction aléatoire ».

    Classification [ | ]

    • Processus aléatoire X (t) (\style d'affichage X(t)) appelé un processus discret dans le temps, si le système dans lequel cela se produit change d'état seulement à des moments précis t 1 , t 2 , … (\displaystyle \;t_(1),t_(2),\ldots ), dont le nombre est fini ou dénombrable. Le processus aléatoire est appelé processus en temps continu, si le passage d'un état à l'autre peut se produire à tout moment.
    • Le processus aléatoire est appelé processus avec des états continus, si la valeur du processus aléatoire est une variable aléatoire continue. Le processus aléatoire est appelé processus aléatoire avec des états discrets, si la valeur du processus aléatoire est une variable aléatoire discrète :
    • Le processus aléatoire est appelé stationnaire, si toutes les lois de distribution multidimensionnelle dépendent uniquement de la position relative des instants du temps t 1 , t 2 , … , t n (\displaystyle \;t_(1),t_(2),\ldots,t_(n)), mais pas sur les valeurs de ces quantités elles-mêmes. En d’autres termes, un processus aléatoire est dit stationnaire si ses modèles probabilistes sont constants dans le temps. Sinon, on l'appelle non stationnaire.
    • La fonction aléatoire s'appelle stationnaire au sens large, si son espérance mathématique et sa variance sont constantes et que l'ACF dépend uniquement de la différence entre les instants de temps pour lesquels les ordonnées de la fonction aléatoire sont prises. Le concept a été introduit par A. Ya.
    • Un processus aléatoire est appelé un processus avec des incréments stationnaires d'un certain ordre si les modèles probabilistes de ces incréments sont constants dans le temps. De tels processus ont été envisagés par Yaglom.
    • Si les ordonnées d'une fonction aléatoire obéissent à la loi de distribution normale, alors la fonction elle-même est appelée normale.
    • Fonctions aléatoires dont la loi de distribution des ordonnées à un instant futur est entièrement déterminée par la valeur de l'ordonnée du processus à l'instant présent et ne dépend pas des valeurs des ordonnées du processus aux époques précédentes, sont appelés Markovien.
    • Le processus aléatoire est appelé processus avec incréments indépendants, si pour un ensemble t 1 , t 2 , … , t n (\displaystyle t_(1),t_(2),\ldots,t_(n)), Où n > 2 (\displaystyle n>2), UN t1< t 2 < … < t n {\displaystyle t_{1} , variables aléatoires (X t 2 − X t 1) (\displaystyle (X_(t_(2))-X_(t_(1)))), (X t 3 − X t 2) (\displaystyle (X_(t_(3))-X_(t_(2)))), … (\ displaystyle \ ldots ), (X t n − X t n − 1) (\displaystyle (X_(t_(n))-X_(t_(n-1)))) collectivement indépendants.
    • Si, lors de la détermination des fonctions de moment d'un processus aléatoire stationnaire, l'opération de moyenne sur un ensemble statistique peut être remplacée par une moyenne dans le temps, alors un tel processus aléatoire stationnaire est appelé ergodique .
    • Parmi les processus aléatoires, on distingue les processus aléatoires impulsifs.

    Trajectoire d'un processus aléatoire[ | ]

    Soit un processus aléatoire ( X t ) t ∈ T (\displaystyle \(X_(t)\)_(t\in T)). Puis pour chaque fixe t ∈ T (\displaystyle t\in T) Xt (\ displaystyle X_ (t))- une variable aléatoire appelée coupe transversale. Si le résultat élémentaire est fixe ω ∈ Ω (\displaystyle \omega \in \Omega ), Que X t : T → R (\displaystyle X_(t)\colon T\to \mathbb (R) )- fonction paramètre déterministe t (style d'affichage t). Cette fonction est appelée trajectoire ou mise en œuvre fonction aléatoire ( X t ) (\displaystyle \(X_(t)\)) | ]



    Avez-vous aimé l'article? Partagez avec vos amis !