Saisons

  • Détecteur de mouvement stationnaire électronique infrarouge Swan Quad
  • Maison
  • 5. Procédure d'estimation d'un modèle économétrique linéaire à partir d'une équation isolée dans Excel. La signification des informations statistiques de sortie du service de régression. (10) page 41
  • 6.Spécification et estimation de modèles économétriques des moindres carrés non linéaires en paramètres. (30) p.24-25,
  • 7. Modèle de régression par paires classique. Spécification du modèle. Théorème de Gauss-Markov.
  • 8. Méthode des moindres carrés : algorithme de la méthode, conditions d'application.
  • 9.Identification des équations individuelles d'un système d'équations simultanées : condition d'ordre. (30)
  • Condition nécessaire d’identifiabilité
  • 10.Estimation des paramètres d'un modèle de régression apparié par la méthode des moindres carrés. (10)
  • 11.Variables factices : définition, objectif, types.
  • 12. Autocorrélation de perturbations aléatoires. Raisons. Conséquences.
  • 13.Algorithme pour vérifier la signification d'un régresseur dans un modèle de régression apparié.
  • 14. Estimation par intervalle de la valeur attendue de la variable dépendante dans un modèle de régression apparié.
  • 15. Test de Chow pour la présence de changements structurels dans le modèle de régression. (20) p. 59.60
  • 16. Algorithme de vérification de l'adéquation d'un modèle de régression apparié. (20) p. 37, 79
  • 17. Coefficient de détermination dans un modèle de régression apparié.
  • 18. Estimation des paramètres d'un modèle de régression multiple par la méthode des moindres carrés.
  • 20. Hétéroscédasticité d'une perturbation aléatoire. Raisons. Conséquences. test gq(20)
  • 21.Variable muette de pente : affectation ; spécification d'un modèle de régression avec une variable muette de pente ; valeur de paramètre pour une variable factice. (20) p.65
  • 22..Algorithme pour le test de Durbin-Watson pour la présence (absence) d'autocorrélation de perturbations aléatoires. (20) page 33
  • 23. Formes structurelles et réduites de spécification des modèles économétriques.
  • 24. Hétéroscédasticité d'une perturbation aléatoire. Raisons. Conséquences. Algorithme de test de Goldfeld-Quandt pour la présence ou l'absence d'hétéroscédasticité de perturbations aléatoires.
  • Algorithme pour le test de Goldfeld-Quandt pour la présence (absence) d'hétéroscédasticité de perturbations aléatoires.
  • 27. Le problème de la multicolinéarité dans les modèles de régression multiple. Signes de multicolinéarité.
  • 28.Qu'est-ce que logit, tobit, probit.
  • 29. Qu'est-ce que la méthode du maximum de vraisemblance p.
  • 30. Qu'est-ce qu'un processus stationnaire ?
  • 31.Propriétés des séries chronologiques.
  • 32.Modèles ar et var.
  • 33. Identifiable du système.
  • 34. Mise en place d'un modèle avec un système d'équations simultanées.
  • 35.Qu'est-ce que la méthode Monte Carlo p.
  • 36. Évaluez la qualité du modèle par f, gq, dw (linéaire).
  • 37. Estimation des erreurs des paramètres du modèle économétrique à l'aide de la méthode de Monte Carlo.
  • 38. Réflexion dans le modèle de l'influence de facteurs non pris en compte. Prérequis du théorème de Gauss-Markov.
  • 39.Modèles de séries chronologiques. Propriétés des séries boursières en bourse (20) p.93.
  • 40. Valeur attendue d'une variable aléatoire, sa variance et son écart type. (20) p.12-21
  • 41. Estimation des paramètres d'un modèle de régression apparié par la méthode des moindres carrés à l'aide du service Recherche de solution.
  • 42. Test d'hypothèses statistiques, statistiques t de Student, probabilité de confiance et intervalle de confiance, valeurs critiques des statistiques de Student. Que sont les « grosses queues » ?
  • 43.Le problème de la multicolinéarité dans les modèles de régression multiple. Signes de multicolinéarité
  • 44. Coefficients partiels de détermination.
  • 46. ​​​​​​Signification économique des coefficients des équations de régression linéaire et de puissance.
  • 47. Estimation des coefficients du modèle Samuelson-Hicks
  • 48. Erreurs liées à l'inclusion de variables non significatives dans le modèle ou à l'exclusion de variables significatives P.80.
  • 49. Recherche sur un modèle de régression multiple pp. 74-79.
  • 50. Multicolinéarité : pourquoi c’est mauvais, comment la détecter et comment la combattre.
  • 51. Signes de stationnarité d'un processus stochastique. Qu’est-ce que le bruit blanc ? p.100
  • 52. Formes structurelles et réduites de spécification des modèles économétriques.
  • 53. Algorithme pour vérifier la signification d'un régresseur dans un modèle de régression apparié. Par statistiques t, par statistiques f.
  • 54. Propriétés des séries de prix en bourse. Les principes de Markowitz en matière de construction de portefeuille p.93,102
  • 55.Modèle dynamique à partir d'équations linéaires simultanées (donner un exemple) p.105.
  • 56. Méthode du maximum de vraisemblance : principes et faisabilité d'utilisation
  • 57. Étapes de recherche d'un modèle de régression multiple pp. 74-79.
  • 30. Qu'est-ce que processus stationnaire?

    La stationnarité est la propriété d'un processus de ne pas changer ses caractéristiques au fil du temps. Cela a du sens dans plusieurs domaines scientifiques. La stationnarité d'un processus aléatoire signifie l'invariance de ses modèles probabilistes dans le temps

    Une série temporelle est la mise en œuvre finale d'un processus stochastique : générer un ensemble de variables aléatoires Y(t).

    Un processus stochastique peut être stationnaire et non stationnaire. Le processus est stationnaire si

    1. L'espérance mathématique des valeurs des variables ne change pas.

    2. L'espérance mathématique des variances des variables ne change pas.

    3. Il n’y a pas de fluctuations périodiques.

    Reconnaissance de stationnarité :

    1. Graphique : croissance ou diminution systématique, vagues et zones de forte volatilité (dispersion) dans une longue série sont immédiatement visibles.

    2. Autocorrélation (diminue à mesure que le décalage augmente)

    3. Tests de tendance : tester l'hypothèse selon laquelle le coefficient à t est égal à zéro.

    4. Tests spéciaux inclus dans les progiciels Stata,

    31.Propriétés des séries chronologiques.

    Un modèle économétrique peut être construit à partir de trois types de données d’entrée :

    Données caractérisant une collection de divers objets à un certain moment (période) de temps : croix en coupe données , « spatial » ;

    Données caractérisant un objet pendant un certain nombre d'instants consécutifs

    (périodes) de temps : séries chronologiques, temps série ;

      données caractérisant un ensemble d'objets différents pour un certain nombre d'instants successifs : panneau données , « panneau ».

    Séries chronologiques – est un ensemble de valeurs de n'importe quel indicateur pour plusieurs instants (périodes) de temps successifs. Il se forme sous l'influence grand nombre facteurs qui peuvent être divisés en trois groupes :

      facteurs qui façonnent la tendance ( s'orienter ) rangée;

      facteurs qui façonnent cyclique fluctuations des séries, par exemple saisonnières, hebdomadaires ; Les séries de prix en bourse sont caractérisées par oscillations non périodiques ;

      aléatoire facteurs.

    Les modèles construits à partir de données caractérisant un objet sur plusieurs périodes consécutives sont appelés modèles de séries chronologiques.

    Chaque niveau d'une série chronologique peut être formé par ses composantes de tendance (T), cycliques ou saisonnières (S), ainsi que par ses composantes aléatoires (E).

    Les modèles dans lesquels la série chronologique est présentée comme une somme des composants répertoriés sont appelés additifs ; s'ils se présentent sous la forme d'un produit, ils sont appelés modèles multiplicatifs.

    Le modèle additif a la forme: Y=T+S+E

    Le modèle multiplicatif a la forme: Y=T*S*E

    Construire un modèle de série chronologique:

      effectuer un alignement de séries chronologiques (par exemple, en utilisant la méthode de la moyenne mobile) ; 2. Calculer les valeurs de la composante saisonnière ; 3. La composante saisonnière est éliminée et une ligne alignée est obtenue ; 4. L'alignement analytique des niveaux (T et E) et le calcul des valeurs E sont effectués à l'aide de l'équation de tendance résultante ; 5. Calculez les valeurs de T et E ; 6. Calculez les erreurs absolues et relatives.

    La construction d'une fonction analytique lors de la modélisation d'une tendance dans tout problème économétrique sur des séries temporelles est appelée alignement analytique d'une série temporelle et les fonctions suivantes sont principalement utilisées : linéaire, puissance, hyperbolique, parabolique, etc.

    Les paramètres de tendance sont déterminés comme dans le cas d'une régression linéaire à l'aide de la méthode OLS, où le temps est la variable indépendante et les niveaux des séries chronologiques sont la variable dépendante. Critères de sélection meilleure forme sert de tendance valeur la plus élevée coefficient de détermination, tests de Fisher et Student.

    L'autocorrélation des résidus est une corrélation entre les valeurs des résidus pour le moment actuel et le moment précédent. Pour déterminer l'autocorrélation des résidus, le critère de Durbin-Watson est utilisé :

    Une série chronologique est une variable économique datée à des points entiers dans le temps t. Cette variable sert de caractéristique quantitative d'un certain objet économique, donc l'évolution de cette variable dans le temps est déterminée par des facteurs qui influencent cet objet au fil du temps.

    Tous les facteurs sont divisés en 3 classes. Classe 1 : facteurs (influences « séculaires ») dont l'influence résultante sur un objet donné ne change pas de direction sur une longue période de temps. Ils génèrent une composante monotone (tendance ou tendance). Classe 2 : facteurs (influences cycliques) dont l'influence résultante sur l'objet effectue un cercle complet pendant une période de temps déterminée T. Classe 3 : facteurs (influences aléatoires) dont l'influence résultante sur l'objet change de direction et d'intensité. à grande vitesse. 3 classes de facteurs vous permettent d'interpréter la valeur de chaque période de temps comme une variable aléatoire

    Processus aléatoire stationnaire

    une classe spéciale importante de processus aléatoires, que l'on retrouve souvent dans les applications de la théorie des probabilités à diverses branches des sciences naturelles et de la technologie. Processus aléatoire X (t) est dit stationnaire si tous ses caractéristiques probabilistes ne change pas au fil du temps t (ainsi, par exemple, la distribution de probabilité de la valeur X (t) pour tout t est la même, et distribution conjointe probabilités de valeurs X (t

      dépend uniquement de la durée de l'intervalle de temps t2≈t1, c'est-à-dire que les distributions des couples de quantités (X (t1), X (t2)) et (X (t1 + s), X (t2 + s)) sont identiques pour tous t1, t2 et s, etc.).

      Schéma de S. s. p. en décrit beaucoup avec une bonne approximation phénomènes réels, accompagné de fluctuations désordonnées. Par exemple, le courant ou la tension d'ondulation dans circuit électrique(le « bruit » électrique) peut être considéré comme S. s. etc., si ce circuit est dans un mode stationnaire, c'est-à-dire si toutes ses caractéristiques macroscopiques et toutes les conditions provoquant le passage du courant ne changent pas dans le temps ; les pulsations de vitesse en un point d'un écoulement turbulent représentent s.s. p., s'ils ne changent pas conditions générales, générant le flux considéré (c'est-à-dire que le flux est constant), etc. Ces exemples et d’autres de S. s. les objets trouvés en physique (en particulier géophysique et astrophysique), en mécanique et en technologie ont stimulé le développement de la recherche dans le domaine des systèmes solaires. p.; Dans le même temps, certaines généralisations du concept de système social se sont également révélées significatives. (par exemple, le concept de processus aléatoire avec des incréments stationnaires ordre donné, généralisé S. s. et un champ aléatoire homogène).

      DANS théorie mathématique S.s. Le rôle principal est joué par les moments de la distribution de probabilité des valeurs du processus X (t), qui sont les plus simples caractéristiques numériques ces répartitions. Les moments des deux premiers ordres sont particulièrement importants : la valeur moyenne de S. s. n.EX (t) = m ≈ espérance mathématique variable aléatoire X (t) et la fonction de corrélation du système. p. EX (t1) X (t2)= B (t2≈t1) ≈ espérance mathématique du produit X (t1) X (t2) (simplement exprimée en termes de variance des valeurs X (t) et de coefficient de corrélation entre X (t1) et X ( t2) voir Corrélation). Dans beaucoup recherche mathématique, dédié à S. s. etc., en général, seules leurs propriétés sont étudiées qui sont entièrement déterminées par les caractéristiques m et B (t) seules (la soi-disant théorie de la corrélation S.s. p.). À cet égard, les processus aléatoires X (t), ayant une valeur moyenne constante EX (t) = m et une fonction de corrélation B (t2, t1) = EX (t1) X (t2), dépendant uniquement de t2 ≈ t1, sont souvent appelé C. Avec. épingle au sens large(et les processus aléatoires plus particuliers, dont toutes les caractéristiques ne changent pas dans le temps, sont appelés dans ce cas processus aléatoires au sens étroit).

      Une place importante dans la théorie mathématique des sciences sociales. les domaines sont occupés par des études basées sur l'expansion du processus aléatoire X (t) et ses fonction de corrélation B (t2 ≈t1) = B (t) dans l'intégrale de Fourier, ou Fourier ≈ Stieltjes (voir Intégrale de Fourier). Le rôle principal ici est joué par le théorème de Khinchin, selon lequel la fonction de corrélation du système. l'élément X (t) peut toujours être représenté sous la forme

      où F (l) ≈ une fonction l monotone non décroissante (et l'intégrale de droite ≈ est l'intégrale de Stieltjes) ; si B (t) diminue assez rapidement comme |t|╝¥ (comme cela arrive le plus souvent dans les applications, à condition que par X (t) nous entendons en réalité la différence X (t) ≈ m), alors l'intégrale sur la partie droite (1) se transforme en l'intégrale de Fourier habituelle :

      où f (l) = F▓(l) ≈ fonction non négative. La fonction F(l) est appelée fonction spectrale du s.s. l'élément X (t), et la fonction F (l) [dans les cas où l'égalité (2) est vraie] ≈ sa densité spectrale. Il résulte également du théorème de Khinchin que le processus X (t) admet lui-même une décomposition spectrale de la forme

      où Z (l) ≈ une fonction aléatoire avec des incréments non corrélés, et l'intégrale de droite est comprise comme la limite quadratique moyenne de la séquence correspondante de sommes intégrales. La décomposition (3) permet de considérer n'importe quel système de systèmes. élément X (t) comme superposition de non corrélés vibrations harmoniques différentes fréquences avec des amplitudes et des phases aléatoires ; en même temps fonction spectrale F(l) et densité spectrale f (l) déterminer la distribution énergie moyenne oscillations harmoniques incluses dans X (t) le long du spectre de fréquence l (et donc, dans recherche appliquée la fonction f(l) est souvent aussi appelée spectre d'énergie ou spectre de puissance du système. point X (t)).

      Identification du concept de S. s. article et l'obtention des premiers résultats mathématiques qui s'y rapportent sont le mérite de E. E. Slutsky et remontent à la fin des années 20 et au début des années 30. 20e siècle À l'avenir travail important selon la théorie de S. s. les articles ont été réalisés par A. Ya Khinchin, A. N. Kolmogorov, G. Kramer, N. Wiener et d'autres.

      Lit. : Slutsky E. E., Izbr. tr., M., 1960 ; Khinchin A. Ya., Théorie de la corrélation des processus stochastiques stationnaires, « Advances sciences mathématiques", 1938, ch. 5, p.42≈51 ; Rozanov Yu., Processus aléatoires stationnaires, M., 1963 ; Prokhorov Yu., Rozanov Yu., Théorie des probabilités. (Concepts de base. Théorèmes limites. Processus aléatoires), 2e éd., M., 1973 ; Gikhman I. I., Skorokhod A. V., Théorie des processus aléatoires, vol. 1, M., 1971 ; Hennan E., Série chronologique multivariée, trans. de l'anglais, M., 1974.

      Une classe importante de processus aléatoires est stationnaire processus aléatoires, c'est-à-dire processus aléatoires qui ne changent pas leurs caractéristiques au fil du temps. Ils se présentent sous la forme d’oscillations aléatoires continues autour d’une certaine valeur moyenne. Il s'agit de : la pression du gaz dans le gazoduc, les vibrations de l'avion pendant le « vol automatique », les fluctuations de tension dans réseau électrique etc.

      Le processus aléatoire est appeléstationnaire dans au sens large ,si son espérance mathématique
      Il y a nombre constant, et la fonction de corrélation
      dépend uniquement de la différence entre les arguments, c'est-à-dire

      De cette définition, il s'ensuit que la fonction de corrélation d'un processus stationnaire est fonction d'un argument : cette circonstance simplifie souvent les opérations sur des processus aléatoires stationnaires.

      Le processus aléatoire est appeléstationnaire dans au sens étroit , si ses caractéristiques ne dépendent pas des valeurs des arguments, mais uniquement de leur position relative. Autrement dit, la fonction de distribution des sections efficaces du processus doit satisfaire à l'égalité suivante :

      pour tout

      Notez que de la stationnarité du SP au sens étroit il résulte qu'il est stationnaire au sens large, l'affirmation inverse n'est pas vraie ;

      Dans ce qui suit, nous ne considérerons que les processus aléatoires stationnaires au sens large. Nous présentons ensuite les principales propriétés de la fonction de corrélation d'un processus stationnaire aléatoire (r.s.p.).

      1. Dispersion s.s.p. est constante et égale à la valeur de la fonction de corrélation à zéro, c'est-à-dire

      C'est-à-dire à l'origine des coordonnées.

      2. Fonction de corrélation s.s.p. est une fonction paire, c'est-à-dire

      3. Valeur absolue fonction de corrélation s.s.p. ne dépasse pas sa valeur à
      , c'est-à-dire

      Fonction de corrélation normalisée r.s.p. est une fonction d'argument non aléatoire , c'est-à-dire

      De plus, conformément à la propriété 3, l’inégalité est vraie

      Exemple 6. Une fonction aléatoire est donnée,

      variable aléatoire uniformément distribuée, dans l'intervalle

      Prouvez que

      Solution. Trouvons l'espérance mathématique

      Basé sur la définition de m.o. on obtient (en tenant compte de la distribution uniforme de r.v. , selon la condition de contrôle
      )

      Et

      Ainsi,

      Trouvons la fonction de corrélation. Considérant que les fonctions centrées et aléatoires sont égales (puisque
      ), c'est-à-dire que d'après la définition de la fonction de corrélation (voir paragraphe 16.5), nous avons

      ,

      parce que).

      Exercice. Montrer que dans les conditions de notre exemple cela a lieu

      Ainsi, l'espérance mathématique de r.v.
      est un nombre constant pour toutes les valeurs de l'argument, et sa fonction de corrélation dépend uniquement de la différence entre les arguments. Ainsi,
      fonction stationnaire aléatoire.

      Notez qu'en mettant
      dans la fonction de corrélation, on trouve la variance

      Ainsi, la variance reste constante pour toutes les valeurs de l'argument, comme elle devrait l'être pour une fonction stationnaire aléatoire.

      La plupart des processus stationnaires aléatoires ont ce qu'on appelle, important pour la pratique, « propriété ergodique" , dont l'essence est qu'à partir d'une implémentation distincte suffisamment longue d'un processus donné, on peut juger de toutes les propriétés du processus ainsi qu'à partir d'un nombre quelconque d'implémentations.

      En d’autres termes, les caractéristiques individuelles de la s.s.p.
      peuvent être définis comme les moyennes temporelles correspondantes pour une réalisation d’une durée suffisamment longue.

      La relation entre les classes de processus ergodiques stationnaires et aléatoires peut être caractérisée, par exemple, comme sur la figure 61.

      Riz. 61 (Lettre).

      Une condition suffisante pour qu’une s.p. ergodique
      par rapport à l'espérance mathématique et à la fonction de corrélation, sa fonction de corrélation tend vers zéro à
      .

      Comme estimations des caractéristiques des s.p.s. prenez la valeur moyenne dans le temps :

      Les intégrales des côtés droits des égalités sont calculées approximativement en pratique.

      Processus aléatoires
      Et
      sont appelés stationnaire en rapport, si leur fonction de corrélation mutuelle
      cela dépend uniquement de la différence
      . Comme exemple de processus stationnaire, nous pouvons prendre une oscillation harmonique. On peut montrer que
      UN

      Définition [ | ]

      X t (⋅) : Ω → R , t ∈ T (\displaystyle X_(t)(\cdot)\colon \Omega \to \mathbb (R) ,\quad t\in T),

      T (style d'affichage T) un ensemble arbitraire est appelé fonction aléatoire .

      Terminologie [ | ]

      Cette classification n'est pas stricte. En particulier, le terme « processus aléatoire » est souvent utilisé comme synonyme absolu du terme « fonction aléatoire ».

      Classification [ | ]

      • Processus aléatoire X (t) (\style d'affichage X(t)) appelé un processus discret dans le temps, si le système dans lequel cela se produit change d'état seulement à des moments précis t 1 , t 2 , … (\displaystyle \;t_(1),t_(2),\ldots ), dont le nombre est fini ou dénombrable. Le processus aléatoire est appelé processus avec temps continu , si le passage d'un état à l'autre peut se produire à tout moment.
      • Le processus aléatoire est appelé processus avec états continus , si la valeur du processus aléatoire est continue variable aléatoire. Le processus aléatoire est appelé processus aléatoire avec des états discrets, si la valeur du processus aléatoire est une variable aléatoire discrète :
      • Le processus aléatoire est appelé stationnaire, si toutes les lois de distribution multidimensionnelle dépendent uniquement de position relative moments dans le temps t 1 , t 2 , … , t n (\displaystyle \;t_(1),t_(2),\ldots,t_(n)), mais pas sur les valeurs de ces grandeurs elles-mêmes. En d’autres termes, un processus aléatoire est dit stationnaire si ses modèles probabilistes sont constants dans le temps. Sinon, on l'appelle non stationnaire.
      • La fonction aléatoire s'appelle stationnaire au sens large, si son espérance mathématique et sa variance sont constantes et que l'ACF dépend uniquement de la différence entre les instants pour lesquels les ordonnées sont prises fonction aléatoire. Le concept a été introduit par A. Ya.
      • Un processus aléatoire est appelé un processus à incréments stationnaires un certain ordre, si les modèles probabilistes d'un tel incrément sont constants dans le temps. De tels processus ont été envisagés par Yaglom.
      • Si les ordonnées d'une fonction aléatoire obéissent à la loi de distribution normale, alors la fonction elle-même est appelée normale.
      • Fonctions aléatoires dont la loi de distribution des ordonnées à un instant futur est entièrement déterminée par la valeur de l'ordonnée du processus dans moment présent temps et ne dépend pas des valeurs ordonnées du processus aux instants précédents sont appelés Markovien.
      • Le processus aléatoire est appelé processus avec incréments indépendants, si pour un ensemble t 1 , t 2 , … , t n (\displaystyle t_(1),t_(2),\ldots,t_(n)), Où n > 2 (\displaystyle n>2), UN t1< t 2 < … < t n {\displaystyle t_{1} , variables aléatoires (X t 2 − X t 1) (\displaystyle (X_(t_(2))-X_(t_(1)))), (X t 3 − X t 2) (\displaystyle (X_(t_(3))-X_(t_(2)))), … (\ displaystyle \ ldots), (X t n − X t n − 1) (\displaystyle (X_(t_(n))-X_(t_(n-1)))) collectivement indépendants.
      • Si, lors de la détermination des fonctions de moment d'un processus aléatoire stationnaire, l'opération de moyenne sur un ensemble statistique peut être remplacée par une moyenne dans le temps, alors un tel processus aléatoire stationnaire est appelé ergodique .
      • Parmi les processus aléatoires, on distingue les processus aléatoires impulsifs.

      Trajectoire d'un processus aléatoire[ | ]

      Soit un processus aléatoire ( X t ) t ∈ T (\displaystyle \(X_(t)\)_(t\in T)). Puis pour chaque fixe t ∈ T (\displaystyle t\in T) Xt (\ displaystyle X_ (t))- une variable aléatoire appelée coupe transversale. Si le résultat élémentaire est fixe ω ∈ Ω (\displaystyle \omega \in \Omega ), Que X t : T → R (\displaystyle X_(t)\colon T\to \mathbb (R) )- fonction paramètre déterministe t (style d'affichage t). Cette fonction est appelée trajectoire ou mise en œuvre fonction aléatoire ( X t ) (\displaystyle \(X_(t)\)) | ]

      Un processus aléatoire stationnaire au sens étroit est un processus aléatoire pour lequel n-la densité de probabilité dimensionnelle ne changera pas si tous les échantillons de temps sont décalés du même montant :

      Si vous choisissez, alors n-la densité de probabilité dimensionnelle ne dépendra pas de l'origine du temps

      Ainsi, pour un processus stationnaire, la densité de probabilité unidimensionnelle ne dépend pas du tout du temps, et la densité bidimensionnelle ne dépend pas séparément du temps. t 1 et t 2 , et de leur différence

      À son tour, des expressions (2.9) et (2.10), il s'ensuit que l'espérance mathématique et la dispersion d'un processus stationnaire ne dépendent pas du temps, et la fonction de corrélation dépend de t:

      (2.11)

      (2.12)

      De (2.11), (2.12) et (2.13), il s'ensuit que l'espérance mathématique est constante et donc pour un processus stationnaire caractérise la composante constante du processus ; la constance caractérise le fait qu'à chaque instant t la puissance spécifique moyenne des fluctuations (c'est-à-dire la puissance de la composante variable) est la même ; la dépendance signifie que pour un processus stationnaire, peu importe à quels moments t 1 et t 2 sections sont prises, la différence entre elles est importante .

      Si la condition (2.7) n’est pas satisfaite, alors le processus aléatoire est appelé non stationnaire. Parfois, la stationnarité n'est jugée que par la réalisation des égalités (2.9), (2.10) et, par conséquent, (2.11) - (2.13). Ils disent que si les égalités (2.9) et (2.10) sont satisfaites, alors le processus est stationnaire, sans se soucier de savoir si la condition (2.7) est satisfaite ou non. Cette approche donne une interprétation plus large de la stationnarité.

      La définition d'un processus stationnaire au sens large est plus acceptable pour résoudre des problèmes pratiques, car il est plus facile d'obtenir des données sur les densités de probabilité unidimensionnelles et bidimensionnelles que sur les densités multidimensionnelles.

      Au sens strict, il n’existe physiquement pas de processus aléatoires stationnaires, puisque tout processus doit commencer à un certain moment dans le passé et probablement se terminer à un moment donné dans le futur. Cependant, il existe de nombreuses situations physiques dans lesquelles les caractéristiques statistiques du processus ne changent pas au cours de l'intervalle de temps d'observation. Dans ces cas, l’hypothèse de stationnarité conduit à un modèle mathématique pratique qui constitue une approximation assez précise de la situation réelle.

      Propriété ergodique des processus aléatoires stationnaires

      Parmi tous les processus stationnaires, il existe une partie qui possède la propriété ergodique. Expliquons cette propriété. Qu'il y ait une longue mise en œuvre x(t) processus aléatoire ( t). Cette implémentation est définie sur l'intervalle Trouvons la valeur moyenne de cette réalisation en faisant la moyenne dans le temps sur un intervalle suffisamment grand :

      (2.14)

      où la barre supérieure signifie faire la moyenne dans le temps, la valeur moyenne est une valeur constante indépendante de t.

      De même, vous pouvez trouver la valeur moyenne du carré des fluctuations et la valeur moyenne du produit des fluctuations décalées les unes par rapport aux autres par l'intervalle :

      (2.15)

      Dans leur signification physique, les quantités (2.14) - (2.16) sont des caractéristiques numériques qui coïncident avec la valeur moyenne, la fonction de dispersion et de corrélation du processus (t). Cependant, ils sont obtenus en faisant la moyenne dans le temps d'une longue mise en œuvre x(t) ou fonctionne à partir de celui-ci.

      On dit qu’un processus stationnaire a propriété ergodique, si avec une probabilité proche de l'unité, les caractéristiques numériques obtenues en faisant la moyenne d'une longue réalisation dans le temps sont égales aux mêmes caractéristiques obtenues en faisant la moyenne sur l'ensemble. Dans ce cas, la moyenne sur un ensemble est la définition de caractéristiques numériques à l'aide de la densité de probabilité, c'est-à-dire à l'aide des formules (2.11) - (2.13), puisque la densité de probabilité caractérise l'ensemble de la population ou de l'ensemble des réalisations.

      Ainsi, pour un processus stationnaire ergodique les égalités sont valables :

      , (2.17)

      Le mot « ergodique » vient du grec « ergon » qui signifie « travail ». La propriété ergodique est une hypothèse de travail pratique pour calculer les caractéristiques numériques d'un processus stationnaire lorsqu'une longue implémentation de celui-ci est disponible. Physiquement, cela se justifie par le fait qu’une longue implémentation peut contenir des informations sur toutes les implémentations de ce processus aléatoire.

      Notons que la stationnarité du processus est une condition nécessaire mais insuffisante à l’ergodicité. Cela signifie que tous les processus stationnaires ne sont pas ergodiques. En général, il est difficile, voire impossible, de prouver que l’ergodicité est une hypothèse valable pour tout processus physique, puisqu’une seule mise en œuvre de ce processus peut être observée. Cependant, il est généralement logique de supposer que le processus est ergodique à moins qu’il n’existe des arguments physiques convaincants contre cela.



    Avez-vous aimé l'article? Partagez avec vos amis !