Méthodes du moment du maximum de vraisemblance. Méthodes d'obtention d'estimations

Dans les ouvrages destinés à la première connaissance de statistiques mathématiques, considérez généralement les estimations probabilité maximale(en abrégé ADM) :

Ainsi, la fonction de densité de probabilité correspondant à l’échantillon est d’abord construite. Puisque les éléments de l’échantillon sont indépendants, cette densité est représentée comme un produit des densités pour éléments individuels des échantillons. La densité des joints est considérée au point correspondant aux valeurs observées. Cette expression en fonction du paramètre (pour des éléments d’échantillon donnés) est appelée fonction de vraisemblance. Puis, d'une manière ou d'une autre, on recherche la valeur du paramètre pour laquelle la valeur de la densité de joint est maximale. Il s’agit d’une estimation du maximum de vraisemblance.

Il est bien connu que les estimateurs du maximum de vraisemblance appartiennent à la classe des meilleurs estimateurs asymptotiquement normaux. Cependant, avec des tailles d'échantillon finies dans un certain nombre de problèmes, les OMP sont inacceptables, car elles sont pires (la variance et l’erreur quadratique moyenne sont plus grandes) que les autres estimations, en particulier celles qui ne sont pas biaisées. C'est pourquoi dans GOST 11.010-81 pour évaluer les paramètres de négatif distribution binomiale des estimations impartiales sont utilisées plutôt que les armes de destruction massive. D'après ce qui a été dit, il faudrait a priori préférer l'OMP aux autres types d'estimations - si possible, uniquement au stade de l'étude du comportement asymptotique des estimations.

DANS dans certains cas Les ADM se trouvent explicitement, sous la forme de formules spécifiques adaptées au calcul.

Dans la plupart des cas solutions analytiques n'existe pas, pour trouver des armes de destruction massive, il faut utiliser des méthodes numériques. C'est le cas par exemple des échantillons issus de la distribution gamma ou de la distribution Weibull-Gnedenko. Dans de nombreux travaux, un système d'équations du maximum de vraisemblance est résolu à l'aide d'une méthode itérative ou la fonction de vraisemblance est directement maximisée.

Cependant, la demande méthodes numériques pose de nombreux problèmes. Convergence méthodes itératives nécessite une justification. Dans un certain nombre d'exemples, la fonction de vraisemblance possède de nombreux maxima locaux et, par conséquent, les procédures d'itération naturelle ne convergent pas. Pour les données VNII transports ferroviaires Pour les essais de fatigue de l’acier, l’équation du maximum de vraisemblance comporte 11 racines. Lequel des onze devrait être utilisé comme estimation du paramètre ?

Suite à la prise de conscience de ces difficultés, des travaux ont commencé à apparaître pour prouver la convergence d'algorithmes permettant de trouver des estimations du maximum de vraisemblance pour des modèles probabilistes et des algorithmes spécifiques.

Cependant, la preuve théorique de la convergence de l’algorithme itératif ne fait pas tout. La question se pose du choix raisonnable du moment où arrêter les calculs pour atteindre la précision requise. Dans la plupart des cas, le problème n'est pas résolu.

Mais ce n'est pas tout. La précision des calculs doit être liée à la taille de l'échantillon - plus elle est grande, plus il est nécessaire de trouver avec précision les estimations des paramètres, sinon on ne peut pas parler de cohérence de la méthode d'estimation. De plus, à mesure que la taille de l'échantillon augmente, il est nécessaire d'augmenter le nombre de chiffres utilisés dans l'ordinateur, de passer d'une précision simple à une précision double des calculs et plus encore - encore une fois, dans le but d'obtenir des estimations cohérentes.

Ainsi, en l’absence de formules explicites pour les estimations du maximum de vraisemblance, la recherche d’armes de destruction massive se heurte à un certain nombre de problèmes informatiques. Spécialistes en statistiques mathématiques se permettent d'ignorer tous ces problèmes en discutant des armes de destruction massive en termes théoriques. Cependant, les statistiques appliquées ne peuvent les ignorer. Les problèmes constatés remettent en question la faisabilité utilisation pratique ADM.

Exemple 1. Dans les problèmes statistiques de normalisation et de gestion de la qualité, la famille des distributions gamma est utilisée. La densité de distribution gamma a la forme

La densité de probabilité dans la formule (7) est déterminée par trois paramètres une, b, c, Où un>2, b>0. En même temps un est un paramètre de formulaire, b- paramètre d'échelle et Avec - paramètre de décalage. Facteur 1/G(a) se normalise, il a été introduit dans

Ici Géorgie)- l'une des fonctions spéciales utilisées en mathématiques, appelée « fonction gamma », qui donne son nom à la distribution donnée par la formule (7),

Des solutions détaillées aux problèmes d'estimation des paramètres de la distribution gamma sont contenues dans la norme d'État GOST 11.011-83 « Statistiques appliquées » développée par nos soins. Règles pour déterminer les estimations et les limites de confiance pour les paramètres de distribution gamma. Cette publication est actuellement utilisée comme matériel méthodologique pour les ingénieurs et les techniciens entreprises industrielles et les instituts de recherche appliquée.

Puisque la distribution gamma dépend de trois paramètres, il existe 2 3 - 1 = 7 options pour définir les problèmes d'estimation. Ils sont décrits dans le tableau. 1. Dans le tableau. 2 montre des données réelles sur la durée de fonctionnement des couteaux jusqu'à l'état limite, en heures. Sélection ordonnée ( série de variations) volume n= 50 tiré de la norme de l'État. Ce sont ces données qui serviront de source pour démontrer certaines méthodes d'estimation des paramètres.

Sélection des « meilleures » estimations dans un modèle paramétrique particulier statistiques appliquées- des travaux de recherche prolongés dans le temps. Distinguons deux étapes. Stade asymptotique: Les estimations sont construites et comparées en fonction de leurs propriétés à mesure que la taille de l'échantillon augmente sans limite. À ce stade, des caractéristiques des estimations telles que la cohérence, l'efficacité asymptotique, etc. sont prises en compte. Étape finale de taille de l’échantillon : les estimations sont comparées, disons, à n= 10. Il est clair que l'étude commence par la phase asymptotique : pour comparer des estimations, il faut d'abord les construire et s'assurer qu'elles ne sont pas absurdes (cette confiance est assurée par la preuve de cohérence).

Exemple 2. Estimation des paramètres de distribution gamma par la méthode des moments dans le cas de trois paramètres inconnus(ligne 7 du tableau 1).

Conformément au raisonnement ci-dessus, pour estimer trois paramètres, il suffit d'utiliser trois moments échantillons - la moyenne arithmétique de l'échantillon :

variance de l'échantillon

et tiers sélectif point central

Équivalence points théoriques, exprimé à travers des paramètres de distribution et des moments échantillons, on obtient un système d'équations pour la méthode des moments :

En résolvant ce système, nous trouvons des estimations pour la méthode des moments. En remplaçant la deuxième équation par la troisième, nous obtenons la méthode d'estimation des moments pour le paramètre de décalage :

En substituant cette estimation dans la deuxième équation, nous trouvons la méthode d'estimation des moments pour le paramètre de forme :

Enfin, à partir de la première équation, nous trouvons une estimation du paramètre de décalage :

Pour les données réelles données ci-dessus dans le tableau. 2, moyenne arithmétique de l'échantillon = 57,88, variance de l'échantillon s 2 = 663,00, exemple du troisième moment central m 3 = 14927,91. D'après les formules d'évaluation de la méthode des moments qui viennent d'être obtenues, elles sont : un* = 5,23; b* = 11,26, c* = - 1,01.

Les estimations des paramètres de distribution gamma obtenues par la méthode des moments sont des fonctions des moments de l'échantillon. Conformément à ce qui précède, ce sont des variables aléatoires asymptotiquement normales. Dans le tableau La figure 3 montre les estimations de la méthode des moments et de leurs dispersions asymptotiques pour diverses combinaisons de paramètres connus et inconnus de la distribution gamma.

Toutes les estimations de la méthode des moments données dans le tableau. 3, inclus dans norme d'état. Ils couvrent toutes les formulations de problèmes d'estimation des paramètres de la distribution gamma (voir Tableau 1), à l'exception de celles où un seul paramètre est inconnu - un ou b. Pour ces cas exceptionnels, développé méthodes spécialesévaluation.

Puisque la distribution asymptotique des estimations de la méthode des moments est connue, il n'est pas difficile de formuler des règles de vérification hypothèses statistiques concernant les valeurs des paramètres de distribution, ainsi que la construction de limites de confiance pour les paramètres. Par exemple, dans modèle probabiliste, lorsque les trois paramètres sont inconnus, conformément à la troisième ligne du tableau 3, la limite de confiance inférieure pour le paramètre UN, correspondant probabilité de confiance r = 0,95, en asymptotique il a la forme

et la limite de confiance supérieure pour la même probabilité de confiance est la suivante

UN* - évaluation de la méthode des moments du paramètre de forme (Tableau 3).

Exemple 3. Trouvons des armes de destruction massive pour un échantillon de distribution normale, dont chaque élément a une densité

Il est donc nécessaire d'estimer le paramètre bidimensionnel ( m, et 2).

Le produit des densités de probabilité pour les éléments de l'échantillon, c'est-à-dire la fonction de vraisemblance a la forme

Nous devons résoudre un problème d'optimisation

Comme dans de nombreux autres cas, le problème d'optimisation est plus facile à résoudre si l'on prend le logarithme de la fonction de vraisemblance, c'est-à-dire aller à la fonction

appelée fonction de log-vraisemblance. Pour l'échantillonnage à partir d'une distribution normale

Une condition nécessaire pour un maximum est l’égalité de 0 dérivées partielles de fonction logarithmique vraisemblance par paramètres, c'est-à-dire

Le système (10) est appelé système d’équations du maximum de vraisemblance. DANS cas général le nombre d'équations est égal au nombre de paramètres inconnus, et chacune des équations s'écrit en assimilant à 0 la dérivée partielle de la fonction log-vraisemblance par rapport à l'un ou l'autre paramètre.

En différenciant par rapport à m les deux premiers termes du côté droit de la formule (9) deviennent 0 et le dernier terme donne l'équation

Par conséquent, l’évaluation m* paramètre du maximum de vraisemblance m est la moyenne arithmétique de l'échantillon,

Pour trouver une estimation de la variance, il faut résoudre l'équation

C'est facile de voir ça

Par conséquent, l'estimation du maximum de vraisemblance (y 2)* pour la variance y 2, en tenant compte de l'estimation précédemment trouvée pour le paramètre m est la variance de l'échantillon,

Ainsi, le système d'équations du maximum de vraisemblance est résolu analytiquement, le GME pour l'espérance mathématique et la variance de la distribution normale est la moyenne arithmétique et la variance de l'échantillon. Notez que la dernière estimation est biaisée.

A noter que dans les conditions de l'exemple 3, les estimations de la méthode du maximum de vraisemblance coïncident avec les estimations de la méthode des moments. De plus, le type d'estimations de la méthode des moments est évident et ne nécessite aucun raisonnement.

Exemple 4. Essayons d'entrer dans sens secret phrase suivante fondateur statistiques modernes Ronald Fisher : « Rien n'est plus simple que d'estimer un paramètre. » Le classique était ironique : il voulait dire qu'il est facile d'avoir une mauvaise note. Bonne note il n'est pas nécessaire de l'inventer (!) - il doit être obtenu de manière standard, en utilisant le principe du maximum de vraisemblance.

Tâche. D'après H 0, les espérances mathématiques de trois variables aléatoires indépendantes de Poisson sont liées par une relation linéaire : .

Les réalisations de ces quantités sont données. Deux paramètres doivent être estimés dépendance linéaire et vérifiez H0.

Pour plus de clarté, vous pouvez imaginer régression linéaire, qui prend des valeurs moyennes en points. Laissez les valeurs être obtenues. Que peut-on dire de l’ampleur et de l’équité de H0 ?

Approche naïve

Il semblerait que les paramètres puissent être estimés en faisant appel au bon sens. Nous obtenons une estimation de la pente de la régression directe en divisant l'incrément lors de la transition de x 1 =-1 à x 3 =+1 par, et trouvons l'estimation de la valeur comme moyenne arithmétique :

Il est facile de vérifier que les attentes mathématiques des estimations sont égales (les estimations sont impartiales).

Une fois les estimations obtenues, H0 est testé comme d'habitude à l'aide du test du Chi carré de Pearson :

Des estimations des fréquences attendues peuvent être obtenues sur la base d'estimations :

De plus, si nos estimations sont « correctes », alors la distance de Pearson sera distribuée comme suit : variable aléatoire Chi carré à un degré de liberté : 3-2=1. Rappelons que nous estimons deux paramètres en ajustant les données à notre modèle. Cependant, le montant n'est pas fixe, donc unité supplémentaire pas besoin de soustraire.

Cependant, en remplaçant, nous obtenons un résultat étrange :

D'une part, il est clair que pour ces fréquences il n'y a aucune raison de rejeter H0, mais nous ne pouvons pas le vérifier à l'aide du test du chi carré, puisque l'estimation de la fréquence attendue au premier point s'avère être négatif. Ainsi, les estimations issues du « bon sens » ne permettent pas de résoudre le problème dans le cas général.

Méthode du maximum de vraisemblance

Les variables aléatoires sont indépendantes et ont une distribution de Poisson. La probabilité d'obtenir des valeurs est :

Selon le principe du maximum de vraisemblance, il faut rechercher les valeurs de paramètres inconnus, exigeant que la probabilité d'obtenir les valeurs soit maximale :

S’ils sont constants, nous avons alors affaire à une probabilité ordinaire. Fisher a proposé un nouveau terme « plausibilité » pour le cas où les constantes sont considérées comme des variables. Si la vraisemblance s'avère être le produit des probabilités événements indépendants, alors il est naturel de transformer le produit en une somme puis de traiter la log-vraisemblance :

Ici, tous les termes qui ne dépendent pas de sont désignés et écartés dans l'expression finale. Pour trouver la log-vraisemblance maximale, nous assimilons les dérivées par rapport à zéro :

En résolvant ces équations, on obtient :

Ce sont les expressions « correctes » pour les évaluations. L'estimation de la valeur moyenne coïncide avec ce qui a été proposé bon sens, cependant les estimations de la pente varient : . Que pouvez-vous dire sur la formule ?

  • 1) Il semble étrange que la réponse dépende de la fréquence au milieu, puisque la magnitude détermine l'angle d'inclinaison de la ligne.
  • 2) Cependant, si H 0 est vrai (la droite de régression est droite), alors quand grandes valeurs fréquences observées, elles se rapprochent de leurs espérance mathématique. Par conséquent : , et l’estimation du maximum de vraisemblance se rapproche du résultat obtenu par le bon sens.

3) Les bénéfices de l’estimation commencent à se faire sentir lorsque l’on remarque que toutes les fréquences attendues sont désormais toujours positives :

Cela n’était pas vrai pour les estimations « naïves », et il n’était donc pas toujours possible d’appliquer le test du chi carré (une tentative de remplacer les estimations négatives ou négatives). égal à zéro la fréquence attendue par unité n'arrange pas la situation).

4) Les calculs numériques montrent que des estimations naïves ne peuvent être utilisées que si les fréquences attendues sont suffisamment grandes. Si elles sont utilisées à de faibles valeurs, la distance de Pearson calculée sera souvent excessivement grande.

Conclusion : Le bon choix les estimations sont importantes, car sinon il ne sera pas possible de tester l’hypothèse à l’aide du test du chi carré. Une évaluation apparemment évidente peut s’avérer inutilisable !

variable aléatoire continue avec densité Le type de densité est connu, mais les valeurs des paramètres sont inconnues. La fonction de vraisemblance est une fonction (ici - un échantillon de volume n à partir de la distribution de la variable aléatoire £). Il est facile de voir que la fonction de vraisemblance peut avoir une signification probabiliste, à savoir : considérons un vecteur aléatoire dont les composantes sont des variables aléatoires indépendantes, collectivement distribuées de manière identique avec la loi D(z). Alors l’élément de probabilité du vecteur E a la forme c’est-à-dire La fonction de vraisemblance est associée à la probabilité d'obtenir un échantillon fixe dans une séquence d'expériences P. L'idée principale de la méthode de vraisemblance est que, comme estimations des paramètres A, il est proposé de prendre de telles valeurs (3) qui fournissent un maximum de fonction de vraisemblance pour un échantillon fixe donné, c'est-à-dire qu'il est proposé de considérer l'échantillon obtenu dans l'expérience comme le plus probable. Trouver des estimations des paramètres pj se réduit à résoudre un système de k équations (k est le nombre de paramètres inconnus) : Puisque la fonction log L a un maximum au même point que la fonction de vraisemblance, le système d'équations de vraisemblance (19) est souvent écrit sous la forme Comme estimations de paramètres inconnus Il faut prendre des solutions du système (19) ou (20) qui dépendent réellement de l'échantillon et ne sont pas constantes. Dans le cas où £ est discret avec une série de distribution, la fonction de vraisemblance est appelée fonction et les estimations sont recherchées comme solutions du système. Méthode du maximum de vraisemblance ou équivalente. On peut montrer que les estimations du maximum de vraisemblance ont la propriété de cohérence. Il convient de noter que la méthode du maximum de vraisemblance conduit à plus calculs complexes que la méthode des moments, mais en théorie elle est plus efficace, car les estimations du maximum de vraisemblance s'écartent moins des valeurs réelles des paramètres estimés que les estimations obtenues par la méthode des moments. Pour les distributions les plus fréquemment rencontrées dans les applications, les estimations de paramètres obtenues par la méthode des moments et la méthode du maximum de vraisemblance coïncident dans la plupart des cas. Prshir 1. L'écart (de la taille de la pièce par rapport à la valeur nominale est une variable aléatoire normalement distribuée. Il est nécessaire de déterminer l'erreur systématique et la variance de l'écart par rapport à l'échantillon. M Selon la condition ( - une variable aléatoire normalement distribuée avec espérance mathématique ( erreur systématique) et variance à estimer à partir d'un échantillon de taille n : X\>...yXn. Dans ce cas, le système de fonction de vraisemblance (19) a la forme Ainsi, en excluant les solutions qui ne dépendent pas de Xx, nous obtenons c'est-à-dire les estimations du maximum de vraisemblance dans ce cas coïncident avec la moyenne et la variance empiriques déjà connues de nous > Exemple 2. Estimez le paramètre /i à partir de l’échantillon de variable aléatoire à distribution exponentielle. 4 La fonction de vraisemblance a la forme L'équation de vraisemblance nous conduit à une solution qui coïncide avec l'estimation du même paramètre obtenue par la méthode des moments, voir (17). ^ Exemple 3. En utilisant la méthode du maximum de vraisemblance, estimez la probabilité d'apparition d'un blason si, lors de dix lancers de pièce de monnaie, le blason est apparu 8 fois. -4 Soit la probabilité à estimer égale à p. Considérons une variable aléatoire (avec une série de distribution. La fonction de vraisemblance (21) a la forme Méthode du maximum de vraisemblance L'équation donne comme estimation de la probabilité inconnue p la fréquence d'apparition des armoiries dans l'expérience. Conclusion Dans la discussion sur les méthodes permettant de trouver des estimations, nous soulignons que, même en disposant d’une très grande quantité de données expérimentales, nous ne pouvons toujours pas indiquer valeur exacte le paramètre estimé ; de plus, comme cela a été souligné à plusieurs reprises, les estimations que nous obtenons ne sont proches des valeurs réelles des paramètres estimés que « en moyenne » ou « dans la plupart des cas ». Il est donc important problème statistique, que nous examinerons ensuite, est la tâche de déterminer l'exactitude et la fiabilité de l'évaluation que nous effectuons.

La tâche d'estimation des paramètres de distribution consiste à obtenir les estimations les plus plausibles des paramètres inconnus de la distribution de la population sur la base de données d'échantillonnage. En plus de la méthode des moments pour déterminer estimation ponctuelle les paramètres de distribution sont également utilisés méthode du maximum de vraisemblance. La méthode du maximum de vraisemblance a été proposée par le statisticien anglais R. Fisher en 1912.

Soit, pour estimer le paramètre inconnu  d'une variable aléatoire X de la population générale avec une densité de distribution de probabilité p(x)= p(x, ) échantillon extrait x 1 ,x 2 ,…,x n. Nous considérerons les exemples de résultats comme la mise en œuvre n-variable aléatoire dimensionnelle ( X 1 ,X 2 ,…,X n). La méthode des moments évoquée précédemment pour obtenir des estimations ponctuelles de paramètres inconnus d'une distribution théorique ne fournit pas toujours les meilleures estimations. La méthode de recherche d'estimations possédant les (meilleures) propriétés nécessaires est la méthode maximum de vraisemblance.

La méthode du maximum de vraisemblance est basée sur la condition permettant de déterminer l'extremum d'une certaine fonction, appelée fonction de vraisemblance.

Fonction de vraisemblance DSV X

L (x 1 ,x 2 ,…,x n ; )=p(x 1 ; )p(x 2 ; )…p(x n ; ),

x 1, …, x n– options d'échantillonnage fixes,  paramètre estimé inconnu, p(x je; ) – probabilité d'événement X= x je .

Fonction de vraisemblance NSV X appelé la fonction argument  :

L (x 1 ,x 2 ,…,x n ; )=f(x 1 ; )f(x 2 ; )…f(x n ; ),

f(x je; ) – fonction de densité de probabilité donnée en des points x je .

Comme estimation ponctuelle des paramètres de distribution  prendre sa valeur à laquelle la fonction de vraisemblance atteint son maximum. Évaluation
appelé estimation du maximum de vraisemblance. Parce que fonctions L Et
L
atteindre leur maximum aux mêmes valeurs de , puis généralement pour trouver l'extremum (maximum) qu'ils utilisent
L
comme une fonctionnalité plus pratique.

Pour déterminer le point maximum
L
vous devez utiliser un algorithme bien connu pour calculer l'extremum de la fonction :


Dans le cas où la densité de probabilité dépend de deux paramètres inconnus -  1 et  2, alors trouvez points critiques, résolvant le système d'équations :

Ainsi, selon la méthode du maximum de vraisemblance, comme estimation du paramètre inconnu  on prend la valeur * à laquelle
distributions d'échantillonnage x 1 ,x 2 ,…,x n maximum.

Tâche 8. Trouvons l'estimation en utilisant la méthode du maximum de vraisemblance pour la probabilité p dans le schéma de Bernoulli,

Réalisons n essais répétés indépendants et mesurer le nombre de succès, que nous désignons m. D'après la formule de Bernoulli, la probabilité qu'il y ait m succès de n–– est la fonction de vraisemblance du DSV.

Solution : Créons une fonction de vraisemblance
.

Selon la méthode du maximum de vraisemblance, on trouve une telle valeur p, ce qui maximise L, et avec lui ln L.

Puis en prenant le logarithme L, nous avons:

Dérivée de la fonction ln L Par p on dirait
et au point extrême il est égal à zéro. Par conséquent, en résolvant l’équation
, nous avons
.

Vérifions le signe de la dérivée seconde
au point résultant :

. Parce que
pour toutes les valeurs de l'argument, alors la valeur trouvée p il y a un point maximum.

Moyens, meilleure estimation Pour
.

Ainsi, selon la méthode du maximum de vraisemblance, l’estimation de probabilité p événements UN dans le schéma de Bernoulli, la fréquence relative de cet événement est utilisée .

Si l'échantillon x 1 , x 2 ,…, x n est extraite d'une population normalement distribuée, alors les estimations de l'espérance mathématique et de la variance par la méthode du maximum de vraisemblance ont la forme :

Les valeurs trouvées coïncident avec les estimations de ces paramètres obtenues par la méthode des moments.
Parce que La dispersion étant décalée, il faut la multiplier par la correction de Bessel. Elle ressemblera alors à

, coïncidant avec la variance de l'échantillon. 9 Tâche
. Soit la distribution de Poisson m= x je où à
. Trouvons l'estimation du paramètre inconnu en utilisant la méthode du maximum de vraisemblance .

Solution :

En construisant la fonction de vraisemblance L et son logarithme ln L. Nous avons:

Trouvons la dérivée de dans L:
et résoudre l'équation
. L'estimation résultante du paramètre de distribution prendra la forme :
Alors
parce que à
dérivée partielle seconde
alors c'est le point maximum. Ainsi, la moyenne de l'échantillon peut être considérée comme une estimation du maximum de vraisemblance du paramètre  pour la distribution de Poisson.

On peut vérifier que la distribution exponentielle
fonction de vraisemblance pour les valeurs d'échantillon x 1 , x 2 , …, x n a la forme :

.

Estimation du paramètre de distribution  pour distribution exponentielle est égal à :
.

L’avantage de la méthode du maximum de vraisemblance est la capacité d’obtenir de « bonnes » estimations possédant des propriétés telles que la cohérence, la normalité asymptotique et l’efficacité pour de grands échantillons au maximum. conditions générales.

Le principal inconvénient de la méthode est la complexité de résolution des équations de vraisemblance, ainsi que le fait que la loi de distribution analysée n'est pas toujours connue.

Méthode du maximum de vraisemblance.

Cette méthode consiste à prendre comme estimation ponctuelle du paramètre la valeur du paramètre pour laquelle la fonction de vraisemblance atteint son maximum.

Pour un temps aléatoire jusqu'à défaillance avec une densité de probabilité f(t, ), la fonction de vraisemblance est déterminée par la formule 12.11 : , c'est-à-dire représente densité des articulations probabilités de mesures indépendantes de la variable aléatoire τ avec densité de probabilité f(t, ).

Si la variable aléatoire est discrète et prend les valeurs Z1,Z2..., respectivement avec les probabilités P 1 (α), P 2 (α) ..., alors la fonction de vraisemblance est prise sous une forme différente, à savoir : , où les indices des probabilités indiquent que les valeurs ont été observées.

Les estimations du maximum de vraisemblance du paramètre sont déterminées à partir de l'équation de vraisemblance (12.12).

La valeur de la méthode du maximum de vraisemblance est déterminée par les deux hypothèses suivantes :

Si le paramètre existe évaluation efficace, alors l’équation de vraisemblance (12.12) a la seule solution.

Sous certaines conditions générales à caractère analytique imposées aux fonctions f(t, ) la solution de l'équation de vraisemblance converge en k vrai sens paramètre

Considérons un exemple d'utilisation de la méthode du maximum de vraisemblance pour les paramètres de distribution normale.

Exemple:

Nous avons: , , t je (i=1..N) un échantillon d'une population avec une distribution de densité.

Nous devons trouver une estimation de similarité maximale.

Fonction de vraisemblance : ;

.

Équations de vraisemblance : ;

;

La solution de ces équations a la forme : - moyenne statistique ; - dispersion statistique. L'estimation est biaisée. Une estimation impartiale serait : .

Le principal inconvénient de la méthode du maximum de vraisemblance réside dans les difficultés de calcul qui surviennent lors de la résolution d'équations de vraisemblance, qui, en règle générale, sont transcendantales.

Méthode des moments.

Cette méthode a été proposée par K. Pearson et est la toute première méthode générale estimation ponctuelle de paramètres inconnus. Il est encore largement utilisé dans les statistiques pratiques, car il conduit souvent à une procédure de calcul relativement simple. L'idée de cette méthode est que les moments de distribution, en fonction de paramètres inconnus, sont assimilés aux moments empiriques. En prenant le nombre d'instants, égal au nombre paramètres inconnus, et en composant les équations correspondantes, nous obtiendrons le nombre d'équations requis. Les deux premiers points statistiques sont le plus souvent calculés : moyenne de l'échantillon ; et variance de l'échantillon . Les estimations obtenues par la méthode des moments ne sont pas les meilleures en termes d'efficacité. Cependant, ils sont très souvent utilisés comme premières approximations.

Regardons un exemple d'utilisation de la méthode des moments.

Exemple : Considérons la distribution exponentielle :

t>0 ; λ<0; t i (i=1..N) – échantillon d'une population avec densité de distribution. Nous devons trouver une estimation du paramètre λ.

Faisons une équation : . Donc autrement.

Méthode quantile.

Il s’agit de la même méthode empirique que la méthode des moments. Cela consiste dans le fait que les quantiles de la distribution théorique sont égaux aux quantiles empiriques. Si plusieurs paramètres sont soumis à évaluation, alors les égalités correspondantes sont écrites pour plusieurs quantiles.

Considérons le cas où la loi de distribution F(t,α,β) avec deux paramètres inconnus α, β . Laissez la fonction F(t,α,β) a une densité continuellement différentiable qui prend des valeurs positives pour toutes les valeurs de paramètres possibles α, β. Si les tests sont effectués conformément au plan , r>>1, alors le moment d'apparition de la ième défaillance peut être considéré comme un quantile empirique du niveau, je = 1,2… , - fonction de distribution empirique. Si t je Et t r – les moments d'apparition des l-ième et r-ième pannes sont connus avec précision, les valeurs des paramètres α Et β pourrait être trouvé à partir des équations



Avez-vous aimé l'article? Partagez avec vos amis !