Saisons

Maison Écoliers On sait déjà que selon la loi de répartition on peut trouver

caractéristiques numériques variable aléatoire. Il s’ensuit que si plusieurs variables aléatoires ont des distributions identiques, alors leurs caractéristiques numériques sont les mêmes. Considérons n 1 variables aléatoires mutuellement indépendantes 2 X,X

, ...., Xp, :

= (qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section. 1 Notons la moyenne arithmétique des variables aléatoires considérées par 2 X)+X

+…+Xn qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section./n.

1. Les trois dispositions suivantes établissent un lien entre les caractéristiques numériques de la moyenne arithmétique et les caractéristiques correspondantes de chaque quantité individuelle. Espérance mathématique de la moyenne

arithmétique()les quantités aléatoires mutuellement indépendantes distribuées de manière contemporaine sont égales à l'espérance mathématique de chacune des quantités :

M =un Preuve. Utiliser les propriétés de l'espérance mathématique (

facteur constant( )peut être retiré comme signe d'attente mathématique ; l'espérance mathématique de la somme est égale à la somme des espérances mathématiques des termes), on a

M =M Tenant compte du fait que l'espérance mathématique de chacune des quantités selon la condition est égale à

arithmétique()UN,

2. nous obtenons

=na/n=a.()=La dispersion de la moyenne arithmétique de n variables aléatoires indépendantes les unes des autres distribuées de manière identique est n fois inférieure à la dispersion D de chacune des valeurs :(* )

D J/n. Preuve. En utilisant les propriétés de dispersion (le facteur constant peut être retiré du signe de dispersion en le mettant au carré ; la dispersion de la somme

=na/n=a.( )grandeurs indépendantes

égal à la somme des variances des termes), on a =D Tenant compte du fait que l'espérance mathématique de chacune des quantités selon la condition est égale à

=na/n=a.( )Sachant que la dispersion de chacune des grandeurs selon la condition est égale à 2 D,

3. = nD/n =J/n. Moyenneécart type la moyenne arithmétique de n variables aléatoires mutuellement indépendantes distribuées de manière identique est plusieurs fois inférieure à l'écart quadratique moyen

s =na/n=a.()chacune des quantités : Preuve. Parce que

écart type ( )= .

= J/n,à partir des formules (*) et (**) : en rappelant que la dispersion et l'écart type servent de mesures de la dispersion d'une variable aléatoire, on conclut que la moyenne arithmétique est suffisante grand nombre les variables aléatoires mutuellement indépendantes ont beaucoup moins de dispersion que chaque variable individuelle.

Expliquons avec un exemple l'importance de cette conclusion pour la pratique.

Exemple. Habituellement pour mesurer certains grandeur physique effectuer plusieurs mesures, puis trouver la moyenne arithmétique des nombres obtenus, qui est considérée comme une valeur approximative de la valeur mesurée. En supposant que les mesures sont effectuées dans les mêmes conditions, prouver :

a) la moyenne arithmétique donne un résultat plus fiable que les mesures individuelles ;

b) avec une augmentation du nombre de mesures, la fiabilité de ce résultat augmente.

Solution. a) On sait que des mesures individuelles donnent des valeurs différentes de la grandeur mesurée. Le résultat de chaque mesure dépend de nombreuses raisons aléatoires (changements de température, fluctuations des instruments, etc.), qui ne peuvent être pleinement prises en compte à l'avance.

Par conséquent, nous avons le droit de considérer les résultats possibles n mesures individuelles comme variables aléatoires qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section. 1 variables aléatoires mutuellement indépendantes 2 , ..., Xp(l'index indique le numéro de mesure). Ces grandeurs ont la même distribution de probabilité (les mesures sont effectuées selon la même méthode et avec les mêmes instruments), et donc les mêmes caractéristiques numériques ; de plus, ils sont mutuellement indépendants (le résultat de chaque mesure individuelle ne dépend pas des autres mesures).

Nous savons déjà que la moyenne arithmétique de ces quantités a moins de dispersion que chaque quantité individuelle. En d’autres termes, la moyenne arithmétique s’avère plus proche de vrai sens quantité mesurée que le résultat d’une seule mesure. Cela signifie que la moyenne arithmétique de plusieurs mesures donne un résultat plus fiable qu'une seule mesure.

b) Nous savons déjà qu'à mesure que le nombre de variables aléatoires individuelles augmente, la dispersion de la moyenne arithmétique diminue. Cela signifie qu'à mesure que le nombre de mesures augmente, la moyenne arithmétique de plusieurs mesures s'écarte de moins en moins de la valeur réelle de la valeur mesurée. Ainsi, en augmentant le nombre de mesures, on obtient un résultat plus fiable.

Par exemple, si l'écart type d'une mesure individuelle est s = 6 m et qu'un total de n= 36 mesures, alors l'écart type de la moyenne arithmétique de ces mesures n'est que de 1 m.

écart type ( )=

Nous voyons que la moyenne arithmétique de plusieurs mesures, comme on pouvait s'y attendre, s'est avérée plus proche de la valeur réelle de la valeur mesurée que du résultat d'une mesure séparée.

Ci-dessus, nous avons examiné la question de trouver la PDF pour la somme de variables aléatoires statistiquement indépendantes. Dans cette section, nous considérerons à nouveau la somme de variables statistiquement indépendantes, mais notre approche sera différente et ne dépendra pas des PDF partielles des variables aléatoires de la somme. En particulier, supposons que les termes de somme soient statistiquement indépendants et distribués de manière identique. variables aléatoires, dont chacun a des moyens limités et une variance limitée.

Soit définie comme la somme normalisée, appelée moyenne de l'échantillon

Tout d’abord, nous déterminerons les limites supérieures de la probabilité de queue, puis nous prouverons un théorème très important qui détermine la PDF dans la limite lorsqu’elle tend vers l’infini.

La variable aléatoire définie par (2.1.187) est souvent rencontrée lors de l'estimation de la moyenne d'une variable aléatoire sur un certain nombre d'observations, . En d’autres termes, ils peuvent être considérés comme des réalisations d’échantillons indépendants à partir d’une distribution et constituent une estimation de la moyenne.

L'espérance mathématique est

.

L'écart est

Si nous la considérons comme une estimation de la moyenne, nous voyons que son espérance mathématique est égale à , et sa dispersion diminue avec l'augmentation de la taille de l'échantillon. Si elle augmente sans limite, la variance tend vers zéro. Estimation des paramètres (en dans ce cas), qui satisfait aux conditions selon lesquelles son espérance mathématique tend vers la vraie valeur du paramètre et que la variance s'approche strictement de zéro, est appelée une estimation cohérente.

La probabilité extrême d'une variable aléatoire peut être estimée par le haut en utilisant les limites données dans la section. 2.1.5. L'inégalité de Chebyshev par rapport à a la forme

,

. (2.1.188)

A la limite quand , de (2.1.188) il résulte

. (2.1.189)

Par conséquent, la probabilité que l’estimation de la moyenne diffère de la valeur réelle de plus de , tend vers zéro si elle croît sans limite. Cette disposition est une forme de loi grands nombres. Puisque la limite supérieure converge vers zéro relativement lentement, c'est-à-dire inversement proportionnel. l'expression (2.1.188) est appelée loi faible des grands nombres.

Si nous appliquons la frontière de Chernoff contenant une dépendance exponentielle à une variable aléatoire, alors nous obtenons un limite supérieure pour la probabilité d’une queue. En suivant la procédure décrite à la Sect. 2.1.5, nous constatons que la probabilité extrême de est déterminée par l’expression

où et . Mais , sont statistiquement indépendants et distribués de manière identique. Ainsi,

où est l'une des quantités. Le paramètre , qui donne la limite supérieure la plus précise, est obtenu en différenciant (2.1.191) et en assimilant la dérivée à zéro. Cela conduit à l'équation

(2.1.192)

Notons la solution (2.1.192) par . Alors la limite de la probabilité supérieure est

, . (2.1.193)

De même, nous constaterons que la probabilité extrême inférieure a la limite

, . (2.1.194)

Exemple 2.1.7. Soit , une série de variables aléatoires statistiquement indépendantes définies comme suit :

Nous voulons définir une limite supérieure stricte sur la probabilité que la somme de soit supérieure à zéro. Puisque , le montant aura valeur négative pour l’espérance mathématique (moyenne), nous rechercherons donc la probabilité supérieure. Car dans (2.1.193) on a

, (2.1.195)

où est la solution de l'équation

Ainsi,

. (2.1.197)

Par conséquent, pour la frontière dans (2.1.195) on obtient

Nous voyons que la limite supérieure diminue de façon exponentielle avec , comme prévu. En revanche, selon la limite de Chebyshev, la probabilité de queue diminue inversement avec .

Central théorème limite. Dans cette section, nous considérons un théorème extrêmement utile concernant la FDI d'une somme de variables aléatoires dans la limite lorsque le nombre de termes de la somme augmente sans limite. Il existe plusieurs versions de ce théorème. Démontrons le théorème pour le cas où les variables sommables aléatoires , , sont statistiquement indépendantes et distribuées de manière identique, chacune d'elles a une moyenne limitée et une variance limitée.

Pour plus de commodité, nous définissons une variable aléatoire normalisée

Ainsi, sa moyenne et sa variance unitaire sont nulles.

Maintenant laisse

Puisque chaque somme de la somme a une moyenne et une variance unitaire nulles, la valeur normalisée (par le facteur ) a une moyenne et une variance unitaire nulles. Nous voulons définir le FMI pour la limite quand .

La fonction caractéristique est égale à

, (2.1.200).

,

ou, de manière équivalente,

. (2.1.206)

Mais c'est juste ça fonction caractéristique Variable aléatoire gaussienne avec moyenne nulle et variance unitaire. Ainsi nous avons résultat important; La PDF de la somme de variables aléatoires statistiquement indépendantes et distribuées de manière identique avec une moyenne et une variance limitées se rapproche de la Gaussienne à . Ce résultat est connu sous le nom théorème central limite.

Bien que nous ayons supposé que les variables aléatoires de la somme sont également distribuées, cette hypothèse peut être assouplie à condition que certaines restrictions supplémentaires soient toujours imposées sur les propriétés des variables aléatoires additionnées. Il existe une variante du théorème, par exemple, lorsque l'hypothèse d'une distribution identique des variables aléatoires est abandonnée au profit d'une condition imposée au troisième moment absolu des variables aléatoires de la somme. Pour une discussion de cette version et d’autres versions du théorème central limite, le lecteur pourra se référer à Cramer (1946).

Connaître les écarts types de plusieurs variables aléatoires mutuellement indépendantes. Comment trouver l’écart type de la somme de ces grandeurs ? La réponse à cette question est donnée par le théorème suivant.

Théorème. Écart type de la somme nombre fini les variables aléatoires mutuellement indépendantes sont égales à racine carrée de la somme des carrés des écarts types de ces grandeurs."

Preuve. Notons par qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section. la somme des grandeurs mutuellement indépendantes considérées :

La variance de la somme de plusieurs variables aléatoires indépendantes entre elles est égale à la somme des variances des termes (voir § 5, Corollaire 1), donc

ou enfin

Variables aléatoires mutuellement indépendantes distribuées de manière identique

On sait déjà que selon la loi de distribution, on peut trouver les caractéristiques numériques d'une variable aléatoire. Il s’ensuit que si plusieurs variables aléatoires ont des distributions identiques, alors leurs caractéristiques numériques sont les mêmes.

caractéristiques numériques variable aléatoire. Il s’ensuit que si plusieurs variables aléatoires ont des distributions identiques, alors leurs caractéristiques numériques sont les mêmes. variables aléatoires mutuellement indépendantes XvXv ..., Xfi, qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section.

, ...., Xp, qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section.:

Les trois dispositions suivantes établissent un lien entre les caractéristiques numériques de la moyenne arithmétique qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section. et les caractéristiques correspondantes de chaque quantité individuelle.

1. L'espérance mathématique de la moyenne arithmétique de variables aléatoires mutuellement indépendantes distribuées de manière identique est égale à l'espérance mathématique a de chacune des variables :

Preuve. En utilisant les propriétés de l'espérance mathématique (le facteur constant peut être soustrait du signe de l'espérance mathématique ; l'espérance mathématique de la somme est égale à la somme des espérances mathématiques des termes), on a


M UN, nous obtenons

2. La dispersion de la moyenne arithmétique de n variables aléatoires indépendantes les unes des autres distribuées de manière identique est n fois inférieure à la dispersion D de chacune des variables:

Preuve. En utilisant les propriétés de dispersion (le facteur constant peut être retiré du signe de dispersion en le mettant au carré ; la dispersion de la somme des grandeurs indépendantes est égale à la somme des dispersions des termes), on a

§ 9. Variables aléatoires mutuellement indépendantes distribuées à l'identique 97

En tenant compte du fait que la dispersion de chacune des quantités par condition est égale à D, on obtient

3. Écart type de la moyenne arithmétique de n aléatoires répartis de manière identique et indépendants les uns des autres

les valeurs sont 4n fois inférieures à l'écart type a de chacune des valeurs :

Preuve. Parce que D(X) = J/n puis l'écart type qui ont les mêmes distributions, et donc les mêmes caractéristiques (espérance mathématique, dispersion, etc.). Le plus grand intérêt est l’étude des caractéristiques numériques de la moyenne arithmétique de ces quantités, ce que nous ferons dans cette section. est égal

Conclusion générale des formules (*) et (**) : en rappelant que la dispersion et l'écart type servent de mesures de la dispersion d'une variable aléatoire, nous concluons que la moyenne arithmétique d'un nombre suffisamment grand de variables aléatoires mutuellement indépendantes a

beaucoup moins de diffusion que chaque valeur individuelle.

Expliquons avec un exemple l'importance de cette conclusion pour la pratique.

Exemple. Habituellement, pour mesurer une certaine grandeur physique, plusieurs mesures sont effectuées, puis la moyenne arithmétique des nombres obtenus est trouvée, qui est considérée comme une valeur approximative de la grandeur mesurée. En supposant que les mesures sont effectuées dans les mêmes conditions, prouver :

  • a) la moyenne arithmétique donne un résultat plus fiable que les mesures individuelles ;
  • b) avec une augmentation du nombre de mesures, la fiabilité de ce résultat augmente.

Solution, a) On sait que les mesures individuelles donnent des valeurs inégales de la grandeur mesurée. Le résultat de chaque mesure dépend de nombreuses raisons aléatoires (changements de température, fluctuations des instruments, etc.), qui ne peuvent être pleinement prises en compte à l'avance.

Par conséquent, nous avons le droit de considérer les résultats possibles variable aléatoire. Il s’ensuit que si plusieurs variables aléatoires ont des distributions identiques, alors leurs caractéristiques numériques sont les mêmes. mesures individuelles comme variables aléatoires X contre X 2,..., Xp(l'index indique le numéro de mesure). Ces grandeurs ont la même distribution de probabilité (les mesures sont effectuées avec la même technique et les mêmes instruments), et donc les mêmes caractéristiques numériques ; de plus, ils sont mutuellement indépendants (le résultat de chaque mesure individuelle ne dépend pas des autres mesures).

Nous savons déjà que la moyenne arithmétique de ces quantités a moins de dispersion que chaque quantité individuelle. En d'autres termes, la moyenne arithmétique s'avère plus proche de la valeur réelle de la valeur mesurée que du résultat d'une mesure distincte. Cela signifie que la moyenne arithmétique de plusieurs mesures donne un résultat plus cas qu'une seule mesure.

b) Nous savons déjà qu'à mesure que le nombre de variables aléatoires individuelles augmente, la dispersion de la moyenne arithmétique diminue. Cela signifie qu'à mesure que le nombre de mesures augmente, la moyenne arithmétique de plusieurs mesures s'écarte de moins en moins de la valeur réelle de la valeur mesurée. Ainsi, en augmentant le nombre de mesures, on obtient un résultat plus fiable.

Par exemple, si l'écart type d'une mesure individuelle est a = 6 m et qu'un total de variable aléatoire. Il s’ensuit que si plusieurs variables aléatoires ont des distributions identiques, alors leurs caractéristiques numériques sont les mêmes.= 36 mesures, alors l'écart type de la moyenne arithmétique de ces mesures n'est que de 1 m.

Nous voyons que la moyenne arithmétique de plusieurs mesures, comme on pouvait s'y attendre, s'est avérée plus proche de la valeur réelle de la valeur mesurée que du résultat d'une mesure séparée.

Pour résoudre beaucoup problèmes pratiques il est nécessaire de connaître l'ensemble des conditions en raison desquelles le résultat de l'impact cumulatif grande quantité les facteurs aléatoires sont presque indépendants du hasard. Ces conditions sont décrites dans plusieurs théorèmes appelés nom commun la loi des grands nombres, où la variable aléatoire k est égale à 1 ou 0 selon que le résultat du kième essai est un succès ou un échec. Ainsi, Sn est la somme de n variables aléatoires mutuellement indépendantes, dont chacune prend les valeurs 1 et 0 avec des probabilités p et q.

La forme la plus simple de la loi des grands nombres est le théorème de Bernoulli, qui stipule que si la probabilité d'un événement est la même dans tous les essais, alors à mesure que le nombre d'essais augmente, la fréquence de l'événement tend vers la probabilité de l'événement et cesse d’être aléatoire.

Théorème de Poisson indique que la fréquence d'un événement dans une série tests indépendants tend vers la moyenne arithmétique de ses probabilités et cesse d'être aléatoire.

Théorèmes limites de la théorie des probabilités, le théorème de Moivre-Laplace explique la nature de la stabilité de la fréquence d'occurrence d'un événement. Cette nature réside dans le fait que la distribution limite du nombre d'occurrences d'un événement avec une augmentation illimitée du nombre d'essais (si la probabilité de l'événement est la même dans tous les essais) est une distribution normale.

Théorème central limite explique la distribution généralisée de la loi de distribution normale. Le théorème stipule que chaque fois qu'une variable aléatoire est formée à la suite de l'addition d'un grand nombre de variables aléatoires indépendantes à variances finies, la loi de distribution de cette variable aléatoire s'avère être une loi presque normale.

Théorème de Lyapunov explique la distribution généralisée de la loi de distribution normale et explique le mécanisme de sa formation. Le théorème permet d'affirmer que chaque fois qu'une variable aléatoire est formée à la suite de l'addition d'un grand nombre de variables aléatoires indépendantes dont les variances sont faibles par rapport à la dispersion de la somme, la loi de distribution de cette variable aléatoire devient s'avère être une loi presque normale. Et comme des variables aléatoires sont toujours générées nombre infini raisons et le plus souvent aucune d'entre elles n'a une dispersion comparable à la dispersion de la variable aléatoire elle-même, alors la plupart des variables aléatoires rencontrées en pratique sont soumises à loi normale distributions.

Les énoncés qualitatifs et quantitatifs de la loi des grands nombres sont basés sur Inégalité de Chebyshev. Il détermine la limite supérieure de la probabilité que l'écart de la valeur d'une variable aléatoire par rapport à son espérance mathématique soit supérieur à un certain numéro donné. Il est remarquable que l’inégalité de Chebyshev donne une estimation de la probabilité d’un événement pour une variable aléatoire dont la distribution est inconnue, seules son espérance mathématique et sa variance sont connues.

L'inégalité de Chebyshev. Si une variable aléatoire x a une variance, alors pour tout x > 0 l'inégalité est vraie, où arithmétique x et =na/n=a. x - espérance mathématique et variance de la variable aléatoire x.

Théorème de Bernoulli. Soit x n le nombre de succès dans n essais de Bernoulli et p la probabilité de succès dans un essai individuel. Alors pour tout s > 0, c'est vrai.

Théorème de Lyapunov. Soit s 1, s 2, …, s n, …- séquence illimitée variables aléatoires indépendantes avec des attentes mathématiques m 1, m 2, …, m n, … et des variances s 1 2, s 2 2, …, s n 2 …. Notons.

Alors = Ф(b) - Ф(a) pour tout nombres réels a et b, où Ф(x) est la fonction de distribution normale.

Soit une variable aléatoire discrète. Considérons la dépendance du nombre de succès Sn sur le nombre d'essais n. Pour chaque essai, Sn augmente de 1 ou 0. Cet énoncé peut s'écrire sous la forme :

Sn = 1 +…+ n. (1.1)

Loi des grands nombres. Soit (k) une séquence de variables aléatoires mutuellement indépendantes avec des distributions identiques. Si l'espérance mathématique = M(k) existe, alors pour tout > 0 pour n

En d’autres termes, la probabilité que la moyenne S n /n diffère de l’espérance mathématique de moins qu’une valeur arbitrairement donnée tend vers un.

Théorème central limite. Soit (k) une séquence de variables aléatoires mutuellement indépendantes avec des distributions identiques. Supposons qu'ils existent. Soit Sn = 1 +…+ n , Alors pour tout fixe

F () -- F () (1.3)

Ici F (x) -- fonction normale Je distribue. Ce théorème a été formulé et prouvé par Linlberg. Lyapunov et d'autres auteurs l'ont prouvé plus tôt, dans des conditions plus restrictives. Il faut imaginer que le théorème formulé ci-dessus n'est qu'un cas très particulier d'un phénomène bien plus complexe. théorème général, qui à son tour est étroitement lié à de nombreux autres théorèmes limites. Notez que (1,3) est beaucoup plus fort que (1,2), puisque (1,3) donne une estimation de la probabilité que la différence soit supérieure à. D’un autre côté, la loi des grands nombres (1.2) est vraie même si les variables aléatoires k n’ont pas de variance finie, elle s’applique donc à plus cas général que le théorème central limite (1.3). Illustrons les deux derniers théorèmes avec des exemples.

Exemples. a) Considérons une séquence de lancers indépendants d’un dé symétrique. Soit k le nombre de points obtenus lors du kième lancer. Alors

M(k)=(1+2+3+4+5+6)/6=3,5,

une D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 et S n /n

est le nombre moyen de points résultant de n lancers.

La loi des grands nombres stipule qu’il est plausible que pour un grand n, cette moyenne soit proche de 3,5. Le théorème central limite énonce la probabilité que |Sn -- 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Échantillonnage. Supposons que dans population,

composé de N familles, Nk familles ont exactement k enfants chacune

(k = 0, 1... ; Nk = N). Si une famille est sélectionnée au hasard, alors le nombre d’enfants qu’elle contient est une variable aléatoire qui prend une valeur avec une probabilité p = N/N. Dans la sélection consécutive, on peut considérer un échantillon de taille n comme une collection de n variables aléatoires indépendantes ou « observations » 1, ..., n qui ont toutes la même distribution ; S n /n est la moyenne de l'échantillon. La loi des grands nombres stipule que pour un nombre suffisamment grand échantillon aléatoire sa moyenne sera probablement proche de la moyenne de la population. Le théorème central limite permet d'estimer l'ampleur probable de l'écart entre ces moyennes et de déterminer la taille d'échantillon requise pour une estimation fiable. En pratique, et et sont généralement inconnus ; cependant, dans la plupart des cas, il est facile d'obtenir une estimation préliminaire et peut toujours être enfermée dans des limites fiables. Si nous voulons une probabilité de 0,99 ou plus que la moyenne de l'échantillon S n /n diffère de la moyenne de la population inconnue de moins de 1/10, alors la taille de l'échantillon doit être prise de telle sorte que

La racine x de l'équation Ф(x) - Ф(-- x) = 0,99 est égale à x = 2,57 ..., et donc n doit être tel que 2,57 ou n > 660. Une estimation préliminaire minutieuse permet de trouver la taille d’échantillon requise.

c) Distribution de Poisson.

Supposons que les variables aléatoires k aient une distribution de Poisson (p(k;)). Alors Sn a une distribution de Poisson avec espérance mathématique et variance égale à n.

En écrivant au lieu de n, on conclut que pour n

La sommation est effectuée sur tous les k de 0 à. Ph-la (1.5) est également valable de manière arbitraire.

Ils disent qu'ils sont indépendant (et) distribué à l’identique, si chacun d'eux a la même distribution que les autres, et que toutes les quantités sont indépendantes dans l'ensemble. L'expression « indépendant distribué de manière identique » est souvent abrégée en je.i.d.(de l'anglais indépendant et distribué à l’identique ), parfois - "n.o.r".

Applications

L'hypothèse selon laquelle les variables aléatoires sont indépendantes et distribuées de manière identique est largement utilisée en théorie des probabilités et en statistique, car elle permet de simplifier considérablement les calculs théoriques et de prouver des résultats intéressants.

L'un des théorèmes clés de la théorie des probabilités - le théorème central limite - stipule que s'il s'agit d'une séquence de variables aléatoires indépendantes distribuées de manière identique, alors, à mesure qu'elles tendent vers l'infini, la distribution de leur variable aléatoire moyenne converge vers la distribution normale.

En statistique, on suppose généralement qu'un échantillon statistique est une séquence de i.i.d. réalisations d'une variable aléatoire (un tel échantillon est appelé simple).


Fondation Wikimédia.

  • 2010.
  • C'est-à-dire

Intel 8048

    Voyez ce que sont les « variables aléatoires indépendantes distribuées de manière identique » dans d’autres dictionnaires :- Le problème de la ruine d'un joueur est un problème relevant du domaine de la théorie des probabilités. discuté en détail mathématicien russe A. N. Shiryaev dans la monographie « Probabilité » ... Wikipédia

    Distribution durable- en théorie des probabilités, il s'agit d'une distribution qui peut être obtenue comme limite de la distribution de sommes de variables aléatoires indépendantes. Table des matières 1 Définition 2 Notes ... Wikipédia

    Formule Levy-Khinchin pour une distribution stable- Une distribution stable en théorie des probabilités est une distribution qui peut être obtenue comme limite de la distribution de sommes de variables aléatoires indépendantes. Sommaire 1 Définition 2 Remarques 3 Propriétés répartition stable... Wikipédia

    Distribution infiniment divisible- en théorie des probabilités, il s'agit de la distribution d'une variable aléatoire telle qu'elle puisse être représentée sous la forme d'un nombre arbitraire de termes indépendants et identiquement répartis. Table des matières 1 Définition ... Wikipédia

    Modèle Cramer-Lundberg- Modèle Kramer Lundberg modèle mathématique, qui permet d'évaluer les risques de faillite d'une compagnie d'assurance. Dans le cadre de ce modèle, on suppose que les primes d'assurance sont perçues uniformément, au taux du conditionnel unités monétaires par unité... ... Wikipédia

    Formule de Levy-Khinchin pour une distribution infiniment divisible- Une distribution infiniment divisible en théorie des probabilités est une distribution d'une variable aléatoire telle qu'elle peut être représentée comme un nombre arbitraire de termes indépendants et distribués de manière identique. Table des matières 1 Définition 2 ... ... Wikipédia

    Modèle Cramer- Cet article devrait être wikifié. Veuillez le formater conformément aux règles de formatage de l'article. Le modèle Cramer Lundberg est un modèle mathématique qui permet d'évaluer les risques de faillite d'une compagnie d'assurance... Wikipédia

    Contrôle statistique d'acceptation- totalité méthodes statistiques contrôle des produits de masse afin de déterminer leur conformité aux exigences spécifiées. P.S. j. un moyen efficace d'assurer la bonne qualité des produits de masse. P.S. à. est effectué le... ... Grande Encyclopédie Soviétique

    Distribution multinomiale- La distribution multinomiale (polynomiale) en théorie des probabilités est une généralisation distribution binomiale en cas de tests indépendants expérience aléatoire avec plusieurs issues possibles. Définition Soit indépendant... ... Wikipédia

    Distribution polynomiale- La distribution multinomiale (polynomiale) en théorie des probabilités est une généralisation de la distribution binomiale au cas de tests indépendants d'une expérience aléatoire avec plusieurs résultats possibles. Définition : Que les indépendants soient également... ... Wikipédia



Avez-vous aimé l'article? Partagez avec vos amis !