Schéma de Bernoulli. Exemples de résolution de problèmes

Par conséquent, votre passe-temps immédiat sera extrêmement utile. De plus, je vais vous dire ce qui ne va pas écrasante majorité participants aux loteries et aux jeux de hasard. ...Non, la foi ou un faible espoir de « décrocher le jackpot » n'a absolument rien à voir là-dedans ;-) Sans même avoir le temps de cligner des yeux, nous sommes plongés dans le sujet :

Ce qui s'est passé tests indépendants ? Presque tout ressort clairement du nom lui-même. Faisons plusieurs tests. Si la probabilité qu'un certain événement se produise dans chacun d'eux ne dépend pasà partir des résultats des tests restants, alors... on termine la phrase à l'unisson =) Bravo. De plus, l’expression « tests indépendants » signifie souvent répété tests indépendants – lorsqu’elles sont réalisées les unes après les autres.

Les exemples les plus simples :
– la pièce est lancée 10 fois ;
– le dé est lancé 20 fois.

Il est absolument clair que la probabilité d'obtenir pile ou face dans un test ne dépend pas des résultats des autres lancers. Une affirmation similaire est naturellement vraie pour le cube.

Mais le retrait séquentiel des cartes du jeu n'est pas une série de tests indépendants - comme vous vous en souvenez, il s'agit d'une chaîne événements dépendants. Cependant, si vous restituez la carte à chaque fois, la situation deviendra « comme elle devrait être ».

Je m'empresse de vous faire plaisir - notre invité est un autre Terminator, qui est absolument indifférent à ses succès/échecs, et donc son tir est un exemple de stabilité =) :

Problème 1

Le tireur tire 4 coups sur la cible. La probabilité de toucher à chaque tir est constante et égale. Trouvez la probabilité que :

a) le tireur ne frappera qu'une seule fois ;
b) le tireur frappera 2 fois.

Solution: la condition est formulée V vue générale et la probabilité d'atteindre la cible à chaque tir considéré comme célèbre. C'est égal (si c'est vraiment difficile, assignez un paramètre au paramètre signification spécifique, Par exemple,) .

Une fois que l'on connaît, il est facile de trouver la probabilité d'un échec dans chaque tir :
, c'est-à-dire que « ku » est aussi quantité connue de nous.

a) Considérez l'événement "Le tireur ne frappera qu'une seule fois" et dénotons sa probabilité par (les indices s'entendent comme « un résultat sur quatre »). Cet événement se compose de 4 résultats incompatibles : le tireur frappera le 1er ou au 2ème ou au 3ème ouà la 4ème tentative.

Trouvez la probabilité qu'en lançant 10 pièces, 3 pièces tombent sur face.

Ici, les tests ne sont pas répétés, mais effectués simultanément, mais néanmoins la même formule fonctionne : .

La solution différera par le sens et certains commentaires, notamment :
en utilisant ces méthodes, vous pouvez choisir 3 pièces sur lesquelles des têtes apparaîtront.
– probabilité d'obtenir face sur chacune des 10 pièces
etc.

Or, en pratique tâches similaires ne sont pas si courants et, apparemment, pour cette raison, la formule de Bernoulli n’est associée de manière presque stéréotypée qu’à des tests répétés. Cependant, comme nous venons de le montrer, la répétabilité n’est pas du tout nécessaire.

Tâche suivante pour décision indépendante:

Problème 3

lancé 6 fois. Trouvez la probabilité que 5 points :

a) ne tombera pas (apparaîtra 0 fois);
b) apparaîtra 2 fois ;
c) apparaîtra 5 fois.

Arrondissez les résultats à 4 décimales.

Solution rapide et la réponse à la fin de la leçon.

Il est évident que dans les exemples considérés, certains événements sont plus probables et d'autres moins probables. Ainsi, par exemple, avec 6 lancers de dés, même sans aucun calcul, il est intuitivement clair que les probabilités d'événements aux points « a » et « be » sont significativement plus probable ce « cinq » apparaîtra 5 fois. Maintenant, définissons la tâche pour trouver

Nombre le plus probable d'occurrences d'un événement dans des essais indépendants

Encore une fois, au niveau de l'intuition dans le problème n°3, nous pouvons conclure que le nombre le plus probable d'apparitions des « cinq » est égal à un - après tout, il y a six faces au total, et avec 6 lancers de dés, chacune d'entre eux devraient apparaître en moyenne une fois. Les personnes intéressées peuvent calculer la probabilité et voir si elle est supérieure aux valeurs « concurrentes » et .

Formulons un critère strict: pour trouver le nombre d'occurrences le plus probable Événement aléatoire dans des essais indépendants (avec probabilité dans chaque essai) sont guidés par la double inégalité suivante :

, et:

1) si la valeur est fractionnaire, alors il existe un seul nombre le plus probable ;
en particulier, si est un nombre entier, alors c'est le nombre le plus probable : ;

2) si c'est un tout, alors il y a deux nombres les plus probables : et .

Le nombre le plus probable d’occurrences d’un « cinq » sur 6 lancers de dés tombe sous cas particulier premier point:

Afin de consolider le matériel, nous allons résoudre quelques problèmes :

Problème 4

La probabilité qu'un basketteur touche le panier en lançant le ballon est de 0,3. Trouvez le nombre de coups sûrs le plus probable avec 8 lancers et la probabilité correspondante.

Et c'est, sinon le Terminator, du moins un athlète de sang-froid =)

Solution: pour estimer le nombre de hits le plus probable, nous utilisons la double inégalité . DANS dans ce cas:

– total des lancers ;
– la probabilité de toucher le panier à chaque lancer ;
– la probabilité de rater à chaque lancer.

Ainsi, le nombre de coups sûrs le plus probable avec 8 lancers se situe dans les limites suivantes :

Puisque la bordure gauche est un nombre fractionnaire (point n°1), alors il existe une seule valeur la plus probable et, évidemment, elle est égale à .

Utiliser la formule de Bernoulli , calculons la probabilité qu'avec 8 lancers il y ait exactement 2 coups sûrs :

Répondre: – nombre de touches le plus probable avec 8 lancers,
– la probabilité correspondante.

Une tâche similaire pour une solution indépendante :

Problème 5

La pièce est lancée 9 fois. Trouvez la probabilité du nombre le plus probable d'occurrences d'un aigle

Échantillon approximatif solutions et réponse à la fin de la leçon.

Après une digression fascinante, examinons quelques tâches supplémentaires, puis je partagerai le secret bon jeu V jeu d'argent et les loteries.

Problème 6

Parmi les produits fabriqués sur une machine automatique, en moyenne, 60 % des produits sont de première qualité. Quelle est la probabilité que parmi 6 éléments sélectionnés au hasard il y ait :

a) de 2 à 4 produits de première classe ;
b) au moins 5 produits de première classe ;
c) au moins un produit de qualité inférieure.

La probabilité de produire un produit de première classe ne dépend pas de la qualité des autres produits fabriqués, nous parlons donc ici de tests indépendants. Essayez de ne pas négliger l'analyse de la condition, sinon cela pourrait s'avérer être un événement dépendant ou bien la tâche concerne tout autre chose.

Solution: la probabilité est codée en pourcentage, qui, je le rappelle, doit être divisé par cent : - la probabilité que le produit sélectionné soit de 1ère année.
Ensuite : – la probabilité qu'il ne soit pas de première classe.

a) Événement « Parmi 6 produits sélectionnés au hasard, il y aura de 2 à 4 produits de première classe » se compose de trois résultats incompatibles :

parmi les produits, il y en aura 2 de première classe ou 3 première classe ou 4 première classe.

Il est plus pratique de traiter les résultats séparément. On utilise la formule de Bernoulli trois fois :

– la probabilité qu'au moins 5 ordinateurs sur six fonctionnent sans panne pendant la journée.

Cette valeur Cela ne nous conviendra pas non plus, car c'est moins que la fiabilité requise du centre informatique :

Ainsi, six ordinateurs ne suffisent pas non plus. Ajoutons-en un de plus :

3) Qu'il y ait des ordinateurs dans le centre informatique. Ensuite, 5, 6 ou 7 ordinateurs devraient fonctionner parfaitement. En utilisant la formule de Bernoulli et le théorème d'addition des probabilités d'événements incompatibles, trouvons la probabilité qu’au moins 5 ordinateurs sur sept fonctionnent sans panne pendant la journée.

Le théorème bien connu de J. Bernoulli, qui établit le lien entre la fréquence d'un événement et sa probabilité, peut être prouvé comme conséquence directe loi grands nombres.

Faisons des expériences indépendantes, dans chacune desquelles un événement peut apparaître ou non, dont la probabilité dans chaque expérience est égale à . Le théorème de J. Bernoulli affirme qu'avec une augmentation illimitée du nombre d'expériences, la fréquence d'un événement converge en probabilité vers sa probabilité.

Notons la fréquence des événements dans les expériences par et écrivons le théorème de J. Bernoulli sous la forme d'une formule

, (13.5.1)

où, sont des nombres positifs arbitrairement petits.

Il faut prouver la validité de cette formule pour un .

Preuve. Considérons des variables aléatoires indépendantes :

Nombre d'occurrences de l'événement lors de la première expérience ;

Nombre d'occurrences de l'événement dans la deuxième expérience, etc.

Toutes ces grandeurs sont discontinues et ont la même loi de répartition, exprimée par une série de la forme :

Où . L'espérance mathématique de chaque quantité est égale à , et sa variance (voir 10.3).

La fréquence n'est rien de plus qu'une moyenne quantités arithmétiques :

et, selon la loi des grands nombres, converge en probabilité vers l'espérance mathématique générale de ces variables aléatoires. Cela implique la validité de l'inégalité (13.5.1).

Le théorème de J. Bernoulli énonce la stabilité de la fréquence dans des conditions expérimentales constantes. Mais dans des conditions d’expérience changeantes, une stabilité similaire existe également. Le théorème établissant la propriété de stabilité de fréquence à conditions variables L'expérience est appelée théorème de Poisson et se formule comme suit :

Si des expériences indépendantes sont effectuées et que la probabilité d'occurrence d'un événement dans la ème expérience est égale, alors à mesure que la fréquence de l'événement augmente, la probabilité converge vers la moyenne arithmétique des probabilités.

Le théorème de Poisson est dérivé du théorème généralisé de Chebyshev de la même manière que le théorème de Bernoulli est dérivé de la loi des grands nombres.

Le théorème de Poisson revêt une grande importance fondamentale pour application pratique théorie des probabilités. Le fait est que souvent méthodes probabilistes servent à étudier des phénomènes qui, dans les mêmes conditions, n’ont aucune chance de se répéter plusieurs fois, mais se répètent plusieurs fois dans des conditions très différentes. conditions différentes, et les probabilités des événements qui nous intéressent dépendent fortement de ces conditions. Par exemple, la probabilité de toucher une cible lors d'une bataille aérienne dépend fortement du champ de tir, de l'angle de la cible, de l'altitude de vol, de la vitesse de l'avion qui tire et de la cible, etc. L'ensemble de ces conditions est trop nombreux. compter sur une mise en œuvre répétée combat aérien précisément dans ces conditions fixes. Et pourtant, malgré cela, dans Ce phénomène il existe une certaine stabilité des fréquences, à savoir que la fréquence d'atteinte d'une cible dans des combats aériens réels, menés dans une grande variété de conditions, se rapprochera de la probabilité moyenne d'atteindre une cible caractéristique d'un groupe de conditions donné. Par conséquent, les méthodes d'organisation du tir basées sur la probabilité maximale d'atteindre la cible seront justifiées dans ce cas, malgré le fait qu'on ne peut pas s'attendre à une véritable échelle d'expérimentation de masse dans chaque ensemble spécifique de conditions.

La situation est similaire dans le domaine de la vérification expérimentale des calculs probabilistes. En pratique, il arrive très souvent qu'il soit nécessaire de vérifier expérimentalement si la probabilité calculée d'un événement correspond à sa fréquence réelle. Le plus souvent, cela est fait afin de vérifier l'exactitude de l'un ou l'autre schéma théorique qui sous-tend la méthode de calcul de la probabilité d'un événement. Souvent, avec de tels tests expérimentaux, il n’est pas possible de reproduire plusieurs fois les mêmes conditions expérimentales. Et pourtant, cette vérification peut être effectuée si l'on compare la fréquence d'un événement observée expérimentalement non pas avec sa probabilité pour des conditions fixes, mais avec la moyenne arithmétique des probabilités calculées pour diverses conditions.

Effectuons des tests indépendants, dans chacun desquels la probabilité que l'événement se produise est UN égal à R. . En d’autres termes, laissons le plan de Bernoulli tenir. Est-il possible de prédire quelle sera la fréquence relative approximative d’occurrence d’un événement ? Une réponse positive à cette question est donnée par un théorème prouvé par J. Bernoulli 1, appelé « loi des grands nombres » et qui a jeté les bases de la théorie des probabilités en tant que science 2.

Théorème de Bernoulli: Si dans chacun des tests indépendants réalisés dans les mêmes conditions, la probabilité R. survenance d'un événement UN est constante, alors la fréquence relative d'apparition de l'événement UN converge en probabilité vers probabilité R. - apparence de cet événement dans une expérience distincte, c'est-à-dire

.

Preuve . Ainsi, le schéma de Bernoulli est valable :
. Notons par
variable aléatoire discrète - le nombre d'occurrences de l'événement UN V -ème essai. Il est clair que chacune des variables aléatoires ne peut prendre que deux valeurs : 1 (événement UN s'est produit) avec probabilité R. Et 0 (événement UN ne s'est pas produit) avec probabilité
, c'est

(
)

R.

R.

Pas difficile à trouver

Est-il possible d'appliquer le théorème de Chebyshev aux grandeurs considérées ? Cela est possible si les variables aléatoires sont indépendantes par paire et que leurs variances sont uniformément bornées. Les deux conditions sont remplies. En effet, l'indépendance par paire des quantités
découle du fait que les tests sont indépendants. Les 3 suivants
à
et, par conséquent, les variances de toutes les quantités sont limitées, par exemple par le nombre
. De plus, notons que chacune des variables aléatoires
lorsqu'un événement survient UN dans le test correspondant prend la valeur égal à un. Par conséquent, le montant
égal au nombre
- occurrences d'événements UN V tests, ce qui signifie

,

c'est-à-dire une fraction
égal à la fréquence relative occurrences de l'événement UN V essais.

Ensuite, en appliquant le théorème de Chebyshev aux grandeurs considérées, on obtient :

Q.E.D.

Commentaire 1 : Le théorème de Bernoulli est le cas particulier le plus simple du théorème de Chebyshev.

Commentaire 2 : En pratique, les probabilités inconnues doivent souvent être déterminées approximativement à partir de l’expérience ; un grand nombre d’expériences ont été réalisées pour vérifier la concordance du théorème de Bernoulli avec l’expérience. Par exemple, le naturaliste français Buffon du XVIIIe siècle a lancé une pièce de monnaie 4 040 fois. Les armoiries sont tombées 2048 fois. La fréquence d'apparition des armoiries dans l'expérience de Buffon est d'environ 0,507. Le statisticien anglais K. Pearson a lancé une pièce 12 000 fois et a observé 6 019 pièces. La fréquence des armoiries dans cette expérience Pearson est de 0,5016. Une autre fois, il lança une pièce de monnaie 24 000 fois et les armoiries apparurent 12 012 fois ; la fréquence de perte des armoiries dans ce cas s'est avérée être égale à 0,5005. Comme nous pouvons le voir, dans toutes les expériences ci-dessus, la fréquence ne s'écartait que légèrement de la probabilité de 0,5 - l'apparition d'armoiries à la suite d'un tirage au sort.

Commentaire 3 : Il serait erroné de conclure du théorème de Bernoulli qu’à mesure que le nombre d’essais augmente, la fréquence relative se rapproche progressivement de la probabilité. R. ; autrement dit, Le théorème de Bernoulli n'implique pas l'égalité
. Dans le théorème c'est juste une question de probabilitéça avec assez grand nombre essais, la fréquence relative différera aussi peu que souhaité de la probabilité constante que l'événement se produise dans chaque essai. Ainsi, la convergence fréquence relative à la probabilité R. diffère de la convergence au sens de l’analyse ordinaire. Pour souligner cette différence, introduire le concept de « convergence en probabilité ». Plus précisément, la différence entre ces types de convergence est la suivante : si tend à
À R. autant que possible au sens de l'analyse ordinaire, puis, à partir de certains
et pour toutes les valeurs suivantes , l'inégalité est régulièrement satisfaite
;si tend selon la probabilitéÀ R. à
, puis pour les valeurs individuelles l’inégalité peut ne pas tenir.

    Théorèmes de Poisson et Markov

Remarqué si changement des conditions expérimentales, alors la propriété de stabilité de la fréquence relative d'apparition d'un événement UN est sauvegardé. Cette circonstance a été prouvée par Poisson.

Théorème de Poisson: Avec une augmentation illimitée du nombre de tests indépendants réalisés dans des conditions variables, la fréquence relative d'apparition de l'événement UN converge en probabilité vers la moyenne arithmétique des probabilités d'occurrence d'un événement donné dans chacune des expériences, c'est-à-dire

.

Commentaire 4 : Il est facile de voir que le théorème de Poisson est un cas particulier du théorème de Chebyshev.

Théorème de Markov: Si une séquence de variables aléatoires
(même dépendant) est tel que lorsque

,

Que,
la condition est remplie :
.

Commentaire 5 : Évidemment, si les variables aléatoires
sont indépendants deux à deux, alors la condition de Markov prend la forme : lorsque

.

Cela montre que le théorème de Chebyshev est un cas particulier du théorème de Markov.

    Théorème central limite (théorème de Lyapunov)

Les théorèmes considérés de la loi des grands nombres concernent les problématiques d'approximation de certaines variables aléatoires à certaines valeurs limites, quelle que soit leur loi de distribution. En théorie des probabilités, comme nous l'avons déjà noté, il existe un autre groupe de théorèmes concernant les lois limites de distribution d'une somme de variables aléatoires. Nom commun ce groupe de théorèmes - chambre limite centrale. Ses différentes formes diffèrent par les conditions imposées à la somme des composantes des variables aléatoires. Pour la première fois, l'une des formes du théorème central limite a été prouvée par l'éminent mathématicien russe A.M. Lyapunov en 1900 en utilisant la méthode des fonctions caractéristiques spécialement développée par lui.

Théorème de Lyapunov: Loi de distribution de la somme des variables aléatoires indépendantes
se rapproche de la loi de distribution normale avec une augmentation illimitée (c'est quand
), si les conditions suivantes sont remplies :


,

Il convient de noter que le théorème central limite est valable non seulement pour les variables aléatoires continues, mais également pour les variables aléatoires discrètes. La signification pratique du théorème de Lyapunov est énorme. L'expérience montre que la loi de distribution de la somme des variables aléatoires indépendantes comparables dans leur dispersion se rapproche rapidement de la normale. Déjà avec un nombre de termes de l'ordre de dix, la loi de distribution de la somme peut être remplacée par une loi normale (en particulier, un exemple d'une telle somme peut être la moyenne arithmétique des valeurs observées de variables aléatoires, c'est
).

Un cas particulier du théorème central limite est le théorème de Laplace. Comme vous vous en souvenez, le cas est considéré lorsque des variables aléatoires
sont discrets, également distribués et n'acceptent que deux valeurs possibles: 0 et 1.

Ensuite, la probabilité que contenu dans l'intervalle
peut être calculé à l'aide de la formule

.

À l'aide de la fonction de Laplace, la dernière formule peut être écrite sous une forme pratique pour les calculs :


.

EXEMPLE. Mesurons une quantité physique. Toute mesure ne donne qu'une valeur approximative de la valeur mesurée, car le résultat de la mesure est influencé par de nombreux facteurs aléatoires indépendants (température, fluctuations de l'instrument, humidité, etc.). Chacun de ces facteurs génère une « erreur partielle » négligeable. Cependant, comme le nombre de ces facteurs est très important, leur effet combiné donne lieu à une « erreur totale » notable.

Considérant l'erreur totale comme la somme d'un très grand nombre d'erreurs partielles indépendantes entre elles, on est en droit de conclure que l'erreur totale a une distribution proche de la normale. L'expérience confirme la validité de cette conclusion.

2 La preuve proposée par J. Bernoulli était complexe ; une preuve plus simple a été donnée par P. Chebyshev en 1846.

3 On sait que le produit de deux facteurs dont la somme est une valeur constante a la plus grande valeur lorsque les facteurs sont égaux.

Loi des grands nombres (théorème de Chebyshev).

Dans ce n° nous montrerons l'un des plus simples, mais en même temps le plus formes importantes loi théorème des grands nombres Chebycheva. Ce théorème établit un lien entre la moyenne arithmétique des valeurs observées d'une variable aléatoire et son espérance mathématique.

Résolvons d’abord le problème auxiliaire suivant.

Disponible valeur aléatoire avec espérance et variance mathématiques. Des expériences indépendantes sont réalisées sur cette grandeur et la moyenne arithmétique de toutes les valeurs observées de la grandeur est calculée. Besoin de trouver caractéristiques numériques cette moyenne arithmétique - l'espérance mathématique et la variance - et découvrez comment elles changent avec l'augmentation.

Notons :

La valeur de la quantité dans la première expérience ;

La valeur de la quantité dans la deuxième expérience, etc.

Évidemment, l'ensemble des quantités représente des variables aléatoires indépendantes, dont chacune est distribuée selon la même loi que la valeur elle-même. Considérons la moyenne arithmétique de ces valeurs :

Une variable aléatoire est une fonction linéaire de variables aléatoires indépendantes . Trouvons le mathématique espérance et variance de cette quantité. Selon les propriétés espérance mathématique et dispersion pour déterminer les caractéristiques numériques des fonctions linéaires, nous obtenons :

Ainsi, l'espérance mathématique de la valeur ne dépend pas du nombre d'expériences et est égale à l'espérance mathématique de la valeur observée. Quant à la dispersion de la valeur, elle diminue sans limite avec l'augmentation du nombre d'expériences et, si elle est suffisamment grande, doit être rendue aussi petite que souhaité. Nous sommes convaincus que la moyenne arithmétique est une variable aléatoire avec une dispersion arbitrairement petite et, avec un grand nombre d'expériences, se comporte presque comme si ce n'était pas aléatoire.

Le théorème de Chebyshev établit de manière exacte forme quantitative C'est la propriété de stabilité de la moyenne arithmétique. Il est formulé ainsi :

Avec un nombre suffisamment grand d'expériences indépendantes, la moyenne arithmétique des valeurs observées d'une variable aléatoire converge en probabilité vers son espérance mathématique.

Écrivons le théorème de Chebyshev sous la forme d'une formule. Pour ce faire, expliquons le sens du terme « converge en probabilité ». Ils disent qu'une variable aléatoire converge en probabilité vers la valeur e si, avec une probabilité croissante, celle-ci et sera arbitrairement proche, se rapproche indéfiniment de l'unité, ce qui signifie qu'avec un suffisamment grand

où sont des nombres positifs arbitrairement petits.

Écrivons le théorème de Chebyshev sous une forme similaire. Elle affirme qu'en augmentant la moyenne arithmétique

Converge en probabilité vers , c'est-à-dire

(6.7)

Montrons cette inégalité.

Preuve. Il a été montré ci-dessus que la valeur

a des caractéristiques numériques

Appliquer à une variable aléatoire Oui L'inégalité de Chebyshev, en supposant :

Aussi petit que soit le nombre, il peut être pris si grand que l’inégalité perdure.

où est un nombre arbitrairement petit.

d'où, en passant à l'événement inverse, on a :

Q.E.D.

Le théorème bien connu de J. Bernoulli, établissant le lien entre la fréquence d'un événement et sa probabilité, doit être prouvé comme une conséquence directe de la loi des grands nombres.

Qu'il soit produit n expériences indépendantes, dans chacune desquelles un événement peut apparaître ou non UN, dont la probabilité dans chaque expérience est égale à R. . Le théorème de J. Bernoulli déclare : qu'avec un nombre illimité d'expériences n, la fréquence de l'événement A converge en probabilité vers sa probabilité R.

Notons la fréquence de l'événement A dans n expériences par P et écrivons le théorème de Bernoulli comme la formule

où et sont des nombres positifs arbitrairement petits.

Il est nécessaire de prouver la validité de cette formule pour un nombre suffisamment grand n .

Preuve. Considérons des variables aléatoires indépendantes :

X1 – nombre d’occurrences de l’événement UN dans la première expérience ;

X2– nombre d’occurrences de l’événement UN dans la deuxième expérience, etc.

Toutes ces grandeurs sont discrètes et ont la même loi de distribution, exprimée par une série de la forme

q p

Ici q = 1 – p. L'espérance mathématique de chacune de ces quantités X i est égale à p, et sa variance est pq (voir L3-p3.2).

Fréquence R. n'est rien de plus que la moyenne arithmétique des quantités X 1, X 2, ..., X n :

P = je /n ,

et, selon la loi des grands nombres, converge en probabilité vers l'espérance mathématique générale de ces variables aléatoires. Cela implique la validité de l'inégalité (6. 1) .

Théorème de Bernoulli. - concept et types. Classification et caractéristiques de la catégorie "Théorème de Bernoulli". 2017, 2018.

Théorème 13.3 (théorème de Bernoulli). Si dans chacun de P. probabilité d'expériences indépendantes R. survenance d'un événement UN est constante, alors avec un nombre de tests suffisamment grand, la probabilité que le module d'écart de la fréquence relative des occurrences UN V P. expériences de R. sera aussi petit que souhaité, aussi proche de 1 que souhaité :

Preuve. Introduisons les variables aléatoires X 1 , X 2 , …, Xp, Où XI – nombre d'apparitions UN V je-m expérience. Où X je ne peut prendre que deux valeurs : 1 (avec probabilité R.) et 0 (avec probabilité q = 1 – p). De plus, les variables aléatoires considérées sont indépendantes deux à deux et leurs variances sont uniformément bornées (puisque D(X je) = pq, p + q = 1, d'où pq≤ ¼). Par conséquent, le théorème de Chebyshev peut leur être appliqué lorsque M je = p:

.

Mais , parce que X je prend la valeur 1 lorsqu'il apparaît UN V cette experience, et une valeur égale à 0 si UN Ne s'est pas passé. Ainsi,

Q.E.D.

Commentaire. Du théorème de Bernoulli ne fais pas ça, Quoi Il s'agit de juste à propos de probabilités que la différence entre la fréquence relative et la probabilité absolue peut devenir arbitrairement petite. La différence est la suivante : avec la convergence habituelle considérée dans analyse mathematique, pour tous P., à partir d'une certaine valeur, l'inégalité est toujours satisfaite ; dans notre cas, il peut y avoir de telles valeurs P., pour lequel cette inégalité n’est pas vraie. Ce type de convergence est appelé convergence en probabilité.

Fin du travail -

Ce sujet appartient à la section :

Loi des grands nombres. L'inégalité de Chebyshev. Théorèmes de Chebyshev et Bernoulli

Sur le site on peut lire : "la loi des grands nombres. L'inégalité de Chebyshev. Les théorèmes de Chebyshev et de Bernoulli"

Si tu as besoin matériels supplémentaires sur ce sujet, ou si vous n'avez pas trouvé ce que vous cherchiez, nous vous recommandons d'utiliser la recherche dans notre base de données d'œuvres :

Que ferons-nous du matériel reçu :

Si ce matériel vous a été utile, vous pouvez l'enregistrer sur votre page sur les réseaux sociaux :

Tous les sujets de cette section :

Loi des grands nombres. L'inégalité de Chebyshev. Théorèmes de Chebyshev et Bernoulli
L'étude des modèles statistiques a permis d'établir que, sous certaines conditions, le comportement global grande quantité les variables aléatoires perdent presque leur caractère aléatoire et deviennent

L'inégalité de Chebyshev
L'inégalité de Chebyshev, utilisée pour prouver d'autres théorèmes, est valable pour les variables aléatoires continues et discrètes. Prouvons-le pour des variables aléatoires discrètes.

Théorèmes de Chebyshev et Bernoulli
Théorème 13.2 (théorème de Chebyshev). Si X1, X2,..., Xn sont des variables aléatoires indépendantes deux à deux dont les variances sont uniformes

Théorème central limite de Lyapunov. Théorème limite de Moivre-Laplace
La loi des grands nombres n'examine pas la forme loi limite distribution de la somme des variables aléatoires. Cette question est considérée dans un groupe de théorèmes appelés théorème limite. À PROPOS

Polygone de fréquence. Fonction de distribution d'échantillon et histogramme
Pour visualiser le comportement de la variable aléatoire étudiée dans l'échantillon, vous pouvez créer différents graphiques. L'un d'eux est un polygone de fréquence : une ligne brisée dont les segments sont reliés

Vecteur aléatoire bidimensionnel
À recherche statistique Pour les variables aléatoires bidimensionnelles, la tâche principale consiste généralement à identifier la relation entre les composantes. Un échantillon bidimensionnel est un ensemble

Méthodes de construction d'estimations
1. Méthode du maximum de vraisemblance. Soit X une variable aléatoire discrète qui, à la suite de n tests, prend les valeurs x1, x

Construire des intervalles de confiance
1. Intervalle de confiance estimer l'espérance mathématique distribution normale avec une dispersion connue. Laissez la variable aléatoire X étudiée être distribuée



Avez-vous aimé l'article? Partage avec tes amis!