Résoudre des problèmes sur la probabilité de coups sûrs lors des tirs. Détermination de la probabilité d'un événement et de la distribution statistique

Description du critère

Objectif du critère

Test du Chi carré de Pearson

Matériel de cours

Thème 6. Identifier les différences dans la distribution d'un trait

Critère de Pearson : objet du critère, sa description, champ d'application, algorithme de calcul.

Test de Kolmogorov-Smirnov pour comparer les résultats mesure quantitative: objet du critère, sa description, sa portée, son algorithme de calcul.

Lors de l’étude de ce sujet, il faut tenir compte du fait que les deux critères sont non paramétriques et qu’ils fonctionnent avec des fréquences. Payez s'il vous plait Attention particulière sur les règles de décision pour les critères considérés : ces règles peuvent être opposées. Veuillez examiner attentivement les limites de l'application des critères.

Après avoir étudié le matériel de cours, répondez à la question Questions de contrôle, notez vos réponses dans vos notes.

Le test du chi carré de Pearson peut résoudre plusieurs problèmes, notamment la comparaison des distributions.

Le test du χ 2 est utilisé à deux fins ;

1) à titre de comparaison empirique distribution de la caractéristique avec théorique - uniforme, normal ou autre ;

2) à titre de comparaison deux, trois ou plus empiriques distributions de même caractéristique, c'est-à-dire vérifier leur homogénéité ;

3) pour évaluer l'indépendance stochastique (probabiliste) du système événements aléatoires etc.

Le critère χ 2 répond à la question de savoir s'ils surviennent avec la même fréquence différentes significations connectez-vous de manière empirique et distributions théoriques ou dans deux ou plusieurs distributions empiriques.

L'avantage de la méthode est qu'elle permet de comparer les distributions de caractéristiques présentées à n'importe quelle échelle, à partir de l'échelle des noms. Dans le très cas simple distribution alternative (« oui - non », « autorisé un défaut - n'a pas permis un défaut », « résolu le problème - n'a pas résolu le problème », etc.), on peut déjà appliquer le critère χ 2.

1. La taille de l’échantillon doit être suffisamment grande : N>30. Quand N<30 критерий χ 2 дает весьма приближенные значения. Точность крите­рия повышается при больших N.

2. La fréquence théorique pour chaque cellule du tableau ne doit pas être inférieure à 5 : f ≥ 5 . Cela signifie que si le nombre de chiffres est prédéterminé et ne peut pas être modifié, alors nous ne pouvons pas appliquer la méthode χ 2 , sans accumuler un certain nombre minimum d’observations. Si, par exemple, nous voulons tester nos hypothèses selon lesquelles la fréquence des appels vers le service téléphonique Trust est inégalement répartie sur 7 jours de la semaine, alors nous aurons besoin de 5-7 = 35 appels. Ainsi, si le nombre de chiffres (k) donné à l'avance, comme dans ce cas, le nombre minimum d'observations (N min) est déterminé par la formule : .



3. Les catégories sélectionnées doivent « explorer » toute la distribution, c'est-à-dire couvrir toute la gamme de variabilité des traits. Dans ce cas, le regroupement en catégories doit être le même dans toutes les distributions comparées.

4. Il est nécessaire de faire une « correction de continuité » lors de la comparaison de distributions de caractéristiques qui ne prennent que 2 valeurs. Lors d'une correction, la valeur de χ 2 diminue (voir exemple avec correction de continuité).

5. Les catégories ne doivent pas se chevaucher : si une observation est affectée à une catégorie, elle ne peut plus être affectée à une autre catégorie. La somme des observations par rang doit toujours être égale au nombre total d'observations.

Algorithme de calcul du critère χ 2

1. Créez un tableau de conjugaison mutuelle des valeurs de caractéristiques du type suivant (essentiellement, il s'agit d'une série de variations bidimensionnelles dans laquelle les fréquences d'apparition des valeurs de caractéristiques communes sont indiquées) - tableau 19. Le tableau contient fréquences conditionnelles, que nous désignerons en termes généraux par f ij. Par exemple, le nombre de gradations d'une caractéristique X est égal à 3 (k=3), le nombre de gradations de la caractéristique à est égal à 4 (m=4) ; Alors je varie de 1 à k, et j varie de 1 à m.

Tableau 19

x je y j x1 x2 x3
à 1 f 11 f 21 f 31 f-1
à 2 heures f 12 f 22 f 32 f-2
à 3 f 13 f 23 f 33 f-3
à 4 heures f 14 f 24 f 34 f-4
f 1– f 2– f 3– N

2. Ensuite, pour la commodité des calculs, nous transformons le tableau original de contingence mutuelle en un tableau de la forme suivante (Tableau 20), en plaçant les colonnes à fréquences conditionnelles les unes en dessous des autres : Inscrire dans le tableau les noms des catégories (colonnes 1 et 2) et les fréquences empiriques correspondantes (3ème colonne).

Tableau 20

x je yj f ij f ij * f ij – f ij * (f ij – f ij *) 2 (f ij – f ij *) 2 / f ij *
1 2 3 4 5 6 7
x1 à 1 f 11 f 11*
x1 à 2 heures f 12 f 12*
x1 à 3 f 13 f 13*
x1 à 4 heures f 14 f 14*
x2 à 1 f 21 f 21 *
x2 à 2 heures f 22 f 22 *
x2 à 3 f 23 f 23 *
x2 à 4 heures f 24 f 24 *
x3 à 1 f 31 f 31 *
x3 à 2 heures f 32 f 32 *
x3 à 3 f 33 f 33 *
x3 à 4 heures f 34 f 34*
∑=………….

3. À côté de chaque fréquence empirique, notez la fréquence théorique (4ème colonne), qui est calculée à l'aide de la formule suivante (les fréquences totales de la ligne correspondante sont multipliées par la fréquence totale de la colonne correspondante et divisées par le nombre total de remarques) :

5. Déterminez le nombre de degrés de liberté à l'aide de la formule : ν=(k-1)(m-1) , k- nombre de chiffres d'attribut X, m - nombre de chiffres du signe à.

Si ν=1, faites une correction pour « continuité » et écrivez-la dans la colonne 5a.

La correction de continuité consiste à soustraire encore 0,5 à la différence entre les fréquences conditionnelles et théoriques. Ensuite, les en-têtes de colonnes de notre tableau ressembleront à ceci (tableau 21) :

Tableau 21

X à f ij f ij * f ij – f ij * f ij – f ij * – 0,5 (f ij – f ij * – 0,5) 2 (f ij – f ij * – 0,5) 2 / f ij *
1 2 3 4 5 5a 6 7

6. Mettez au carré les différences résultantes et inscrivez-les dans la 6ème colonne.

7. Divisez les carrés des différences résultants par la fréquence théorique et écrivez les résultats dans la 7ème colonne.

8. Additionnez les valeurs de la 7ème colonne. Le montant résultant est désigné par χ 2 em.

9. Règle de décision :

La valeur calculée du critère doit être comparée à la valeur critique (ou tabulée). La valeur critique dépend du nombre de degrés de liberté selon le tableau des valeurs critiques du critère de Pearson χ 2 (voir annexe 1.6).

Si χ 2 calc ≥ χ 2 table, alors les écarts entre les distributions sont statistiquement significatifs, ou les caractéristiques changent de manière constante, ou la relation entre les caractéristiques est statistiquement significative.

Si χ 2 calculé< χ 2 табл, то расхождения между рас­пределениями статистически недостоверны, или признаки изменяются несогласованно, или связи между признаками нет.

23. Concept de chi carré et de distribution de Student, et vue graphique

1) Une distribution (chi carré) avec n degrés de liberté est la distribution de la somme des carrés de n variables aléatoires normales standard indépendantes.

Distribution (chi carré)- distribution Variable aléatoire(et l'espérance mathématique de chacun d'eux est 0, et l'écart type est 1)

où sont les variables aléatoires indépendants et ont la même répartition. Dans ce cas, le nombre de termes, c'est-à-dire, est appelé « nombre de degrés de liberté » de la distribution du chi carré. Le nombre du Chi carré est déterminé par un paramètre, le nombre de degrés de liberté. À mesure que le nombre de degrés de liberté augmente, la distribution se rapproche lentement de la normale.

Alors la somme de leurs carrés

est une variable aléatoire distribuée selon la loi dite du chi carré avec k = n degrés de liberté ; si les termes sont liés par une relation (par exemple, ), alors le nombre de degrés de liberté k = n – 1.

La densité de cette distribution

Ici - fonction gamma ; en particulier, Г(n + 1) = n! .

Par conséquent, la distribution du Chi carré est déterminée par un paramètre : le nombre de degrés de liberté k.

Remarque 1. À mesure que le nombre de degrés de liberté augmente, la distribution du chi carré se rapproche progressivement de la normale.

Remarque 2. A l'aide de la distribution du Chi carré, de nombreuses autres distributions rencontrées en pratique sont déterminées, par exemple la distribution d'une variable aléatoire - la longueur d'un vecteur aléatoire (X1, X2,..., Xn), les coordonnées de qui sont indépendants et répartis selon la loi normale.

La distribution χ2 a été étudiée pour la première fois par R. Helmert (1876) et K. Pearson (1900).

Math.attendre.=n; D=2n

2) Répartition des étudiants

Considérons deux variables aléatoires indépendantes : Z, qui a une distribution normale et est normalisée (c'est-à-dire M(Z) = 0, σ(Z) = 1), et V, qui est distribuée selon la loi du chi carré avec k degrés de liberté. Alors la valeur

a une distribution appelée distribution t ou distribution de Student avec k degrés de liberté. Dans ce cas, k est appelé le « nombre de degrés de liberté » de la distribution de Student.

À mesure que le nombre de degrés de liberté augmente, la distribution de Student se rapproche rapidement de la normale.

Cette répartition a été introduite en 1908 par le statisticien anglais W. Gosset, qui travaillait dans une fabrique de bière. Des méthodes probabilistes et statistiques étaient utilisées pour prendre des décisions économiques et techniques dans cette usine, c'est pourquoi sa direction interdit à V. Gosset de publier des articles scientifiques sous son propre nom. Ainsi étaient protégés les secrets d'affaires et les « savoir-faire » sous forme de méthodes probabilistes et statistiques développés par V. Gosset. Il a cependant eu l'opportunité de publier sous le pseudonyme « Student ». L’histoire de Gosset et Student montre qu’il y a cent ans déjà, les dirigeants britanniques étaient conscients de la plus grande efficacité économique des méthodes probabilistes et statistiques de prise de décision.

Chi carré Pearson est le test le plus simple pour tester la signification d'une relation entre deux variables catégorisées. Le critère de Pearson est basé sur le fait que dans un tableau à deux entrées attendu les fréquences sous l’hypothèse « il n’y a pas de dépendance entre les variables » peuvent être calculées directement. Imaginez que 20 hommes et 20 femmes soient interrogés sur leur choix d'eau gazeuse (marque UN ou marque B). S’il n’y a aucun lien entre les préférences et le sexe, alors naturellement attendre choix égal de la marque UN et les marques B pour chaque sexe.

Signification des statistiques chi carré et son niveau de signification dépend du nombre total d'observations et du nombre de cellules du tableau. Selon les principes abordés dans la section , des écarts relativement faibles entre les fréquences observées et celles attendues s'avéreront significatifs si le nombre d'observations est important.

Il n'y a qu'une seule limite significative à l'utilisation du critère chi carré(mis à part l'hypothèse évidente d'une sélection aléatoire des observations), qui est que les fréquences attendues ne doivent pas être très petites. Cela est dû au fait que le critère chi carré par nature, des chèques probabilités dans chaque cellule ; et si les fréquences attendues dans les cellules deviennent petites, par exemple inférieures à 5, alors ces probabilités ne peuvent pas être estimées avec une précision suffisante en utilisant les fréquences disponibles. Pour une discussion plus approfondie, voir Everitt (1977), Hays (1988) ou Kendall et Stuart (1979).

Test du Chi carré (méthode du maximum de vraisemblance).Chi carré du maximum de vraisemblance vise à tester la même hypothèse concernant les relations dans les tableaux de contingence que le critère chi carré Pearson. Cependant, son calcul repose sur la méthode du maximum de vraisemblance. En pratique, les statistiques MP chi carré très proche en ampleur de la statistique régulière de Pearson chi carré. De plus amples informations sur ces statistiques peuvent être trouvées dans Bishop, Fienberg et Holland (1975) ou Fienberg (1977). Au chapitre Analyse log-linéaire ces statistiques sont discutées plus en détail.

Amendement de Yates. Rapprochement des statistiques chi carré pour les tableaux 2x2 avec un petit nombre d'observations dans les cellules peut être amélioré en réduisant de 0,5 la valeur absolue des différences entre les fréquences attendues et observées avant la mise au carré (ce qu'on appelle Amendement Yates). La correction de Yates, qui rend l'estimation plus modérée, est généralement appliquée dans les cas où les tableaux ne contiennent que de petites fréquences, par exemple lorsque certaines fréquences attendues deviennent inférieures à 10 (pour une discussion plus approfondie, voir Conover, 1974 ; Everitt, 1977 ; Hays , 1988 ; Kendall et Stuart, 1979 et Mantel, 1974).

Le test exact de Fisher. Ce critère n'est applicable que pour les tables 2x2. Le critère repose sur le raisonnement suivant. Compte tenu des fréquences marginales dans le tableau, supposons que les deux variables tabulées sont indépendantes. Posons-nous la question : quelle est la probabilité d'obtenir les fréquences observées dans le tableau, à partir des fréquences marginales données ? Il s'avère que cette probabilité est calculée exactement en comptant tous les tableaux qui peuvent être construits sur la base des tableaux marginaux. Ainsi, le critère de Fisher calcule précis la probabilité d'occurrence des fréquences observées sous l'hypothèse nulle (aucune relation entre les variables tabulées). Le tableau des résultats montre à la fois les niveaux unilatéraux et bilatéraux.

Chi carré de McNemar. Ce critère s'applique lorsque les fréquences du tableau 2x2 représentent dépendant des échantillons. Par exemple, observations des mêmes individus avant et après une expérience. On peut notamment compter le nombre d'étudiants ayant des résultats minimes en mathématiques au début et à la fin du semestre ou la préférence des mêmes répondants avant et après l'annonce. Deux valeurs sont calculées chi carré: ANNONCE Et AVANT JC. Chi carré A/D teste l'hypothèse selon laquelle les fréquences dans les cellules UN Et D(en haut à gauche, en bas à droite) sont les mêmes. Chi carré B/C teste l'hypothèse sur l'égalité des fréquences dans les cellules B Et C(en haut à droite, en bas à gauche).

Coefficient Phi.Carré Phi représente une mesure de la relation entre deux variables dans un tableau 2x2. Ses valeurs varient de 0 (pas de dépendance entre variables ; chi carré = 0.0 ) avant 1 (relation absolue entre deux facteurs du tableau). Pour plus de détails, voir Castellan et Siegel (1988, p. 232).

Corrélation tétrachorique. Cette statistique est calculée (et appliquée) uniquement aux tableaux croisés 2x2. Si un tableau 2x2 peut être vu comme le résultat d'une partition (artificielle) des valeurs de deux variables continues en deux classes, alors le coefficient de corrélation tétrachorique permet d'estimer la relation entre ces deux variables.

Coefficient de conjugaison. Le coefficient de contingence est un calcul statistique chi carré une mesure de la relation entre les caractéristiques dans le tableau de contingence (proposé par Pearson). L'avantage de ce coefficient par rapport aux statistiques conventionnelles chi carré c'est que c'est plus facile à interpréter, parce que la plage de son changement est comprise entre 0 avant 1 (Où 0 correspond au cas d'indépendance des caractéristiques du tableau, et une augmentation du coefficient traduit une augmentation du degré de connexion). L'inconvénient du coefficient de contingence est que sa valeur maximale « dépend » de la taille du tableau. Ce coefficient ne peut atteindre la valeur 1 que si le nombre de classes n'est pas limité (voir Siegel, 1956, p. 201).

Interprétation des mesures de communication. Un inconvénient majeur des mesures d'association (abordées ci-dessus) est la difficulté de les interpréter en termes conventionnels de probabilité ou de « proportion de variance expliquée », comme dans le cas du coefficient de corrélation. r Pearson (voir Corrélations). Il n’existe donc pas de mesure ou de coefficient d’association généralement accepté.

Statistiques basées sur les classements. Dans de nombreux problèmes qui se posent dans la pratique, nous disposons de mesures uniquement en ordinal échelle (voir Concepts de base des statistiques). Cela s'applique particulièrement aux mesures dans le domaine de la psychologie, de la sociologie et d'autres disciplines liées à l'étude de l'homme. Supposons que vous ayez interrogé un certain nombre de personnes interrogées pour connaître leur attitude à l'égard de certains sports. Vous représentez les mesures sur une échelle avec les positions suivantes : (1) Toujours, (2) généralement, (3) Parfois et (4) jamais. Évidemment la réponse Des fois je me demande montre moins d'intérêt de la part du répondant que de la réponse Je suis généralement intéressé etc. Ainsi, il est possible d'ordonner (classer) le degré d'intérêt des répondants. Ceci est un exemple typique d’échelle ordinale. Les variables mesurées sur une échelle ordinale ont leurs propres types de corrélations qui permettent d'évaluer les dépendances.

R Spearman. Statistiques R. Spearman peut être interprété de la même manière que la corrélation de Pearson ( r Pearson) en termes de proportion expliquée de variance (en gardant toutefois à l’esprit que la statistique de Spearman est calculée par rangs). On suppose que les variables sont mesurées au moins dans ordinaléchelle. Des discussions approfondies sur la corrélation des rangs de Spearman, sa puissance et son efficacité peuvent être trouvées, par exemple, dans Gibbons (1985), Hays (1981), McNemar (1969), Siegel (1956), Siegel et Castellan (1988), Kendall (1948). , Olds (1949) et Hotelling et Pabst (1936).

Tau Kendall. Statistiques tau L'équivalent de Kendall R. Spearman sous certaines hypothèses de base. Leurs pouvoirs sont également équivalents. Cependant, généralement les valeurs R. Lancier et tau Les Kendall sont différents car ils diffèrent à la fois par leur logique interne et par la manière dont ils sont calculés. Dans Siegel et Castellan (1988), les auteurs expriment ainsi la relation entre ces deux statistiques :

1 < = 3 * Тау Кендалла - 2 * R Спирмена < = 1

Plus important encore, les statistiques de Kendall tau et Spearman R. ont des interprétations différentes : alors que les statistiques R. Spearman peut être considéré comme un analogue direct des statistiques r Pearson, calculé par classement, statistiques de Kendall tau plutôt basé sur probabilités. Plus précisément, il teste qu'il existe une différence entre la probabilité que les données observées soient dans le même ordre pour deux quantités et la probabilité qu'elles soient dans un ordre différent. Kendall (1948, 1975), Everitt (1977) et Siegel et Castellan (1988) discutent en détail tau Kendall. Généralement, deux statistiques sont calculées tau Kendall : tau b Et tau c. Ces mesures diffèrent uniquement par la manière dont elles traitent les classements correspondants. Dans la plupart des cas, leurs significations sont assez similaires. Si des différences apparaissent, il semble que le moyen le plus sûr consiste à considérer la plus petite des deux valeurs.

Coefficient d de Sommer : d(X|Y), d(Y|X). Statistiques d La mesure de Sommer est une mesure non symétrique de la relation entre deux variables. Cette statistique est proche de tau b(voir Siegel et Castellan, 1988, pp. 303-310).

Statistiques gamma. S'il existe de nombreuses valeurs correspondantes dans les données, les statistiques gamma préférable R. Lancier ou tau Kendall. En termes d'hypothèses de base, les statistiques gammaéquivalent aux statistiques R. Spearman ou le tau de Kendall. Son interprétation et ses calculs ressemblent davantage aux statistiques Tau de Kendall qu'aux statistiques R de Spearman. Pour le dire brièvement, gamma représente également probabilité; plus précisément, la différence entre la probabilité que l'ordre de classement de deux variables corresponde, moins la probabilité que ce ne soit pas le cas, divisée par un moins la probabilité de correspondance. Donc les statistiques gamma fondamentalement équivalent tau Kendall, sauf que les correspondances sont explicitement prises en compte dans la normalisation. Discussion détaillée des statistiques gamma peuvent être trouvées dans Goodman et Kruskal (1954, 1959, 1963, 1972), Siegel (1956) et Siegel et Castellan (1988).

Coefficients d'incertitude. Ces coefficients mesurent communication d'informations entre les facteurs (lignes et colonnes du tableau). Concept dépendance informationnelle trouve son origine dans l'approche de la théorie de l'information pour l'analyse des tableaux de fréquences, on peut consulter les manuels pertinents pour clarifier cette question (voir Kullback, 1959 ; Ku et Kullback, 1968 ; Ku, Varner et Kullback, 1971 ; voir aussi Bishop, Fienberg , et Holland, 1975, pp. 344-348). Statistiques S(Oui, X) est symétrique et mesure la quantité d'informations dans une variable Oui par rapport à la variable X ou dans une variable X par rapport à la variable Oui. Statistiques S(X|Y) Et S(Y|X) exprimer une dépendance directionnelle.

Réponses multidimensionnelles et dichotomies. Des variables telles que la réponse multivariée et les dichotomies multivariées apparaissent dans des situations où le chercheur s'intéresse non seulement aux fréquences « simples » des événements, mais également à certaines propriétés qualitatives (souvent non structurées) de ces événements. La nature des variables multidimensionnelles (facteurs) est mieux comprise à travers des exemples.

  • · Réponses multidimensionnelles
  • · Dichotomies multidimensionnelles
  • · Tableau croisé de réponses multivariées et de dichotomies
  • Tableau croisé par paires de variables avec réponses multivariées
  • · Commentaire final

Réponses multidimensionnelles. Imaginez que, dans le cadre d'une vaste étude marketing, vous demandiez à vos clients de nommer les 3 meilleures boissons gazeuses selon leur point de vue. Une question typique pourrait ressembler à ceci.

Considérez la candidature dansMSEXCELLERTest du chi carré de Pearson pour tester des hypothèses simples.

Après avoir obtenu des données expérimentales (c'est-à-dire lorsqu'il existe des échantillon) on choisit généralement la loi de distribution qui décrit le mieux la variable aléatoire représentée par un échantillonnage. La vérification de la qualité de la description des données expérimentales par la loi de distribution théorique sélectionnée est effectuée à l'aide de critères d'accord. Hypothèse nulle, il existe généralement une hypothèse sur l'égalité de la distribution d'une variable aléatoire avec une loi théorique.

Regardons d'abord l'application Test d'adéquation de Pearson X 2 (chi carré) par rapport à des hypothèses simples (les paramètres de la distribution théorique sont considérés comme connus). Puis - , lorsque seule la forme de la distribution est précisée, et les paramètres de cette distribution et la valeur statistiques X2 sont évalués/calculés sur la base des mêmes échantillons.

Note: Dans la littérature anglophone, la procédure de candidature Test d'adéquation de Pearson X2 a un nom Le test d'ajustement du chi carré.

Rappelons la procédure de test des hypothèses :

  • basé échantillons la valeur est calculée statistiques, ce qui correspond au type d’hypothèse testée. Par exemple, pour utilisé t-statistiques(si inconnu);
  • soumis à la vérité hypothèse nulle, la répartition de ce statistiques est connu et peut être utilisé pour calculer des probabilités (par exemple, pour t-statistiques Ce );
  • calculé sur la base échantillons signification statistiques par rapport à la valeur critique pour une valeur donnée ();
  • hypothèse nulle rejeter si valeur statistiques supérieure à critique (ou si la probabilité d'obtenir cette valeur statistiques() moins niveau de signification, ce qui est une approche équivalente).

Réalisons tests d'hypothèses pour diverses distributions.

Boîtier discret

Supposons que deux personnes jouent aux dés. Chaque joueur dispose de son propre jeu de dés. Les joueurs lancent à tour de rôle 3 dés à la fois. Chaque tour est remporté par celui qui obtient le plus de six à la fois. Les résultats sont enregistrés. Après 100 tours, un des joueurs soupçonnait que les dés de son adversaire étaient asymétriques, car il gagne souvent (il lance souvent des six). Il a décidé d’analyser la probabilité d’un tel nombre de résultats ennemis.

Note: Parce que Il y a 3 cubes, vous pouvez alors en lancer 0 à la fois ; 1; 2 ou 3 six, c'est-à-dire une variable aléatoire peut prendre 4 valeurs.

De la théorie des probabilités, nous savons que si les dés sont symétriques, alors la probabilité d'obtenir des six obéit. Par conséquent, après 100 tours, les fréquences des six peuvent être calculées à l'aide de la formule
=BINOM.DIST(A7,3,1/6,FALSE)*100

La formule suppose que dans la cellule A7 contient le nombre correspondant de six lancés en un tour.

Note: Les calculs sont donnés en exemple de fichier sur la feuille Discrète.

En comparaison observé(Observé) et fréquences théoriques(Attendu) pratique à utiliser.

Si les fréquences observées s'écartent significativement de la distribution théorique, hypothèse nulle sur la distribution d'une variable aléatoire selon une loi théorique doit être rejetée. Autrement dit, si les dés de l'adversaire sont asymétriques, alors les fréquences observées seront « significativement différentes » de distribution binomiale.

Dans notre cas, à première vue, les fréquences sont assez proches et sans calculs il est difficile de tirer une conclusion sans ambiguïté. En vigueur Test d'adéquation de Pearson X 2, de sorte qu'au lieu de l'affirmation subjective « substantiellement différent », qui peut être faite sur la base d'une comparaison histogrammes, utilisez une affirmation mathématiquement correcte.

Nous utilisons le fait qu'en raison de loi des grands nombres fréquence observée (Observée) avec un volume croissant échantillons n tend vers la probabilité correspondant à la loi théorique (dans notre cas, loi binomiale). Dans notre cas, la taille de l’échantillon n est de 100.

Présentons test statistiques, que l'on note X 2 :

où O l est la fréquence observée des événements pour laquelle la variable aléatoire a pris certaines valeurs acceptables, E l est la fréquence théorique correspondante (attendue). L est le nombre de valeurs que peut prendre une variable aléatoire (dans notre cas c'est 4).

Comme le montre la formule, ceci statistiques est une mesure de la proximité des fréquences observées par rapport aux fréquences théoriques, c'est-à-dire il peut être utilisé pour estimer les « distances » entre ces fréquences. Si la somme de ces « distances » est « trop grande », alors ces fréquences sont « significativement différentes ». Il est clair que si notre cube est symétrique (c'est-à-dire applicable loi binomiale), alors la probabilité que la somme des « distances » soit « trop grande » sera faible. Pour calculer cette probabilité, nous devons connaître la distribution statistiques X2 ( statistiques X 2 calculé sur la base du hasard échantillons, c'est donc une variable aléatoire et a donc son propre distribution de probabilité).

De l’analogue multidimensionnel Théorème intégral de Moivre-Laplace on sait que pour n->∞ notre variable aléatoire X 2 est asymptotiquement à L - 1 degrés de liberté.

Donc si la valeur calculée statistiques X 2 (la somme des « distances » entre les fréquences) sera supérieure à une certaine valeur limite, alors nous aurons des raisons de rejeter hypothèse nulle. Identique à vérifier hypothèses paramétriques, la valeur limite est réglée via niveau de signification. Si la probabilité que la statistique X 2 prenne une valeur inférieure ou égale à celle calculée ( p-signification), sera moindre niveau de signification, Que hypothèse nulle peut être rejeté.

Dans notre cas, la valeur statistique est de 22,757. La probabilité que la statistique X2 prenne une valeur supérieure ou égale à 22,757 est très faible (0,000045) et peut être calculée à l'aide des formules
=CHI2.DIST.PH(22.757,4-1) ou
=CHI2.TEST(Observé ; Attendu)

Note: La fonction CHI2.TEST() est spécifiquement conçue pour tester la relation entre deux variables catégorielles (voir).

La probabilité 0,000045 est nettement inférieure à la normale niveau de signification 0,05. Ainsi, le joueur a toutes les raisons de soupçonner son adversaire de malhonnêteté ( hypothèse nulle son honnêteté est niée).

Lors de l'utilisation critère X 2 il faut s'assurer que le volume échantillons n était suffisamment grand, sinon l'approximation de la distribution ne serait pas valide statistiques X 2. On considère généralement que pour cela, il suffit que les fréquences observées soient supérieures à 5. Si ce n'est pas le cas, alors les petites fréquences sont combinées en une ou ajoutées à d'autres fréquences, et la valeur combinée est attribuée probabilité totale et, en conséquence, le nombre de degrés de liberté diminue X2 distributions.

Afin d'améliorer la qualité des candidatures critère X 2(), il faut réduire les intervalles de partition (augmenter L et, par conséquent, augmenter le nombre degrés de liberté), cependant, cela est empêché par la limitation du nombre d'observations incluses dans chaque intervalle (db>5).

Cas continu

Test d'adéquation de Pearson X2 peut également être appliqué en cas de .

Considérons un certain échantillon, composé de 200 valeurs. Hypothèse nulle stipule que échantillon fait à partir de .

Note: Variables aléatoires dans exemple de fichier sur la feuille continue généré à l'aide de la formule =NORM.ST.INV(RAND()). Donc de nouvelles valeurs échantillons sont générés à chaque recalcul de la feuille.

La pertinence de l’ensemble de données existant peut être évaluée visuellement.

Comme le montre le diagramme, les valeurs de l'échantillon s'adaptent assez bien le long de la ligne droite. Cependant, comme pour tests d'hypothèses en vigueur Test d'ajustement du Pearson X 2.

Pour ce faire, nous divisons la plage de changement de la variable aléatoire en intervalles avec un pas de 0,5. Calculons les valeurs observées et fréquences théoriques. Nous calculons les fréquences observées à l'aide de la fonction FREQUENCY(), et les fréquences théoriques à l'aide de la fonction NORM.ST.DIST().

Note: Idem que pour cas discret, il faut s'assurer que échantillonétait assez grand et l'intervalle comprenait> 5 valeurs.

Calculons la statistique X2 et comparons-la avec la valeur critique pour un niveau de signification(0,05). Parce que nous avons divisé la plage de changement d'une variable aléatoire en 10 intervalles, le nombre de degrés de liberté est alors 9. La valeur critique peut être calculée à l'aide de la formule
=CHI2.OBR.PH(0,05;9) ou
=CHI2.OBR(1-0,05;9)

Le graphique ci-dessus montre que la valeur statistique est de 8,19, ce qui est nettement plus élevé. valeur critique hypothèse nulle n'est pas rejeté.

Ci-dessous, où échantillon a pris une signification improbable et basée sur critères Consentement de Pearson X 2 l'hypothèse nulle a été rejetée (même si valeurs aléatoires ont été générés à l'aide de la formule =NORM.ST.INV(RAND()), fournissant échantillon depuis distribution normale standard).

Hypothèse nulle rejeté, bien que visuellement les données soient situées assez près d'une ligne droite.

Prenons également comme exemple échantillon de U(-3; 3). Dans ce cas, même à partir du graphique, il est évident que hypothèse nulle devrait être rejeté.

Critère Consentement de Pearson X 2 confirme également que hypothèse nulle devrait être rejeté.



Avez-vous aimé l'article? Partage avec tes amis!