La valeur de la fonction de distribution du chi carré. Fonctions MS EXCEL utilisant la distribution CH2

Chi carré Pearson est le test le plus simple pour tester la signification d'une relation entre deux variables catégorisées. Le critère de Pearson est basé sur le fait que dans un tableau à deux entrées attendu les fréquences sous l’hypothèse « il n’y a pas de dépendance entre les variables » peuvent être calculées directement. Imaginez que 20 hommes et 20 femmes soient interrogés sur leur choix d'eau gazeuse (marque UN ou marque B). S’il n’y a aucun lien entre les préférences et le sexe, alors naturellement attendre choix égal de la marque UN et les marques B pour chaque sexe.

Signification des statistiques chi carré et son niveau de signification dépend du nombre total d'observations et du nombre de cellules du tableau. Selon les principes abordés dans la section , des écarts relativement faibles entre les fréquences observées et celles attendues s'avéreront significatifs si le nombre d'observations est important.

Il n'y a qu'une seule limite significative à l'utilisation du critère chi carré(mis à part l'hypothèse évidente d'une sélection aléatoire des observations), à savoir que les fréquences attendues ne doivent pas être très petites. Cela est dû au fait que le critère chi carré par nature, des chèques probabilités dans chaque cellule ; et si les fréquences attendues dans les cellules deviennent petites, par exemple inférieures à 5, alors ces probabilités ne peuvent pas être estimées avec une précision suffisante en utilisant les fréquences disponibles. Pour une discussion plus approfondie, voir Everitt (1977), Hays (1988) ou Kendall et Stuart (1979).

Test du Chi carré (méthode du maximum de vraisemblance).Chi carré du maximum de vraisemblance vise à tester la même hypothèse concernant les relations dans les tableaux de contingence que le critère chi carré Pearson. Cependant, son calcul repose sur la méthode du maximum de vraisemblance. En pratique, les statistiques MP chi carré très proche en ampleur de la statistique régulière de Pearson chi carré. De plus amples informations sur ces statistiques peuvent être trouvées dans Bishop, Fienberg et Holland (1975) ou Fienberg (1977). Dans la rubrique Analyse log-linéaire ces statistiques sont discutées plus en détail.

Amendement de Yates. Rapprochement des statistiques chi carré pour les tableaux 2x2 avec un petit nombre d'observations dans les cellules peut être amélioré en réduisant de 0,5 la valeur absolue des différences entre les fréquences attendues et observées avant la mise au carré (ce qu'on appelle Amendement Yates). La correction de Yates, qui rend l'estimation plus modérée, est généralement appliquée dans les cas où les tableaux ne contiennent que de petites fréquences, par exemple lorsque certaines fréquences attendues deviennent inférieures à 10 (pour une discussion plus approfondie, voir Conover, 1974 ; Everitt, 1977 ; Hays , 1988 ; Kendall et Stuart, 1979 et Mantel, 1974).

Le test exact de Fisher. Ce critère n'est applicable que pour les tables 2x2. Le critère repose sur le raisonnement suivant. Compte tenu des fréquences marginales dans le tableau, supposons que les deux variables tabulées sont indépendantes. Posons-nous la question : quelle est la probabilité d'obtenir les fréquences observées dans le tableau, à partir des fréquences marginales données ? Il s'avère que cette probabilité est calculée exactement en comptant tous les tableaux qui peuvent être construits sur la base des tableaux marginaux. Ainsi, le critère de Fisher calcule précis la probabilité d'occurrence des fréquences observées sous l'hypothèse nulle (aucune relation entre les variables tabulées). Le tableau des résultats montre à la fois les niveaux unilatéraux et bilatéraux.

Chi carré de McNemar. Ce critère s'applique lorsque les fréquences du tableau 2x2 représentent dépendant des échantillons. Par exemple, observations des mêmes individus avant et après une expérience. On peut notamment compter le nombre d'étudiants ayant des résultats minimes en mathématiques au début et à la fin du semestre ou la préférence des mêmes répondants avant et après l'annonce. Deux valeurs sont calculées chi carré: ANNONCE Et B/C. Chi carré A/D teste l'hypothèse selon laquelle les fréquences dans les cellules UN Et D(en haut à gauche, en bas à droite) sont les mêmes. Chi carré B/C teste l'hypothèse sur l'égalité des fréquences dans les cellules B Et C(en haut à droite, en bas à gauche).

Coefficient Phi.Carré Phi représente une mesure de la relation entre deux variables dans un tableau 2x2. Ses valeurs varient de 0 (pas de dépendance entre variables ; chi carré = 0.0 ) à 1 (relation absolue entre deux facteurs du tableau). Pour plus de détails, voir Castellan et Siegel (1988, p. 232).

Corrélation tétrachorique. Cette statistique est calculée (et appliquée) uniquement aux tableaux croisés 2x2. Si un tableau 2x2 peut être vu comme le résultat d'une partition (artificielle) des valeurs de deux variables continues en deux classes, alors le coefficient de corrélation tétrachorique permet d'estimer la relation entre ces deux variables.

Coefficient de conjugaison. Le coefficient de contingence est un calcul statistique chi carré une mesure de la relation entre les caractéristiques dans le tableau de contingence (proposé par Pearson). L'avantage de ce coefficient par rapport aux statistiques conventionnelles chi carré c'est que c'est plus facile à interpréter, parce que la plage de son changement est comprise entre 0 à 1 (Où 0 correspond au cas d'indépendance des caractéristiques du tableau, et une augmentation du coefficient traduit une augmentation du degré de connexion). L'inconvénient du coefficient de contingence est que sa valeur maximale « dépend » de la taille du tableau. Ce coefficient ne peut atteindre la valeur 1 que si le nombre de classes n'est pas limité (voir Siegel, 1956, p. 201).

Interprétation des mesures de communication. Un inconvénient majeur des mesures d'association (abordées ci-dessus) est la difficulté de les interpréter en termes conventionnels de probabilité ou de « proportion de variance expliquée », comme dans le cas du coefficient de corrélation. r Pearson (voir Corrélations). Il n’existe donc pas de mesure ou de coefficient d’association généralement accepté.

Statistiques basées sur les classements. Dans de nombreux problèmes qui se posent dans la pratique, nous disposons de mesures uniquement en ordinal échelle (voir Concepts de base des statistiques). Cela s'applique particulièrement aux mesures dans le domaine de la psychologie, de la sociologie et d'autres disciplines liées à l'étude de l'homme. Supposons que vous ayez interrogé un certain nombre de personnes interrogées pour connaître leur attitude à l'égard de certains sports. Vous représentez les mesures sur une échelle avec les positions suivantes : (1) Toujours, (2) généralement, (3) Parfois et (4) jamais. Évidemment la réponse parfois je me demande montre moins d'intérêt de la part du répondant que de la réponse Je suis généralement intéressé etc. Ainsi, il est possible d'ordonner (classer) le degré d'intérêt des répondants. Ceci est un exemple typique d’échelle ordinale. Les variables mesurées sur une échelle ordinale ont leurs propres types de corrélations qui permettent d'évaluer les dépendances.

R Spearman. Statistiques R. Spearman peut être interprété de la même manière que la corrélation de Pearson ( r Pearson) en termes de proportion expliquée de variance (en gardant toutefois à l’esprit que la statistique de Spearman est calculée par rangs). On suppose que les variables sont mesurées au moins dans ordinaléchelle. Des discussions approfondies sur la corrélation des rangs de Spearman, sa puissance et son efficacité peuvent être trouvées, par exemple, dans Gibbons (1985), Hays (1981), McNemar (1969), Siegel (1956), Siegel et Castellan (1988), Kendall (1948). , Olds (1949) et Hotelling et Pabst (1936).

Tau Kendall. Statistiques tau L'équivalent de Kendall R. Spearman sous certaines hypothèses de base. Leurs pouvoirs sont également équivalents. Cependant, généralement les valeurs R. Lancier et tau Les Kendall sont différents car ils diffèrent à la fois par leur logique interne et par la manière dont ils sont calculés. Dans Siegel et Castellan (1988), les auteurs expriment ainsi la relation entre ces deux statistiques :

1 < = 3 * Тау Кендалла - 2 * R Спирмена < = 1

Plus important encore, les statistiques de Kendall tau et Spearman R. ont des interprétations différentes : alors que les statistiques R. Spearman peut être considéré comme un analogue direct des statistiques r Pearson, calculé par classement, statistiques de Kendall tau plutôt basé sur probabilités. Plus précisément, il teste qu'il existe une différence entre la probabilité que les données observées soient dans le même ordre pour deux quantités et la probabilité qu'elles soient dans un ordre différent. Kendall (1948, 1975), Everitt (1977) et Siegel et Castellan (1988) discutent en détail tau Kendall. Généralement, deux statistiques sont calculées tau Kendall : tau b Et tau c. Ces mesures diffèrent uniquement par la façon dont elles traitent les classements correspondants. Dans la plupart des cas, leurs significations sont assez similaires. Si des différences apparaissent, il semble que le moyen le plus sûr consiste à considérer la plus petite des deux valeurs.

Coefficient d de Sommer : d(X|Y), d(Y|X). Statistiques d La mesure de Sommer est une mesure non symétrique de la relation entre deux variables. Cette statistique est proche de tau b(voir Siegel et Castellan, 1988, pp. 303-310).

Statistiques gamma. S'il existe de nombreuses valeurs correspondantes dans les données, les statistiques gamma préférable R. Lancier ou tau Kendall. En termes d'hypothèses de base, les statistiques gammaéquivalent aux statistiques R. Spearman ou le tau de Kendall. Son interprétation et ses calculs ressemblent davantage aux statistiques Tau de Kendall qu'aux statistiques R de Spearman. Pour le dire brièvement, gamma représente également probabilité; plus précisément, la différence entre la probabilité que l'ordre de classement de deux variables corresponde, moins la probabilité que ce ne soit pas le cas, divisée par un moins la probabilité de correspondance. Donc les statistiques gamma fondamentalement équivalent tau Kendall, sauf que les correspondances sont explicitement prises en compte dans la normalisation. Discussion détaillée des statistiques gamma peuvent être trouvées dans Goodman et Kruskal (1954, 1959, 1963, 1972), Siegel (1956) et Siegel et Castellan (1988).

Coefficients d'incertitude. Ces coefficients mesurent communication d'informations entre les facteurs (lignes et colonnes du tableau). Concept dépendance informationnelle trouve son origine dans l'approche de la théorie de l'information pour l'analyse des tableaux de fréquences, on peut se référer aux manuels pertinents pour clarifier cette question (voir Kullback, 1959 ; Ku et Kullback, 1968 ; Ku, Varner et Kullback, 1971 ; voir aussi Bishop , Fienberg et Holland, 1975, pp. 344-348). Statistiques S(Oui, X) est symétrique et mesure la quantité d'informations dans une variable Oui par rapport à la variable X ou dans une variable X par rapport à la variable Oui. Statistiques S(X|Y) Et S(Y|X) exprimer une dépendance directionnelle.

Réponses multidimensionnelles et dichotomies. Des variables telles que la réponse multivariée et les dichotomies multivariées apparaissent dans des situations où le chercheur s'intéresse non seulement aux fréquences « simples » des événements, mais également à certaines propriétés qualitatives (souvent non structurées) de ces événements. La nature des variables multidimensionnelles (facteurs) est mieux comprise à travers des exemples.

  • · Réponses multidimensionnelles
  • · Dichotomies multidimensionnelles
  • · Tableau croisé de réponses multivariées et de dichotomies
  • Tableau croisé par paires de variables avec réponses multivariées
  • · Commentaire final

Réponses multidimensionnelles. Imaginez que, dans le cadre d'une vaste étude marketing, vous demandiez à vos clients de nommer les 3 meilleures boissons gazeuses selon leur point de vue. Une question typique pourrait ressembler à ceci.

). La formulation spécifique de l’hypothèse testée variera d’un cas à l’autre.

Dans cet article, je décrirai le fonctionnement du critère \(\chi^2\) en utilisant un exemple (hypothétique) issu de l'immunologie. Imaginons que nous ayons mené une expérience pour déterminer l’efficacité de la suppression du développement d’une maladie microbienne lorsque des anticorps appropriés sont introduits dans l’organisme. Au total, 111 souris ont été impliquées dans l’expérience, que nous avons divisées en deux groupes, comprenant respectivement 57 et 54 animaux. Le premier groupe de souris a reçu des injections de bactéries pathogènes, suivies de l'introduction de sérum sanguin contenant des anticorps contre ces bactéries. Les animaux du deuxième groupe ont servi de témoins : ils n'ont reçu que des injections bactériennes. Après un certain temps d'incubation, il s'est avéré que 38 souris sont mortes et 73 ont survécu. Parmi les morts, 13 appartenaient au premier groupe et 25 au deuxième (témoin). L'hypothèse nulle testée dans cette expérience peut être formulée ainsi : l'administration de sérum contenant des anticorps n'a aucun effet sur la survie des souris. En d’autres termes, nous soutenons que les différences observées dans la survie des souris (77,2 % dans le premier groupe contre 53,7 % dans le deuxième groupe) sont totalement aléatoires et ne sont pas liées à l’effet des anticorps.

Les données obtenues lors de l'expérience peuvent être présentées sous forme de tableau :

Total

Bactéries + sérum

Bactéries uniquement

Total

Les tableaux comme celui présenté sont appelés tableaux de contingence. Dans l'exemple considéré, le tableau a une dimension de 2x2 : il existe deux classes d'objets (« Bactéries + sérum » et « Bactéries uniquement »), qui sont examinées selon deux critères (« Morts » et « Survivants »). Il s’agit du cas le plus simple de tableau de contingence : bien entendu, tant le nombre de classes étudiées que le nombre de fonctionnalités peuvent être plus importants.

Pour tester l’hypothèse nulle énoncée ci-dessus, il faut savoir quelle serait la situation si les anticorps n’avaient effectivement aucun effet sur la survie des souris. En d'autres termes, il faut calculer fréquences attendues pour les cellules correspondantes du tableau de contingence. Comment faire cela ? Au cours de l'expérience, 38 souris au total sont mortes, soit 34,2 % du nombre total d'animaux impliqués. Si l'administration d'anticorps n'affecte pas la survie des souris, le même pourcentage de mortalité devrait être observé dans les deux groupes expérimentaux, soit 34,2 %. En calculant combien représentent 34,2 % de 57 et 54, nous obtenons 19,5 et 18,5. Ce sont les taux de mortalité attendus dans nos groupes expérimentaux. Les taux de survie attendus sont calculés de la même manière : puisqu'un total de 73 souris ont survécu, soit 65,8 % du nombre total, les taux de survie attendus seront de 37,5 et 35,5. Créons un nouveau tableau de contingence, maintenant avec les fréquences attendues :

Mort

Survivants

Total

Bactéries + sérum

Bactéries uniquement

Total

Comme nous pouvons le constater, les fréquences attendues sont assez différentes de celles observées, c'est-à-dire l'administration d'anticorps semble effectivement avoir un effet sur la survie des souris infectées par l'agent pathogène. Nous pouvons quantifier cette impression à l'aide du test d'adéquation de Pearson \(\chi^2\) :

\[\chi^2 = \sum_()\frac((f_o - f_e)^2)(f_e),\]


où \(f_o\) et \(f_e\) sont respectivement les fréquences observées et attendues. La sommation est effectuée sur toutes les cellules du tableau. Ainsi, pour l’exemple considéré, nous avons

\[\chi^2 = (13 – 19,5)^2/19,5 + (44 – 37,5)^2/37,5 + (25 – 18,5)^2/18,5 + (29 – 35,5)^2/35,5 = \]

La valeur résultante de \(\chi^2\) est-elle suffisamment grande pour rejeter l'hypothèse nulle ? Pour répondre à cette question, il est nécessaire de trouver la valeur critique correspondante du critère. Le nombre de degrés de liberté pour \(\chi^2\) est calculé comme \(df = (R - 1)(C - 1)\), où \(R\) et \(C\) sont le nombre de lignes et de colonnes dans la conjugaison du tableau. Dans notre cas \(df = (2 -1)(2 - 1) = 1\). Connaissant le nombre de degrés de liberté, nous pouvons désormais facilement connaître la valeur critique \(\chi^2\) en utilisant la fonction R standard qchisq() :


Ainsi, avec un degré de liberté, seulement dans 5 % des cas la valeur du critère \(\chi^2\) dépasse 3,841. La valeur que nous avons obtenue, 6,79, dépasse largement cette valeur critique, ce qui nous donne le droit de rejeter l'hypothèse nulle selon laquelle il n'y aurait aucun lien entre l'administration d'anticorps et la survie des souris infectées. En rejetant cette hypothèse, on risque de se tromper avec une probabilité inférieure à 5%.

Il convient de noter que la formule ci-dessus pour le critère \(\chi^2\) donne des valeurs légèrement gonflées lorsque l'on travaille avec des tableaux de contingence de taille 2x2. La raison en est que la distribution du critère \(\chi^2\) lui-même est continue, alors que les fréquences des caractéristiques binaires (« morts » / « survécus ») sont par définition discrètes. À cet égard, lors du calcul du critère, il est d'usage d'introduire ce qu'on appelle correction de continuité, ou Amendement Yates :

\[\chi^2_Y = \sum_()\frac((|f_o - f_e| - 0.5)^2)(f_e).\]

Données de correction de continuité « Test du chi carré avec Yates » : souris X-carré = 5,7923, df = 1, valeur p = 0,0161


Comme on peut le voir, R applique automatiquement la correction de continuité de Yates ( Test du chi carré de Pearson avec correction de continuité "Yates"). La valeur de \(\chi^2\) calculée par le programme était de 5,79213. On peut rejeter l’hypothèse nulle d’absence d’effet anticorps au risque de se tromper avec une probabilité d’un peu plus de 1 % (valeur p = 0,0161).

Jusqu'à la fin du XIXe siècle, la distribution normale était considérée comme la loi universelle de variation des données. Cependant, K. Pearson a noté que les fréquences empiriques peuvent différer considérablement de la distribution normale. La question s'est posée de savoir comment le prouver. Il a fallu non seulement une comparaison graphique, subjective, mais aussi une justification quantitative stricte.

C'est ainsi qu'a été inventé le critère χ 2(chi carré), qui teste la signification de la différence entre les fréquences empiriques (observées) et théoriques (attendues). Cela s'est produit en 1900, mais ce critère est toujours utilisé aujourd'hui. De plus, il a été adapté pour résoudre un large éventail de problèmes. Tout d'abord, il s'agit de l'analyse des données nominales, c'est-à-dire ceux qui s'expriment non pas par la quantité, mais par l'appartenance à une catégorie. Par exemple, la classe de la voiture, le sexe du participant à l'expérience, le type d'installation, etc. Les opérations mathématiques telles que l'addition et la multiplication ne peuvent pas être appliquées à de telles données ; elles ne peuvent être calculées que pour elles.

Nous notons les fréquences observées À propos (Observé), attendu - E (attendu). A titre d'exemple, prenons le résultat de lancer un dé 60 fois. S'il est symétrique et uniforme, la probabilité d'obtenir n'importe quel côté est de 1/6 et donc le nombre attendu d'obtenir chaque côté est de 10 (1/6∙60). Nous écrivons les fréquences observées et attendues dans un tableau et dessinons un histogramme.

L’hypothèse nulle est que les fréquences sont cohérentes, c’est-à-dire que les données réelles ne contredisent pas les données attendues. Une autre hypothèse est que les écarts de fréquence vont au-delà des fluctuations aléatoires, c'est-à-dire que les écarts sont statistiquement significatifs. Pour tirer une conclusion rigoureuse, il nous faut.

  1. Une mesure récapitulative de l’écart entre les fréquences observées et attendues.
  2. La distribution de cette mesure si l'hypothèse selon laquelle il n'y a pas de différences est vraie.

Commençons par la distance entre les fréquences. Si tu prends juste la différence O-E, alors une telle mesure dépendra de l'échelle des données (fréquences). Par exemple, 20 - 5 = 15 et 1020 - 1005 = 15. Dans les deux cas, la différence est de 15. Mais dans le premier cas, les fréquences attendues sont 3 fois inférieures à celles observées, et dans le second cas - seulement 1,5 %. Nous avons besoin d’une mesure relative qui ne dépend pas de l’échelle.

Faisons attention aux faits suivants. En général, le nombre de gradations dans lesquelles les fréquences sont mesurées peut être beaucoup plus grand, de sorte que la probabilité qu'une seule observation tombe dans une catégorie ou une autre est assez faible. Si tel est le cas, alors la distribution d’une telle variable aléatoire obéira à la loi des événements rares, connue sous le nom de loi de Poisson. Dans la loi de Poisson, comme on le sait, la valeur de l’espérance mathématique et la variance coïncident (paramètre λ ). Cela signifie que la fréquence attendue pour certaines catégories de la variable nominale E je sera simultanée et sa dispersion. De plus, la loi de Poisson tend à se normaliser avec un grand nombre d'observations. En combinant ces deux faits, nous obtenons que si l’hypothèse sur l’accord entre les fréquences observées et attendues est correcte, alors, avec un grand nombre d'observations, expression

Aurai.

Il est important de se rappeler que la normalité n’apparaîtra qu’à des fréquences suffisamment élevées. En statistiques, il est généralement admis que le nombre total d'observations (somme des fréquences) doit être d'au moins 50 et que la fréquence attendue dans chaque gradation doit être d'au moins 5. Seulement dans ce cas, la valeur indiquée ci-dessus aura une norme normale distribution. Supposons que cette condition soit remplie.

La distribution normale standard a presque toutes les valeurs comprises entre ±3 (la règle des trois sigma). Ainsi, nous avons obtenu la différence relative des fréquences pour une gradation. Nous avons besoin d’une mesure généralisable. Vous ne pouvez pas simplement additionner tous les écarts - nous obtenons 0 (devinez pourquoi). Pearson a proposé d'additionner les carrés de ces écarts.

C'est le signe critère χ 2 Pearson. Si les fréquences correspondent réellement à celles attendues, alors la valeur du critère sera relativement faible (puisque la plupart des écarts sont autour de zéro). Mais si le critère s'avère large, cela indique des différences significatives entre les fréquences.

Le critère devient « grand » lorsque l’occurrence d’une valeur telle ou même supérieure devient improbable. Et pour calculer une telle probabilité, il faut connaître la distribution du critère lorsque l'expérience est répétée plusieurs fois, lorsque l'hypothèse d'accord de fréquence est correcte.

Comme il est facile de le constater, la valeur du chi carré dépend également du nombre de termes. Plus il y en a, plus le critère doit avoir de valeur, car chaque terme contribuera au total. Donc pour chaque quantité indépendant termes, il y aura sa propre distribution. Il s'avère que χ 2 est toute une famille de distributions.

Et nous arrivons ici à un moment délicat. Qu'est-ce qu'un nombre indépendant termes? Il semble que tout terme (c'est-à-dire l'écart) soit indépendant. K. Pearson le pensait également, mais il s'est avéré qu'il avait tort. En fait, le nombre de termes indépendants sera inférieur d'un au nombre de gradations de la variable nominale n. Pourquoi? Parce que si nous avons un échantillon pour lequel la somme des fréquences a déjà été calculée, alors l'une des fréquences peut toujours être déterminée comme la différence entre le nombre total et la somme de toutes les autres. La variation sera donc un peu moindre. Ronald Fisher a remarqué ce fait 20 ans après que Pearson ait développé son critère. Même les tables ont dû être refaites.

A cette occasion, Fisher a introduit un nouveau concept dans les statistiques - degré de liberté(degrés de liberté), qui représente le nombre de termes indépendants dans la somme. Le concept de degrés de liberté a une explication mathématique et n'apparaît que dans les distributions associées à la normale (Student, Fisher-Snedecor et le chi carré lui-même).

Pour mieux comprendre la signification des degrés de liberté, tournons-nous vers un analogue physique. Imaginons un point se déplaçant librement dans l'espace. Il a 3 degrés de liberté, car peut se déplacer dans n’importe quelle direction dans un espace tridimensionnel. Si un point se déplace le long d'une surface, il possède déjà deux degrés de liberté (avant et arrière, gauche et droite), bien qu'il continue de se trouver dans un espace tridimensionnel. Un point se déplaçant le long d'un ressort se trouve à nouveau dans un espace tridimensionnel, mais n'a qu'un seul degré de liberté, car peut avancer ou reculer. Comme vous pouvez le constater, l’espace où se trouve l’objet ne correspond pas toujours à une réelle liberté de mouvement.

De la même manière, la distribution d'un critère statistique peut dépendre d'un nombre d'éléments inférieur au nombre de termes nécessaires à son calcul. En général, le nombre de degrés de liberté est inférieur au nombre d'observations par le nombre de dépendances existantes. Ce sont des mathématiques pures, pas de magie.

Donc la répartition χ 2 est une famille de distributions dont chacune dépend du paramètre des degrés de liberté. Et la définition formelle du test du chi carré est la suivante. Distribution χ 2(chi carré) s k les degrés de liberté sont la distribution de la somme des carrés k variables aléatoires normales standard indépendantes.

Ensuite, nous pourrions passer à la formule elle-même par laquelle la fonction de distribution du chi carré est calculée, mais heureusement, tout est calculé pour nous depuis longtemps. Pour obtenir la probabilité d'intérêt, vous pouvez utiliser soit le tableau statistique correspondant, soit une fonction toute prête dans un logiciel spécialisé, disponible même dans Excel.

Il est intéressant de voir comment la forme de la distribution du Chi carré change en fonction du nombre de degrés de liberté.

Avec des degrés de liberté croissants, la distribution du chi carré tend à être normale. Ceci s'explique par l'action du théorème central limite, selon lequel la somme d'un grand nombre de variables aléatoires indépendantes a une distribution normale. Cela ne dit rien sur les carrés)).

Test d'hypothèse à l'aide du test du chi carré

Nous arrivons maintenant à tester des hypothèses en utilisant la méthode du chi carré. En général, la technologie demeure. L’hypothèse nulle est que les fréquences observées correspondent à celles attendues (c’est-à-dire qu’il n’y a pas de différence entre elles car elles sont issues de la même population). Si tel est le cas, la dispersion sera relativement faible, dans la limite de fluctuations aléatoires. La mesure de dispersion est déterminée à l’aide du test du chi carré. Ensuite, soit le critère lui-même est comparé à la valeur critique (pour le niveau de signification et les degrés de liberté correspondants), soit, ce qui est plus correct, le niveau p observé est calculé, c'est-à-dire la probabilité d'obtenir une valeur de critère identique, voire supérieure, si l'hypothèse nulle est vraie.

Parce que on s'intéresse à l'accord des fréquences, alors l'hypothèse sera rejetée lorsque le critère est supérieur au niveau critique. Ceux. le critère est unilatéral. Cependant, il est parfois (parfois) nécessaire de tester l’hypothèse de gauche. Par exemple, lorsque les données empiriques sont très similaires aux données théoriques. Le critère peut alors tomber dans une région improbable, mais à gauche. Le fait est que dans des conditions naturelles, il est peu probable d’obtenir des fréquences qui coïncident pratiquement avec celles théoriques. Il y a toujours une part de hasard qui donne lieu à une erreur. Mais s’il n’y a pas d’erreur de ce type, les données ont peut-être été falsifiées. Néanmoins, l’hypothèse du côté droit est généralement testée.

Revenons au problème des dés. Calculons la valeur du test du chi carré en utilisant les données disponibles.

Trouvons maintenant la valeur tabulaire du critère à 5 degrés de liberté ( k) et niveau de signification 0,05 ( α ).

C'est χ 2 0,05 ; 5 = 11,1.

Comparons les valeurs réelles et tabulées. 3.4 ( χ 2) < 11,1 (χ 2 0,05 ; 5). Le critère calculé s'est avéré plus petit, ce qui signifie que l'hypothèse d'égalité (accord) des fréquences n'est pas rejetée. Sur la figure, la situation ressemble à ceci.

Si la valeur calculée se situe dans la région critique, l’hypothèse nulle serait rejetée.

Il serait plus correct de calculer également le niveau p. Pour ce faire, vous devez trouver dans le tableau la valeur la plus proche pour un nombre de degrés de liberté donné et regarder le niveau de signification correspondant. Mais nous sommes au siècle dernier. Nous utiliserons un ordinateur personnel, notamment MS Excel. Excel a plusieurs fonctions liées au chi carré.

Vous en trouverez ci-dessous une brève description.

CH2.OBR– valeur critique du critère à une probabilité donnée à gauche (comme dans les tableaux statistiques)

CH2.OBR.PH– valeur critique du critère pour une probabilité donnée à droite. La fonction duplique essentiellement la précédente. Mais ici vous pouvez immédiatement indiquer le niveau α , plutôt que de le soustraire de 1. C'est plus pratique, car dans la plupart des cas, c'est la queue droite de la distribution qui est nécessaire.

CH2.DIST– niveau p à gauche (la densité peut être calculée).

CH2.DIST.PH– niveau p à droite.

CHI2.TEST– effectue immédiatement un test du chi carré pour deux plages de fréquences données. Le nombre de degrés de liberté est considéré comme étant inférieur de un au nombre de fréquences dans la colonne (comme il se doit), renvoyant la valeur du niveau p.

Calculons pour notre expérience la valeur critique (tabulaire) pour 5 degrés de liberté et alpha 0,05. La formule Excel ressemblera à ceci :

CH2.OBR(0,95;5)

CH2.OBR.PH(0,05;5)

Le résultat sera le même - 11.0705. C'est la valeur que l'on voit dans le tableau (arrondie à 1 décimale).

Calculons enfin le niveau p pour le critère de 5 degrés de liberté χ 2= 3,4. Nous avons besoin d'une probabilité à droite, nous prenons donc une fonction avec l'ajout de HH (queue droite)

CH2.DIST.PH(3,4;5) = 0,63857

Cela signifie qu'avec 5 degrés de liberté, la probabilité d'obtenir la valeur du critère est χ 2= 3,4 et plus équivaut à près de 64 %. Bien entendu, l’hypothèse n’est pas rejetée (p-level supérieur à 5 %), les fréquences sont en très bon accord.

Vérifions maintenant l'hypothèse sur l'accord de fréquence à l'aide de la fonction CH2.TEST.

Pas de tableaux, pas de calculs fastidieux. En spécifiant des colonnes avec des fréquences observées et attendues comme arguments de fonction, nous obtenons immédiatement le niveau p. Beauté.

Imaginez maintenant que vous jouez aux dés avec un type suspect. La répartition des points de 1 à 5 reste la même, mais il obtient 26 six (le nombre total de lancers devient 78).

Dans ce cas, le niveau P s'avère être de 0,003, ce qui est bien inférieur à 0,05. Il y a de bonnes raisons de douter de la validité des dés. Voici à quoi ressemble cette probabilité sur un graphique de distribution du chi carré.

Le critère du chi carré lui-même s'avère ici être de 17,8, ce qui, naturellement, est supérieur à celui du tableau (11,1).

J'espère avoir pu expliquer quel est le critère d'accord χ 2(Chi carré de Pearson) et comment il peut être utilisé pour tester des hypothèses statistiques.

Enfin, encore une fois sur une condition importante ! Le test du Chi carré ne fonctionne correctement que lorsque le nombre de toutes les fréquences dépasse 50 et que la valeur minimale attendue pour chaque gradation n'est pas inférieure à 5. Si dans une catégorie, la fréquence attendue est inférieure à 5, mais que la somme de toutes les fréquences dépasse 50, alors cette catégorie est combinée avec la plus proche afin que leur fréquence totale dépasse 5. Si cela n'est pas possible ou si la somme des fréquences est inférieure à 50, des méthodes plus précises pour tester les hypothèses doivent être utilisées. Nous en reparlerons une autre fois.

Vous trouverez ci-dessous une vidéo expliquant comment tester une hypothèse dans Excel à l'aide du test du chi carré.

Le test du Chi carré est une méthode universelle permettant de vérifier la concordance entre les résultats d'une expérience et le modèle statistique utilisé.

Distance Pearson X2

Piatnitski A.M.

Université médicale d'État de Russie

En 1900, Karl Pearson a proposé une manière simple, universelle et efficace de tester la concordance entre les prédictions du modèle et les données expérimentales. Le « test du chi carré » qu’il a proposé est le test statistique le plus important et le plus couramment utilisé. La plupart des problèmes liés à l'estimation des paramètres inconnus du modèle et à la vérification de la concordance entre le modèle et les données expérimentales peuvent être résolus avec son aide.

Soit un modèle a priori (« pré-expérimental ») de l'objet ou du processus étudié (en statistique on parle de « l'hypothèse nulle » H 0), et les résultats d'une expérience avec cet objet. Il faut décider si le modèle est adéquat (correspond-il à la réalité) ? Les résultats expérimentaux contredisent-ils nos idées sur le fonctionnement de la réalité ou, en d’autres termes, faut-il rejeter H0 ? Souvent, cette tâche peut être réduite à comparer les fréquences moyennes observées (O i = Observed) et attendues selon le modèle (E i = Expected) d'apparition de certains événements. On pense que les fréquences observées ont été obtenues dans une série de N observations indépendantes (!) effectuées dans des conditions constantes (!). À la suite de chaque observation, l’un des M événements est enregistré. Ces événements ne peuvent pas se produire simultanément (ils sont incompatibles deux à deux) et l'un d'eux se produit nécessairement (leur combinaison forme un événement fiable). La totalité de toutes les observations est réduite à un tableau (vecteur) de fréquences (O i )=(O 1 ,… O M ), qui décrit complètement les résultats de l'expérience. La valeur O 2 =4 signifie que l'événement numéro 2 s'est produit 4 fois. Somme des fréquences O 1 +… O M =N. Il est important de distinguer deux cas : N – fixe, non aléatoire, N – variable aléatoire. Pour un nombre total d'expériences N fixé, les fréquences ont une distribution polynomiale. Illustrons ce schéma général par un exemple simple.

Utiliser le test du chi carré pour tester des hypothèses simples.

Supposons que le modèle (hypothèse nulle H 0) soit que le dé est juste - tous les visages apparaissent également souvent avec une probabilité p i = 1/6, i =, M = 6. Une expérience a été menée dans laquelle le dé a été lancé 60 fois (N = 60 essais indépendants ont été menés). Selon le modèle, nous nous attendons à ce que toutes les fréquences observées O i d'occurrence 1,2,... 6 points soient proches de leurs valeurs moyennes E i =Np i =60∙(1/6)=10. D'après H 0, le vecteur de fréquences moyennes (E i ) = (Np i ) = (10, 10, 10, 10, 10, 10). (Les hypothèses dans lesquelles les fréquences moyennes sont complètement connues avant le début de l'expérience sont dites simples.) Si le vecteur observé (O i ) était égal à (34,0,0,0,0,26), alors il est immédiatement Il est clair que le modèle est incorrect - l'os ne peut pas être correct, puisque seuls 1 et 6 ont été lancés 60 fois. La probabilité d'un tel événement pour un dé correct est négligeable : P = (2/6) 60 =2,4*10 -29. Toutefois, l’apparition de divergences aussi évidentes entre le modèle et l’expérience constitue une exception. Soit le vecteur des fréquences observées (O i ) égal à (5, 15, 6, 14, 4, 16). Est-ce cohérent avec H0 ? Nous devons donc comparer deux vecteurs de fréquence (E i) et (O i). Dans ce cas, le vecteur des fréquences attendues (Ei) n'est pas aléatoire, mais le vecteur des fréquences observées (Oi) est aléatoire - lors de la prochaine expérience (dans une nouvelle série de 60 lancers), il s'avérera différent. Il est utile d'introduire une interprétation géométrique du problème et de supposer que dans l'espace fréquentiel (dans ce cas à 6 dimensions) deux points sont donnés avec les coordonnées (5, 15, 6, 14, 4, 16) et (10, 10, 10, 10, 10, 10 ). Sont-ils suffisamment éloignés pour être considérés comme incompatibles avec H 0 ? En d’autres termes, nous avons besoin de :

  1. apprendre à mesurer les distances entre les fréquences (points dans l'espace fréquentiel),
  2. avoir un critère pour déterminer quelle distance doit être considérée comme trop (« invraisemblablement ») grande, c'est-à-dire incompatible avec H 0 .

Le carré de la distance euclidienne ordinaire serait égal à :

X 2 Euclide = S(O je -E je) 2 = (5-10) 2 +(15-10) 2 + (6-10) 2 +(14-10) 2 +(4-10) 2 +(16-10) 2

Dans ce cas, les surfaces X 2 Euclide = const sont toujours des sphères si l'on fixe les valeurs de E i et change O i . Karl Pearson a noté que l'utilisation de la distance euclidienne dans l'espace fréquentiel ne devrait pas être utilisée. Ainsi, il est incorrect de supposer que les points (O = 1030 et E = 1000) et (O = 40 et E = 10) sont à égale distance les uns des autres, bien que dans les deux cas la différence soit O -E = 30. En effet, plus la fréquence attendue est élevée, plus des écarts importants doivent être considérés comme possibles. Par conséquent, les points (O =1030 et E =1000) doivent être considérés comme « proches », et les points (O =40 et E =10) « éloignés » les uns des autres. On peut montrer que si l'hypothèse H 0 est vraie, alors les fluctuations de fréquence O i par rapport à E i sont de l'ordre de la racine carrée (!) de E i . Par conséquent, Pearson a proposé, lors du calcul de la distance, de mettre au carré non pas les différences (O i -E i), mais les différences normalisées (O i -E i)/E i 1/2. Voici donc la formule pour calculer la distance de Pearson (c'est en fait le carré de la distance) :

X 2 Pearson = S((O je -E je )/E je 1/2) 2 = S(O je -E je ) 2 /E je

Dans notre exemple :

X 2 Pearson = (5-10) 2 /10+(15-10) 2 /10 +(6-10) 2 /10+(14-10) 2 /10+(4-10) 2 /10+( 16-10) 2 /10=15,4

Pour un dé ordinaire, toutes les fréquences attendues E i sont les mêmes, mais généralement elles sont différentes, donc les surfaces sur lesquelles la distance de Pearson est constante (X 2 Pearson = const) se révèlent être des ellipsoïdes et non des sphères.

Maintenant que la formule de calcul des distances a été choisie, il faut savoir quelles distances doivent être considérées comme « pas trop grandes » (cohérentes avec H 0). Ainsi, par exemple, que dire de la distance que nous avons calculée 15,4. ? Dans quel pourcentage de cas (ou avec quelle probabilité) obtiendrons-nous une distance supérieure à 15,4 en effectuant des expériences avec un dé ordinaire ? Si ce pourcentage est faible (<0.05), то H 0 надо отвергнуть. Иными словами требуется найти распределение длярасстояния Пирсона. Если все ожидаемые частоты E i не слишком малы (≥5), и верна H 0 , то нормированные разности (O i - E i )/E i 1/2 приближенно эквивалентны стандартным гауссовским случайным величинам: (O i - E i )/E i 1/2 ≈N (0,1). Это, например, означает, что в 95% случаев| (O i - E i )/E i 1/2 | < 1.96 ≈ 2 (правило “двух сигм”).

Explication. Le nombre de mesures O i tombant dans la cellule du tableau portant le numéro i a une distribution binomiale avec les paramètres : m =Np i =E i,σ =(Np i (1-p i)) 1/2, où N est le nombre de mesures (N » 1), p i est la probabilité qu'une mesure tombe dans une cellule donnée (rappelons que les mesures sont indépendantes et sont effectuées dans des conditions constantes). Si p i est petit, alors : σ≈(Np i ) 1/2 =E i et la distribution binomiale est proche de Poisson, dans laquelle le nombre moyen d'observations E i =λ, et l'écart type σ=λ 1/2 = E je 1/ 2. Pour λ≥5, la distribution de Poisson est proche de la normale N (m =E i =λ, σ=E i 1/2 =λ 1/2), et la valeur normalisée (O i - E i )/E i 1 /2 ≈ N (0,1).

Pearson a défini la variable aléatoire χ 2 n – « chi carré avec n degrés de liberté », comme la somme des carrés de n variables aléatoires normales standard indépendantes :

χ 2 n = T 1 2 + T 2 2 + …+ T n 2 , où est tout le monde T je = N(0,1) - n. O. r. Avec. V.

Essayons de comprendre clairement la signification de cette variable aléatoire la plus importante en statistique. Pour ce faire, dans le plan (avec n = 2) ou dans l'espace (avec n = 3) on présente un nuage de points dont les coordonnées sont indépendantes et ont une distribution normale standardf T (x) ~exp (-x 2 /2 ). Sur un plan, selon la règle des « deux sigma », appliquée indépendamment aux deux coordonnées, 90 % (0,95*0,95≈0,90) des points sont contenus dans un carré (-2

f χ 2 2 (a) = Сexp(-a/2) = 0,5exp(-a/2).

Avec un nombre suffisamment grand de degrés de liberté n (n > 30), la distribution du chi carré se rapproche de la normale : N (m = n ; σ = (2n) ½). C'est une conséquence du « théorème central limite » : la somme de quantités identiquement distribuées avec une variance finie se rapproche de la loi normale à mesure que le nombre de termes augmente.

En pratique, il faut se rappeler que le carré moyen de la distance est égal à m (χ 2 n) = n, et sa variance est σ 2 (χ 2 n) = 2n. À partir de là, il est facile de conclure quelles valeurs du Chi carré doivent être considérées comme trop petites et trop grandes : la majeure partie de la distribution se situe dans la plage de n -2∙(2n) ½ à n +2∙(2n) ½.

Ainsi, les distances de Pearson dépassant significativement n +2∙ (2n) ½ doivent être considérées comme invraisemblablement grandes (incohérentes avec H 0). Si le résultat est proche de n +2∙(2n) ½, vous devez alors utiliser des tableaux dans lesquels vous pouvez savoir exactement dans quelle proportion de cas de telles et grandes valeurs du chi carré peuvent apparaître.

Il est important de savoir choisir la bonne valeur du nombre de degrés de liberté (en abrégé n.d.f.). Il semblait naturel de supposer que n était simplement égal au nombre de chiffres : n = M. Dans son article, Pearson le suggère. Dans l’exemple des dés, cela signifierait que n =6. Cependant, plusieurs années plus tard, il s’est avéré que Pearson s’était trompé. Le nombre de degrés de liberté est toujours inférieur au nombre de chiffres s'il existe des connexions entre les variables aléatoires O i. Pour l'exemple des dés, la somme O i est 60, et seules 5 fréquences peuvent être modifiées indépendamment, donc la valeur correcte est n = 6-1 = 5. Pour cette valeur de n, nous obtenons n +2∙(2n) ½ =5+2∙(10) ½ =11,3. Depuis 15.4>11.3, alors l'hypothèse H 0 - le dé est correct doit être rejetée.

Après avoir clarifié l'erreur, les tableaux χ 2 existants ont dû être complétés, puisqu'au départ ils ne contenaient pas le cas n = 1, puisque le plus petit nombre de chiffres = 2. Il s'avère maintenant qu'il peut y avoir des cas où la distance de Pearson a la distribution χ 2 n =1.

Exemple. Avec 100 lancers de pièces, le nombre de faces est O 1 = 65 et le nombre de faces est O 2 = 35. Le nombre de chiffres est M = 2. Si la pièce est symétrique, alors les fréquences attendues sont E 1 =50, E 2 =50.

X 2 Pearson = S(O i -E i) 2 /E i = (65-50) 2 /50 + (35-50) 2 /50 = 2*225/50 = 9.

La valeur résultante doit être comparée à celles que peut prendre la variable aléatoire χ 2 n =1, définie comme le carré de la valeur normale standard χ 2 n =1 =T 1 2 ≥ 9 ó T 1 ≥3 ou T 1 ≤-3. La probabilité d'un tel événement est très faible P (χ 2 n =1 ≥9) = 0,006. Par conséquent, la pièce ne peut pas être considérée comme symétrique : H 0 doit être rejetée. Le fait que le nombre de degrés de liberté ne peut pas être égal au nombre de chiffres ressort clairement du fait que la somme des fréquences observées est toujours égale à la somme des fréquences attendues, par exemple O 1 +O 2 =65+ 35 = E1 +E2 =50+50=100. Ainsi, des points aléatoires de coordonnées O 1 et O 2 sont situés sur une droite : O 1 +O 2 =E 1 +E 2 =100 et la distance au centre s'avère moindre que si cette restriction n'existait pas et ils étaient situés dans tout l'avion. En effet, pour deux variables aléatoires indépendantes avec des attentes mathématiques E 1 =50, E 2 =50, la somme de leurs réalisations ne doit pas toujours être égale à 100 - par exemple, les valeurs O 1 =60, O 2 =55 seraient être acceptable.

Explication. Comparons le résultat du critère de Pearson à M = 2 avec ce que donne la formule de Moivre-Laplace lors de l'estimation des fluctuations aléatoires de la fréquence d'apparition d'un événement ν =K /N ayant une probabilité p dans une série de N tests de Bernoulli indépendants ( K est le nombre de réussites) :

χ2n =1 = S(O i -E i) 2 /E i = (O 1 -E 1) 2 /E 1 + (O 2 -E 2) 2 /E 2 = (Nν -Np) 2 /(Np) + (N ( 1-ν )-N (1-p )) 2 /(N (1-p ))=

=(Nν-Np) 2 (1/p + 1/(1-p))/N=(Nν-Np) 2 /(Np(1-p))=((K-Np)/(Npq) ½ ) 2 = T2

Valeur T =(K -Np)/(Npq) ½ = (K -m (K))/σ(K) ≈N (0,1) avec σ(K)=(Npq) ½ ≥3. On voit que dans ce cas le résultat de Pearson coïncide exactement avec ce que donne l'approximation normale pour la distribution binomiale.

Jusqu'à présent, nous avons considéré des hypothèses simples pour lesquelles les fréquences moyennes attendues E i sont parfaitement connues à l'avance. Pour plus d’informations sur la façon de choisir le nombre correct de degrés de liberté pour des hypothèses complexes, voir ci-dessous.

Utiliser le test du chi carré pour tester des hypothèses complexes

Dans les exemples avec un dé et une pièce de monnaie ordinaires, les fréquences attendues pourraient être déterminées avant (!) l'expérience. De telles hypothèses sont dites « simples ». En pratique, les « hypothèses complexes » sont plus courantes. De plus, pour trouver les fréquences attendues E i, il faut d'abord estimer une ou plusieurs grandeurs (paramètres du modèle), et cela ne peut se faire qu'à partir de données expérimentales. De ce fait, pour les « hypothèses complexes », les fréquences attendues E i s'avèrent dépendre des fréquences observées O i et deviennent donc elles-mêmes des variables aléatoires, variant en fonction des résultats de l'expérience. Lors du processus de sélection des paramètres, la distance de Pearson diminue : les paramètres sont sélectionnés de manière à améliorer l'accord entre le modèle et l'expérience. Le nombre de degrés de liberté devrait donc diminuer.

Comment estimer les paramètres du modèle ? Il existe de nombreuses méthodes d'estimation différentes - « méthode du maximum de vraisemblance », « méthode des moments », « méthode de substitution ». Cependant, vous ne pouvez pas utiliser de fonds supplémentaires et trouver des estimations de paramètres en minimisant la distance de Pearson. À l'ère pré-informatique, cette approche était rarement utilisée : elle est peu pratique pour les calculs manuels et, en règle générale, ne peut pas être résolue de manière analytique. Lors du calcul sur ordinateur, la minimisation numérique est généralement facile à réaliser, et l'avantage de cette méthode est sa polyvalence. Ainsi, selon la « méthode de minimisation du chi carré », nous sélectionnons les valeurs des paramètres inconnus de manière à ce que la distance de Pearson devienne la plus petite. (D'ailleurs, en étudiant les changements de cette distance avec de petits déplacements par rapport au minimum trouvé, vous pouvez estimer la mesure de l'exactitude de l'estimation : construire des intervalles de confiance.) Une fois que les paramètres et cette distance minimale elle-même ont été trouvés, il est encore une fois, il est nécessaire de répondre à la question de savoir si elle est suffisamment petite.

La séquence générale des actions est la suivante :

  1. Sélection du modèle (hypothèse H 0).
  2. Sélection des chiffres et détermination du vecteur des fréquences observées O i .
  3. Estimation des paramètres inconnus du modèle et construction d'intervalles de confiance pour ceux-ci (par exemple, en recherchant la distance minimale de Pearson).
  4. Calcul des fréquences attendues E i .
  5. Comparaison de la valeur trouvée de la distance de Pearson X 2 avec la valeur critique du chi carré χ 2 crit - la plus grande, qui est encore considérée comme plausible, compatible avec H 0. On retrouve la valeur χ 2 crit à partir des tableaux en résolvant l'équation

P (χ 2 n > χ 2 critique) = 1-α,

où α est le « niveau de signification » ou la « taille du critère » ou « l’ampleur de l’erreur de premier type » (valeur typique α = 0,05).

Habituellement, le nombre de degrés de liberté n est calculé à l'aide de la formule

n = (nombre de chiffres) – 1 – (nombre de paramètres à estimer)

Si X 2 > χ 2 crit, alors l'hypothèse H 0 est rejetée, sinon elle est acceptée. Dans α∙100 % des cas (c'est-à-dire assez rarement), cette méthode de vérification de H 0 conduira à une « erreur de première espèce » : l'hypothèse H 0 sera rejetée par erreur.

Exemple. Dans une étude de 10 séries de 100 graines, le nombre de personnes infectées par la mouche aux yeux verts a été compté. Données reçues : O i = (16, 18, 11, 18, 21, 10, 20, 18, 17, 21) ;

Ici, le vecteur des fréquences attendues est inconnu à l’avance. Si les données sont homogènes et obtenues pour une distribution binomiale, alors un paramètre est inconnu : la proportion p de graines infectées. A noter que dans le tableau d'origine il y a en réalité non pas 10 mais 20 fréquences qui satisfont 10 connexions : 16+84=100, ... 21+79=100.

X 2 = (16-100p) 2 /100p +(84-100(1-p)) 2 /(100(1-p))+…+

(21-100p) 2 /100p +(79-100(1-p)) 2 /(100(1-p))

En combinant les termes par paires (comme dans l'exemple avec une pièce de monnaie), on obtient la forme d'écriture du critère de Pearson, qui s'écrit généralement immédiatement :

X 2 = (16-100p) 2 /(100p(1-p))+…+ (21-100p) 2 /(100p(1-p)).

Maintenant, si la distance minimale de Pearson est utilisée comme méthode d'estimation de p, alors il est nécessaire de trouver un p pour lequel X 2 = min. (Le modèle essaie, si possible, de « s’ajuster » aux données expérimentales.)

Le critère de Pearson est le plus universel de tous utilisés en statistique. Il peut être appliqué aux données univariées et multivariées, aux caractéristiques quantitatives et qualitatives. Cependant, c’est précisément en raison de sa polyvalence qu’il faut veiller à ne pas commettre d’erreurs.

Points importants

1.Sélection des catégories.

  • Si la distribution est discrète, il n'y a généralement pas d'arbitraire dans le choix des chiffres.
  • Si la distribution est continue, l’arbitraire est inévitable. Des blocs statistiquement équivalents peuvent être utilisés (tous les O sont identiques, par exemple = 10). Cependant, les longueurs des intervalles sont différentes. Lors des calculs manuels, ils ont essayé de rendre les intervalles identiques. Les intervalles lors de l'étude de la distribution d'un trait univarié doivent-ils être égaux ? Non.
  • Les chiffres doivent être combinés de manière à ce que les fréquences attendues (non observées !) ne soient pas trop petites (≥5). Rappelons que ce sont eux (E i) qui sont aux dénominateurs lors du calcul de X 2 ! Lors de l'analyse des caractéristiques unidimensionnelles, il est permis de violer cette règle dans les deux chiffres extrêmes E 1 =E max =1. Si le nombre de chiffres est grand et les fréquences attendues sont proches, alors X 2 est une bonne approximation de χ 2 même pour E i =2.

Estimation des paramètres. L’utilisation de méthodes d’estimation « faites maison » et inefficaces peut conduire à des valeurs de distance de Pearson gonflées.

Choisir le bon nombre de degrés de liberté. Si les estimations des paramètres ne sont pas effectuées à partir de fréquences, mais directement à partir des données (par exemple, la moyenne arithmétique est prise comme estimation de la moyenne), alors le nombre exact de degrés de liberté n est inconnu. On sait seulement qu'il satisfait l'inégalité :

(nombre de chiffres – 1 – nombre de paramètres évalués)< n < (число разрядов – 1)

Il est donc nécessaire de comparer X 2 avec les valeurs critiques de χ 2 crit calculées sur toute cette plage de n.

Comment interpréter des valeurs du Chi carré invraisemblablement petites ? Une pièce de monnaie doit-elle être considérée comme symétrique si, après 10 000 lancers, elle atterrit 5 000 fois sur les armoiries ? Auparavant, de nombreux statisticiens pensaient que H 0 devait également être rejeté. Maintenant, une autre approche est proposée : accepter H 0, mais soumettre les données et la méthodologie de leur analyse à une vérification supplémentaire. Il existe deux possibilités : soit la distance de Pearson étant trop petite, cela signifie que l'augmentation du nombre de paramètres du modèle ne s'est pas accompagnée d'une diminution appropriée du nombre de degrés de liberté, soit les données elles-mêmes ont été falsifiées (peut-être involontairement ajustées à la valeur attendue). résultat).

Exemple. Deux chercheurs A et B ont calculé la proportion d'homozygotes récessifs aa dans la deuxième génération d'un croisement monohybride AA*aa. Selon les lois de Mendel, cette fraction est de 0,25. Chaque chercheur a mené 5 expériences et 100 organismes ont été étudiés dans chaque expérience.

Résultats A : 25, 24, 26, 25, 24. Conclusion du chercheur : la loi de Mendel est vraie (?).

Résultats B : 29, 21, 23, 30, 19. Conclusion du chercheur : la loi de Mendel n’est pas juste (?).

Cependant, la loi de Mendel est de nature statistique, et l'analyse quantitative des résultats inverse les conclusions ! En combinant cinq expériences en une seule, nous arrivons à une distribution du Chi carré à 5 degrés de liberté (une hypothèse simple est testée) :

X 2 A = ((25-25) 2 +(24-25) 2 +(26-25) 2 +(25-25) 2 +(24-25) 2)/(100∙0,25∙0,75)=0,16

X 2 B = ((29-25) 2 +(21-25) 2 +(23-25) 2 +(30-25) 2 +(19-25) 2)/(100∙0,25∙0,75)=5,17

Valeur moyenne m [χ 2 n =5 ]=5, écart type σ[χ 2 n =5 ]=(2∙5) 1/2 =3,2.

Par conséquent, sans référence aux tableaux, il est clair que la valeur de X 2 B est typique et que la valeur de X 2 A est invraisemblablement petite. D'après les tableaux P (χ 2 n =5<0.16)<0.0001.

Cet exemple est une adaptation d’un cas réel survenu dans les années 1930 (voir l’ouvrage de Kolmogorov « Sur une autre preuve des lois de Mendel »). Il est intéressant de noter que le chercheur A était partisan de la génétique, tandis que le chercheur B y était opposé.

Confusion dans la notation. Il faut distinguer la distance de Pearson, qui nécessite des conventions supplémentaires dans son calcul, du concept mathématique de variable aléatoire chi carré. La distance de Pearson, sous certaines conditions, a une distribution proche du chi carré avec n degrés de liberté. Par conséquent, il est conseillé de NE PAS désigner la distance de Pearson par le symbole χ 2 n, mais d'utiliser une notation similaire mais différente X 2. .

Le critère de Pearson n’est pas omnipotent. Il existe un nombre infini d'alternatives pour H 0 qu'il est incapable de prendre en compte. Supposons que vous testiez l'hypothèse selon laquelle l'entité avait une distribution uniforme, que vous disposiez de 10 chiffres et que le vecteur des fréquences observées est égal à (130,125,121,118,116,115,114,113,111,110). Le critère de Pearson ne peut pas « remarquer » que les fréquences diminuent de façon monotone et H 0 ne sera pas rejeté. S’il était complété par un critère de série, alors oui !

Dans la pratique de la recherche biologique, il est souvent nécessaire de tester l'une ou l'autre hypothèse, c'est-à-dire de savoir dans quelle mesure le matériel factuel obtenu par l'expérimentateur confirme l'hypothèse théorique et dans quelle mesure les données analysées coïncident avec les données théoriquement attendues. ceux. Il s'agit d'évaluer statistiquement la différence entre les données réelles et les attentes théoriques, en établissant dans quels cas et avec quel degré de probabilité cette différence peut être considérée comme fiable et, à l'inverse, quand elle doit être considérée comme insignifiante, insignifiante, dans les limites du hasard. Dans ce dernier cas, l'hypothèse est retenue, sur la base de laquelle sont calculées les données ou indicateurs théoriquement attendus. Une telle technique statistique variationnelle pour tester une hypothèse est la méthode chi carré (χ 2). Cette mesure est souvent appelée « critère d’ajustement » ou « test d’adéquation de Pearson ». Avec son aide, on peut, avec une probabilité variable, juger du degré de correspondance des données obtenues empiriquement avec celles théoriquement attendues.

D'un point de vue formel, deux séries de variations, deux populations sont comparées : l'une est une distribution empirique, l'autre est un échantillon avec les mêmes paramètres ( n, M., S etc.) est la même que la loi empirique, mais sa distribution de fréquence est construite en stricte conformité avec la loi théorique choisie (normale, Poisson, binomiale, etc.), à laquelle le comportement de la variable aléatoire étudiée est censé obéir .

De manière générale, la formule du critère de conformité peut s'écrire comme suit :

un - fréquence d'observation réelle,

UN - fréquence théoriquement attendue pour une classe donnée.

L'hypothèse nulle suppose qu'il n'y a pas de différences significatives entre les distributions comparées. Pour évaluer l'importance de ces différences, vous devez vous référer à un tableau spécial des valeurs critiques du chi carré (tableau 9 P.) et, en comparant la valeur calculée χ 2 avec le tableau, décidez si la distribution empirique s'écarte de manière fiable ou non fiable de la distribution théorique. Ainsi, l’hypothèse de l’absence de ces différences sera soit réfutée, soit maintenue. Si la valeur calculée χ 2 est égal ou supérieur au tableau χ ² ( α , df), décident que la distribution empirique diffère significativement de la distribution théorique. Ainsi, l’hypothèse de l’absence de ces différences sera réfutée. Si χ ² < χ ² ( α , df), l'hypothèse nulle reste valable. Il est généralement admis que le niveau de signification acceptable α = 0,05, car dans ce cas, il n'y a que 5 % de chances que l'hypothèse nulle soit correcte et, par conséquent, il y a suffisamment de raisons (95 %) pour la rejeter.


Un certain problème est la détermination correcte du nombre de degrés de liberté ( df), pour lequel les valeurs des critères sont extraites du tableau. Déterminer le nombre de degrés de liberté à partir du nombre total de classes k il faut soustraire le nombre de contraintes (c'est-à-dire le nombre de paramètres utilisés pour calculer les fréquences théoriques).

Selon le type de distribution de la caractéristique étudiée, la formule de calcul du nombre de degrés de liberté changera. Pour alternative distributions ( k= 2) un seul paramètre (taille de l'échantillon) intervient dans les calculs, donc le nombre de degrés de liberté est df= k−1=2−1=1. Pour polynôme La formule de répartition est similaire : df= k−1. Pour vérifier la correspondance de la série de variations avec la distribution Poisson deux paramètres sont déjà utilisés : la taille de l'échantillon et la valeur moyenne (coïncidant numériquement avec la dispersion) ; nombre de degrés de liberté df= k−2. Lors de la vérification de la cohérence de la distribution empirique, l'option normale ou binôme Selon la loi, le nombre de degrés de liberté est égal au nombre de classes réelles moins trois conditions de construction de séries - taille de l'échantillon, moyenne et variance, df= k−3. Il convient de noter immédiatement que le critère χ² ne fonctionne que pour les échantillons volume d'au moins 25 variantes, et les fréquences des cours individuels devraient être pas inférieur à 4.

Tout d’abord, nous illustrons l’utilisation du test du Chi carré à l’aide d’un exemple d’analyse variabilité alternative. Dans une expérience visant à étudier l'hérédité des tomates, 3 629 fruits rouges et 1 176 fruits jaunes ont été trouvés. Le rapport théorique des fréquences pour la division des caractères dans la deuxième génération hybride devrait être de 3:1 (75 % à 25 %). Est-il mis en œuvre ? En d’autres termes, cet échantillon est-il issu d’une population dans laquelle le rapport de fréquence est de 3 : 1 ou de 0,75 : 0,25 ?

Créons un tableau (Tableau 4), en remplissant les valeurs des fréquences empiriques et les résultats du calcul des fréquences théoriques à l'aide de la formule :

UNE = n∙p,

p– les fréquences théoriques (fractions d'un type donné),

n – taille de l’échantillon.

Par exemple, UN 2 = n∙p 2 = 4805∙0.25 = 1201.25 ≈ 1201.



Avez-vous aimé l'article? Partagez avec vos amis !