El valor de la función de distribución chi cuadrado. Funciones de MS EXCEL utilizando la distribución CH2

chi-cuadrado Pearson es la prueba más sencilla para comprobar la importancia de una relación entre dos variables categorizadas. El criterio de Pearson se basa en el hecho de que en una tabla de dos entradas esperado Las frecuencias bajo la hipótesis “no hay dependencia entre las variables” se pueden calcular directamente. Imagine que se pregunta a 20 hombres y 20 mujeres sobre su elección de agua con gas (marca A o marca B). Si no existe una conexión entre preferencia y género, entonces, naturalmente, esperar igual elección de marca A y marcas B para cada género.

Significado de estadísticas chi-cuadrado y su nivel de significancia depende del número total de observaciones y del número de celdas de la tabla. De acuerdo con los principios discutidos en la sección , las desviaciones relativamente pequeñas de las frecuencias observadas con respecto a las esperadas resultarán significativas si el número de observaciones es grande.

Sólo hay una limitación significativa en el uso del criterio. chi-cuadrado(aparte del supuesto obvio de selección aleatoria de observaciones), que es que las frecuencias esperadas no deben ser muy pequeñas. Esto se debe a que el criterio chi-cuadrado por controles de naturaleza probabilidades en cada celda; y si las frecuencias esperadas en las celdas se vuelven pequeñas, por ejemplo menos de 5, entonces estas probabilidades no pueden estimarse con suficiente precisión utilizando las frecuencias disponibles. Para un análisis más detallado, véase Everitt (1977), Hays (1988) o Kendall y Stuart (1979).

Prueba de chi-cuadrado (método de máxima verosimilitud).Chi-cuadrado de máxima probabilidad tiene como objetivo probar la misma hipótesis sobre las relaciones en tablas de contingencia que el criterio chi-cuadrado Pearson. Sin embargo, su cálculo se basa en el método de máxima verosimilitud. En la práctica, las estadísticas del MP chi-cuadrado muy cercano en magnitud a la estadística regular de Pearson chi-cuadrado. Puede encontrarse más información sobre estas estadísticas en Bishop, Fienberg y Holland (1975) o Fienberg (1977). en el capitulo Análisis loglineal estas estadísticas se analizan con más detalle.

Enmienda de Yates. Aproximación de estadísticas chi-cuadrado para tablas de 2x2 con un pequeño número de observaciones en celdas se puede mejorar reduciendo el valor absoluto de las diferencias entre las frecuencias esperadas y observadas en 0,5 antes de elevar al cuadrado (el llamado enmienda de Yates). La corrección de Yates, que hace que la estimación sea más moderada, generalmente se aplica en los casos en que las tablas contienen sólo frecuencias pequeñas, por ejemplo, cuando algunas frecuencias esperadas son menores que 10 (para una discusión más detallada, ver Conover, 1974; Everitt, 1977; Hays). , 1988; Kendall y Stuart, 1979 y Mantel, 1974).

Prueba exacta de Fisher. Este criterio sólo es aplicable para mesas de 2x2. El criterio se basa en el siguiente razonamiento. Dadas las frecuencias marginales de la tabla, supongamos que ambas variables tabuladas son independientes. Preguntémonos: ¿cuál es la probabilidad de obtener las frecuencias observadas en la tabla, a partir de las marginales dadas? Resulta que esta probabilidad se calcula exactamente contando todas las tablas que se pueden construir a partir de las marginales. Así, el criterio de Fisher calcula preciso la probabilidad de ocurrencia de frecuencias observadas bajo la hipótesis nula (sin relación entre las variables tabuladas). La tabla de resultados muestra niveles unilaterales y bilaterales.

Chi-cuadrado de McNemar. Este criterio se aplica cuando las frecuencias en la tabla 2x2 representan dependiente muestras. Por ejemplo, observaciones de los mismos individuos antes y después de un experimento. En particular, se puede contar el número de estudiantes que tienen un rendimiento mínimo en matemáticas al principio y al final del semestre o la preferencia de los mismos encuestados antes y después del anuncio. Se calculan dos valores. chi-cuadrado: ANUNCIO Y ANTES DE CRISTO. chi-cuadrado A/D prueba la hipótesis de que las frecuencias en las células A Y D(arriba a la izquierda, abajo a la derecha) son iguales. B/C chi-cuadrado pone a prueba la hipótesis sobre la igualdad de frecuencias en las células B Y C(arriba a la derecha, abajo a la izquierda).

Coeficiente phi.plaza phi representa una medida de la relación entre dos variables en una tabla de 2x2. Sus valores varían de 0 (sin dependencia entre variables; chi-cuadrado = 0.0 ) antes 1 (relación absoluta entre dos factores de la tabla). Para más detalles, véase Castellan y Siegel (1988, p. 232).

Correlación tetracórica. Esta estadística se calcula (y se aplica) sólo a tablas de tabulación cruzada de 2x2. Si una tabla de 2x2 puede verse como el resultado de una partición (artificial) de los valores de dos variables continuas en dos clases, entonces el coeficiente de correlación tetracórica nos permite estimar la relación entre estas dos variables.

Coeficiente de conjugación. El coeficiente de contingencia se basa estadísticamente. chi-cuadrado una medida de la relación de características en la tabla de contingencia (propuesta por Pearson). La ventaja de este coeficiente sobre las estadísticas convencionales. chi-cuadrado es que es más fácil de interpretar, porque el rango de su cambio está en el rango de 0 antes 1 (Dónde 0 corresponde al caso de independencia de las características de la tabla, y un aumento en el coeficiente muestra un aumento en el grado de conexión). La desventaja del coeficiente de contingencia es que su valor máximo “depende” del tamaño de la mesa. Este coeficiente puede alcanzar un valor de 1 sólo si el número de clases no está limitado (ver Siegel, 1956, p. 201).

Interpretación de medidas de comunicación. Un inconveniente importante de las medidas de asociación (discutidas anteriormente) es la dificultad de interpretarlas en términos convencionales de probabilidad o "proporción de varianza explicada", como en el caso del coeficiente de correlación. r Pearson (ver Correlaciones). Por lo tanto, no existe una medida o coeficiente de asociación generalmente aceptado.

Estadísticas basadas en rangos. En muchos problemas que surgen en la práctica, tenemos mediciones sólo en ordinal escala (ver Conceptos básicos de estadística.). Esto se aplica especialmente a mediciones en el campo de la psicología, la sociología y otras disciplinas relacionadas con el estudio del hombre. Supongamos que entrevistó a varios encuestados para conocer su actitud hacia determinados deportes. Representas las medidas en una escala con las siguientes posiciones: (1) Siempre, (2) generalmente, (3) A veces y (4) nunca. Obviamente la respuesta a veces me pregunto muestra menos interés del encuestado que la respuesta normalmente estoy interesado etc. De este modo, es posible ordenar (clasificar) el grado de interés de los encuestados. Este es un ejemplo típico de escala ordinal. Las variables medidas en una escala ordinal tienen sus propios tipos de correlaciones que permiten evaluar las dependencias.

R Spearman. Estadísticas R Spearman se puede interpretar de la misma manera que la correlación de Pearson ( r Pearson) en términos de la proporción de varianza explicada (teniendo en cuenta, sin embargo, que el estadístico de Spearman se calcula por rangos). Se supone que las variables se miden al menos en ordinal escala. Un análisis exhaustivo de la correlación de rangos de Spearman, su poder y eficacia se puede encontrar, por ejemplo, en Gibbons (1985), Hays (1981), McNemar (1969), Siegel (1956), Siegel y Castellan (1988), Kendall (1948). ), Olds (1949) y Hotelling y Pabst (1936).

Tau Kendall. Estadísticas tao El equivalente de Kendall R Spearman bajo algunos supuestos básicos. Sus poderes también son equivalentes. Sin embargo, normalmente los valores R Lancero y tao Los de Kendall son diferentes porque difieren tanto en su lógica interna como en la forma en que se calculan. En Siegel y Castellan (1988), los autores expresaron la relación entre estas dos estadísticas de la siguiente manera:

1 < = 3 * Тау Кендалла - 2 * R Спирмена < = 1

Más importante aún, las estadísticas de Kendall tao y lancero R tienen diferentes interpretaciones: mientras que las estadísticas R Spearman puede considerarse como un análogo directo de las estadísticas. r Pearson, calculado por rangos, estadísticas de Kendall tao más bien basado en probabilidades. Más precisamente, prueba que existe una diferencia entre la probabilidad de que los datos observados estén en el mismo orden para dos cantidades y la probabilidad de que estén en un orden diferente. Kendall (1948, 1975), Everitt (1977) y Siegel y Castellan (1988) analizan con gran detalle tao Kendall. Normalmente se calculan dos estadísticas. tao Kendall: tao b Y tao C. Estas medidas difieren sólo en la forma en que manejan las clasificaciones coincidentes. En la mayoría de los casos sus significados son bastante similares. Si surgen diferencias, entonces parece que la forma más segura es considerar el menor de los dos valores.

Coeficiente d de Sommer: d(X|Y), d(Y|X). Estadísticas d La medida de Sommer es una medida asimétrica de la relación entre dos variables. Esta estadística está cerca de tao b(ver Siegel y Castellan, 1988, pp. 303-310).

Estadísticas gamma. Si hay muchos valores coincidentes en los datos, las estadísticas gama preferible R Lancero o tao Kendall. En términos de supuestos básicos, las estadísticas gama equivalente a las estadísticas R Spearman o tau de Kendall. Su interpretación y cálculos son más similares a las estadísticas Tau de Kendall que a las estadísticas R de Spearman. Para decirlo brevemente, gama también representa probabilidad; más precisamente, la diferencia entre la probabilidad de que el orden de clasificación de dos variables coincida, menos la probabilidad de que no coincida, dividida por uno menos la probabilidad de coincidencias. Así que las estadísticas gama básicamente equivalente tao Kendall, excepto que las coincidencias se tienen en cuenta explícitamente en la normalización. Discusión detallada de las estadísticas. gama se puede encontrar en Goodman y Kruskal (1954, 1959, 1963, 1972), Siegel (1956) y Siegel y Castellan (1988).

Coeficientes de incertidumbre. Estos coeficientes miden comunicación de información entre factores (filas y columnas de la tabla). Concepto dependencia de la información se origina en el enfoque teórico de la información para el análisis de tablas de frecuencia, se puede hacer referencia a los manuales pertinentes para aclarar esta cuestión (ver Kullback, 1959; Ku y Kullback, 1968; Ku, Varner y Kullback, 1971; ver también Bishop , Fienberg y Holland, 1975, págs. 344-348). Estadísticas S(Y,X) es simétrico y mide la cantidad de información en una variable Y relativo a la variable X o en una variable X relativo a la variable Y. Estadísticas S(X|Y) Y S(Y|X) expresa dependencia direccional.

Respuestas multidimensionales y dicotomías. Variables como la respuesta multivariada y las dicotomías multivariadas surgen en situaciones en las que el investigador está interesado no sólo en las frecuencias “simples” de los eventos, sino también en algunas propiedades cualitativas (a menudo no estructuradas) de estos eventos. La naturaleza de las variables multidimensionales (factores) se comprende mejor a través de ejemplos.

  • · Respuestas multidimensionales
  • · Dicotomías multidimensionales
  • · Tabulación cruzada de respuestas multivariadas y dicotomías
  • Tabulación cruzada por pares de variables con respuestas multivariadas
  • · Comentario final

Respuestas multidimensionales. Imagine que en el proceso de una gran investigación de mercados, le pidió a los clientes que nombraran los 3 mejores refrescos desde su punto de vista. Una pregunta típica podría verse así.

). La formulación específica de la hipótesis que se está probando variará de un caso a otro.

En esta publicación describiré cómo funciona el criterio \(\chi^2\) utilizando un ejemplo (hipotético) de inmunología. Imaginemos que hemos realizado un experimento para determinar la eficacia de suprimir el desarrollo de una enfermedad microbiana cuando se introducen en el organismo los anticuerpos adecuados. En el experimento participaron un total de 111 ratones, que dividimos en dos grupos, incluidos 57 y 54 animales, respectivamente. Al primer grupo de ratones se le aplicaron inyecciones de bacterias patógenas, seguidas de la introducción de suero sanguíneo que contenía anticuerpos contra estas bacterias. Los animales del segundo grupo sirvieron de control: solo recibieron inyecciones bacterianas. Después de un tiempo de incubación, resultó que 38 ratones murieron y 73 sobrevivieron. De los muertos, 13 pertenecían al primer grupo y 25 al segundo (control). La hipótesis nula probada en este experimento se puede formular de la siguiente manera: la administración de suero con anticuerpos no tiene ningún efecto sobre la supervivencia de los ratones. En otras palabras, sostenemos que las diferencias observadas en la supervivencia de los ratones (77,2% en el primer grupo versus 53,7% en el segundo grupo) son completamente aleatorias y no están relacionadas con el efecto de los anticuerpos.

Los datos obtenidos en el experimento se pueden presentar en forma de tabla:

Total

Bacterias + suero

Solo bacterias

Total

Tablas como la que se muestra se denominan tablas de contingencia. En el ejemplo que estamos considerando, la tabla tiene una dimensión de 2x2: hay dos clases de objetos (“Bacterias + suero” y “Solo bacterias”), que se examinan según dos criterios (“Muertos” y “Sobrevivientes”). Este es el caso más simple de una tabla de contingencia: por supuesto, tanto el número de clases que se estudian como el número de características pueden ser mayores.

Para probar la hipótesis nula expuesta anteriormente, necesitamos saber cuál sería la situación si los anticuerpos en realidad no tuvieran ningún efecto sobre la supervivencia de los ratones. En otras palabras, es necesario calcular frecuencias esperadas para las celdas correspondientes de la tabla de contingencia. ¿Cómo hacerlo? En el experimento murieron un total de 38 ratones, lo que supone el 34,2% del número total de animales implicados. Si la administración de anticuerpos no afecta a la supervivencia de los ratones, debería observarse el mismo porcentaje de mortalidad en ambos grupos experimentales, concretamente un 34,2%. Calculando cuánto es el 34,2% de 57 y 54, obtenemos 19,5 y 18,5. Estas son las tasas de mortalidad esperadas en nuestros grupos experimentales. Las tasas de supervivencia esperadas se calculan de manera similar: dado que sobrevivieron un total de 73 ratones, o el 65,8% del número total, las tasas de supervivencia esperadas serán 37,5 y 35,5. Creemos una nueva tabla de contingencia, ahora con las frecuencias esperadas:

Muerto

Sobrevivientes

Total

Bacterias + suero

Solo bacterias

Total

Como podemos ver, las frecuencias esperadas son bastante diferentes a las observadas, es decir La administración de anticuerpos parece tener un efecto sobre la supervivencia de ratones infectados con el patógeno. Podemos cuantificar esta impresión utilizando la prueba de bondad de ajuste de Pearson \(\chi^2\):

\[\chi^2 = \sum_()\frac((f_o - f_e)^2)(f_e),\]


donde \(f_o\) y \(f_e\) son las frecuencias observadas y esperadas, respectivamente. La suma se realiza en todas las celdas de la tabla. Entonces, para el ejemplo que estamos considerando tenemos

\[\chi^2 = (13 – 19,5)^2/19,5 + (44 – 37,5)^2/37,5 + (25 – 18,5)^2/18,5 + (29 – 35,5)^2/35,5 = \]

¿Es el valor resultante de \(\chi^2\) lo suficientemente grande como para rechazar la hipótesis nula? Para responder a esta pregunta es necesario encontrar el valor crítico correspondiente del criterio. El número de grados de libertad para \(\chi^2\) se calcula como \(df = (R - 1)(C - 1)\), donde \(R\) y \(C\) son el número de filas y columnas en la tabla de conjugación. En nuestro caso \(df = (2 -1)(2 - 1) = 1\). Conociendo el número de grados de libertad, ahora podemos encontrar fácilmente el valor crítico \(\chi^2\) usando la función estándar de R qchisq() :


Así, con un grado de libertad, sólo en el 5% de los casos el valor del criterio \(\chi^2\) supera 3,841. El valor que obtuvimos, 6,79, supera significativamente este valor crítico, lo que nos da derecho a rechazar la hipótesis nula de que no existe conexión entre la administración de anticuerpos y la supervivencia de los ratones infectados. Al rechazar esta hipótesis, corremos el riesgo de equivocarnos con una probabilidad inferior al 5%.

Cabe señalar que la fórmula anterior para el criterio \(\chi^2\) da valores ligeramente inflados cuando se trabaja con tablas de contingencia de tamaño 2x2. La razón es que la distribución del criterio \(\chi^2\) en sí es continua, mientras que las frecuencias de las características binarias (“murieron” / “sobrevivieron”) son, por definición, discretas. En este sentido, a la hora de calcular el criterio, se acostumbra introducir el llamado corrección de continuidad, o enmienda de Yates :

\[\chi^2_Y = \sum_()\frac((|f_o - f_e| - 0.5)^2)(f_e).\]

Datos de corrección de continuidad de la prueba de Chi-cuadrado con Yates: ratones X-cuadrado = 5,7923, df = 1, valor de p = 0,0161


Como podemos ver, R aplica automáticamente la corrección de continuidad de Yates ( Prueba Chi-cuadrado de Pearson con corrección de continuidad de Yates). El valor de \(\chi^2\) calculado por el programa fue 5,79213. Podemos rechazar la hipótesis nula de que no hay efecto de los anticuerpos con el riesgo de equivocarnos con una probabilidad de poco más del 1% (valor p = 0,0161).

Hasta finales del siglo XIX, la distribución normal se consideraba la ley universal de variación de los datos. Sin embargo, K. Pearson señaló que las frecuencias empíricas pueden diferir mucho de la distribución normal. Surgió la pregunta de cómo probar esto. No sólo era necesaria una comparación gráfica, que es subjetiva, sino también una estricta justificación cuantitativa.

Así se inventó el criterio χ 2(chi-cuadrado), que prueba la importancia de la diferencia entre frecuencias empíricas (observadas) y teóricas (esperadas). Esto sucedió en 1900, pero el criterio todavía se utiliza en la actualidad. Además, se ha adaptado para resolver una amplia gama de problemas. En primer lugar, este es el análisis de datos nominales, es decir. aquellas que se expresan no por cantidad, sino por pertenencia a alguna categoría. Por ejemplo, la clase del coche, el sexo del participante del experimento, el tipo de planta, etc. Las operaciones matemáticas como la suma y la multiplicación no se pueden aplicar a dichos datos; las frecuencias solo se pueden calcular para ellos.

Denotamos las frecuencias observadas. Acerca de (observado), esperado - E (esperado). Como ejemplo, tomemos el resultado de lanzar un dado 60 veces. Si es simétrico y uniforme, la probabilidad de obtener cualquier lado es 1/6 y por lo tanto el número esperado de obtener cada lado es 10 (1/6∙60). Escribimos las frecuencias observadas y esperadas en una tabla y dibujamos un histograma.

La hipótesis nula es que las frecuencias son consistentes, es decir, los datos reales no contradicen los datos esperados. Una hipótesis alternativa es que las desviaciones en las frecuencias van más allá de las fluctuaciones aleatorias, es decir, las discrepancias son estadísticamente significativas. Para sacar una conclusión rigurosa, necesitamos.

  1. Una medida resumida de la discrepancia entre las frecuencias observadas y esperadas.
  2. La distribución de esta medida si la hipótesis de que no existen diferencias es cierta.

Empecemos por la distancia entre frecuencias. Si solo tomas la diferencia O-E, entonces dicha medida dependerá de la escala de los datos (frecuencias). Por ejemplo, 20 - 5 = 15 y 1020 - 1005 = 15. En ambos casos, la diferencia es 15. Pero en el primer caso, las frecuencias esperadas son 3 veces menores que las observadas, y en el segundo caso, solo 1,5. %. Necesitamos una medida relativa que no dependa de la escala.

Prestemos atención a los siguientes hechos. En general, el número de gradaciones en las que se miden las frecuencias puede ser mucho mayor, por lo que la probabilidad de que una sola observación caiga en una categoría u otra es bastante pequeña. Si es así, entonces la distribución de dicha variable aleatoria obedecerá la ley de eventos raros, conocida como ley de poisson. En la ley de Poisson, como se sabe, el valor de la expectativa matemática y la varianza coinciden (parámetro λ ). Esto significa que la frecuencia esperada para alguna categoría de la variable nominal yo será simultáneo y su dispersión. Además, la ley de Poisson tiende a ser normal con un gran número de observaciones. Combinando estos dos hechos, obtenemos que si la hipótesis sobre la concordancia entre las frecuencias observadas y esperadas es correcta, entonces, con un gran número de observaciones, expresión

Tendrá.

Es importante recordar que la normalidad sólo aparecerá en frecuencias suficientemente altas. En estadística, generalmente se acepta que el número total de observaciones (suma de frecuencias) debe ser al menos 50 y la frecuencia esperada en cada gradación debe ser al menos 5. Sólo en este caso, el valor mostrado arriba tendrá una normal estándar distribución. Supongamos que se cumple esta condición.

La distribución normal estándar tiene casi todos los valores dentro de ±3 (la regla de tres sigma). Por tanto, obtuvimos la diferencia relativa de frecuencias para una gradación. Necesitamos una medida generalizable. No se pueden simplemente sumar todas las desviaciones: obtenemos 0 (adivinen por qué). Pearson sugirió sumar los cuadrados de estas desviaciones.

esta es la señal criterio χ 2 pearson. Si las frecuencias realmente corresponden a las esperadas, entonces el valor del criterio será relativamente pequeño (ya que la mayoría de las desviaciones rondan el cero). Pero si el criterio resulta ser grande, esto indica diferencias significativas entre frecuencias.

El criterio se vuelve “grande” cuando la ocurrencia de tal o incluso mayor valor se vuelve improbable. Y para calcular tal probabilidad, es necesario conocer la distribución del criterio cuando el experimento se repite muchas veces, cuando la hipótesis de concordancia de frecuencias es correcta.

Como es fácil ver, el valor de chi-cuadrado también depende del número de términos. Cuantos más sean, mayor será el valor que debe tener el criterio, porque cada término contribuirá al total. Por lo tanto, para cada cantidad independiente términos, habrá su propia distribución. Resulta que χ 2 es toda una familia de distribuciones.

Y aquí llegamos a un momento delicado. que es un numero independiente¿términos? Parece que cualquier término (es decir, desviación) es independiente. K. Pearson también lo pensó, pero resultó estar equivocado. De hecho, el número de términos independientes será uno menos que el número de gradaciones de la variable nominal. norte. ¿Por qué? Porque si tenemos una muestra para la que ya se ha calculado la suma de frecuencias, entonces siempre se puede determinar una de las frecuencias como la diferencia entre el número total y la suma de todas las demás. Por tanto la variación será algo menor. Ronald Fisher se dio cuenta de este hecho 20 años después de que Pearson desarrollara su criterio. Incluso hubo que rehacer las mesas.

En esta ocasión, Fisher introdujo un nuevo concepto en estadística: grado de libertad(grados de libertad), que representa el número de términos independientes en la suma. El concepto de grados de libertad tiene una explicación matemática y aparece sólo en distribuciones asociadas a lo normal (la de Student, Fisher-Snedecor y la propia chi-cuadrado).

Para comprender mejor el significado de los grados de libertad, recurramos a un análogo físico. Imaginemos un punto que se mueve libremente en el espacio. Tiene 3 grados de libertad, porque Puede moverse en cualquier dirección en el espacio tridimensional. Si un punto se mueve a lo largo de cualquier superficie, entonces ya tiene dos grados de libertad (hacia adelante y hacia atrás, hacia la izquierda y hacia la derecha), aunque sigue estando en un espacio tridimensional. Un punto que se mueve a lo largo de un resorte se encuentra también en el espacio tridimensional, pero tiene sólo un grado de libertad, porque puede moverse hacia adelante o hacia atrás. Como puede ver, el espacio donde se ubica el objeto no siempre corresponde a una libertad real de movimiento.

Aproximadamente de la misma manera, la distribución de un criterio estadístico puede depender de un número menor de elementos que los términos necesarios para calcularlo. En general, el número de grados de libertad es menor que el número de observaciones por el número de dependencias existentes. Esto es pura matemática, no magia.

Entonces la distribución χ 2 es una familia de distribuciones, cada una de las cuales depende del parámetro de grados de libertad. Y la definición formal de la prueba de chi-cuadrado es la siguiente. Distribución χ 2(chi-cuadrado) m k grados de libertad es la distribución de la suma de cuadrados k Variables aleatorias normales estándar independientes.

A continuación, podríamos pasar a la fórmula en sí mediante la cual se calcula la función de distribución chi-cuadrado, pero, afortunadamente, ya hace tiempo que todo está calculado para nosotros. Para obtener la probabilidad de interés, puede utilizar la tabla estadística correspondiente o una función ya preparada en un software especializado, que incluso está disponible en Excel.

Es interesante ver cómo cambia la forma de la distribución chi-cuadrado dependiendo del número de grados de libertad.

Con grados de libertad crecientes, la distribución chi-cuadrado tiende a ser normal. Esto se explica por la acción del teorema del límite central, según el cual la suma de un gran número de variables aleatorias independientes tiene una distribución normal. No dice nada sobre cuadrados)).

Prueba de hipótesis mediante la prueba de chi-cuadrado

Ahora pasamos a probar hipótesis utilizando el método chi-cuadrado. En general, la tecnología permanece. La hipótesis nula es que las frecuencias observadas corresponden a las esperadas (es decir, no hay diferencia entre ellas porque están tomadas de la misma población). Si esto es así, entonces la dispersión será relativamente pequeña, dentro de los límites de las fluctuaciones aleatorias. La medida de dispersión se determina mediante la prueba de chi-cuadrado. A continuación, se compara el criterio en sí con el valor crítico (para el nivel de significancia y los grados de libertad correspondientes) o, lo que es más correcto, se calcula el nivel p observado, es decir la probabilidad de obtener el mismo valor de criterio o incluso mayor si la hipótesis nula es verdadera.

Porque Si nos interesa la concordancia de frecuencias, entonces la hipótesis será rechazada cuando el criterio sea mayor que el nivel crítico. Aquellos. el criterio es unilateral. Sin embargo, a veces (a veces) es necesario probar la hipótesis de la izquierda. Por ejemplo, cuando los datos empíricos son muy similares a los datos teóricos. Entonces el criterio puede caer en una región improbable, pero de izquierda. El caso es que en condiciones naturales es poco probable que se obtengan frecuencias que prácticamente coincidan con las teóricas. Siempre hay cierta aleatoriedad que da un error. Pero si no existe tal error, entonces quizás los datos hayan sido falsificados. Pero aun así, la hipótesis del lado derecho suele comprobarse.

Volvamos al problema de los dados. Calculemos el valor de la prueba de chi-cuadrado utilizando los datos disponibles.

Ahora encontremos el valor tabular del criterio en 5 grados de libertad ( k) y nivel de significancia 0,05 ( α ).

Eso es χ2 0,05; 5 = 11,1.

Comparemos los valores reales y tabulados. 3.4 ( χ 2) < 11,1 (χ2 0,05; 5). El criterio calculado resultó ser menor, lo que significa que no se rechaza la hipótesis de igualdad (concordancia) de frecuencias. En la figura, la situación se ve así.

Si el valor calculado estuviera dentro de la región crítica, se rechazaría la hipótesis nula.

Sería más correcto calcular también el nivel p. Para hacer esto, necesita encontrar el valor más cercano en la tabla para un número determinado de grados de libertad y observar el nivel de significancia correspondiente. Pero este es el siglo pasado. Usaremos una computadora personal, en particular MS Excel. Excel tiene varias funciones relacionadas con chi-cuadrado.

A continuación se muestra una breve descripción de ellos.

CH2.OBR– valor crítico del criterio con una probabilidad dada a la izquierda (como en las tablas estadísticas)

CH2.OBR.PH– valor crítico del criterio para una probabilidad dada a la derecha. La función esencialmente duplica la anterior. Pero aquí puedes indicar inmediatamente el nivel. α , en lugar de restarlo de 1. Esto es más conveniente, porque en la mayoría de los casos, lo que se necesita es la cola derecha de la distribución.

DISTR.CH2.– nivel p a la izquierda (se puede calcular la densidad).

CH2.DIST.PH– nivel p a la derecha.

PRUEBA CHI2– realiza inmediatamente una prueba de chi-cuadrado para dos rangos de frecuencia determinados. Se considera que el número de grados de libertad es uno menos que el número de frecuencias en la columna (como debería ser), lo que devuelve el valor del nivel p.

Calculemos para nuestro experimento el valor crítico (tabular) para 5 grados de libertad y alfa 0,05. La fórmula de Excel se verá así:

CH2.OBR(0,95;5)

CH2.OBR.PH(0.05;5)

El resultado será el mismo: 11.0705. Este es el valor que vemos en la tabla (redondeado a 1 decimal).

Finalmente calculemos el nivel p para el criterio de 5 grados de libertad. χ 2= 3,4. Necesitamos una probabilidad a la derecha, entonces tomamos una función con la suma de HH (cola derecha)

DISTRIBUCIÓN CH2 PH(3,4;5) = 0,63857

Esto significa que con 5 grados de libertad la probabilidad de obtener el valor criterio es χ 2= 3,4 y más equivale a casi el 64%. Naturalmente, la hipótesis no se rechaza (el nivel p es superior al 5%), las frecuencias concuerdan muy bien.

Ahora verifiquemos la hipótesis sobre la concordancia de frecuencia usando la función CH2.TEST.

Sin tablas, sin cálculos engorrosos. Al especificar columnas con frecuencias observadas y esperadas como argumentos de función, obtenemos inmediatamente el nivel p. Belleza.

Ahora imagina que estás jugando a los dados con un tipo sospechoso. La distribución de puntos del 1 al 5 sigue siendo la misma, pero saca 26 seises (el número total de tiros pasa a ser 78).

El nivel P en este caso resulta ser 0,003, que es mucho menos que 0,05. Hay buenas razones para dudar de la validez de los dados. Así es como se ve esa probabilidad en un gráfico de distribución de chi-cuadrado.

El criterio de chi-cuadrado en sí resulta aquí 17,8, que, naturalmente, es mayor que el de la tabla (11,1).

Espero haber podido explicar cuál es el criterio de acuerdo. χ 2(Pearson chi-cuadrado) y cómo se puede utilizar para probar hipótesis estadísticas.

¡Finalmente, una vez más sobre una condición importante! La prueba de chi-cuadrado funciona correctamente sólo cuando el número de todas las frecuencias excede 50 y el valor mínimo esperado para cada gradación no es menor que 5. Si en alguna categoría la frecuencia esperada es menor que 5, pero la suma de todas las frecuencias excede 50, entonces dicha categoría se combina con la más cercana para que su frecuencia total exceda 5. Si esto no es posible, o la suma de las frecuencias es menor que 50, entonces se deben usar métodos más precisos para probar hipótesis. Hablaremos de ellos en otra ocasión.

A continuación se muestra un video sobre cómo probar una hipótesis en Excel usando la prueba de chi-cuadrado.

La prueba de chi-cuadrado es un método universal para comprobar la concordancia entre los resultados de un experimento y el modelo estadístico utilizado.

Distancia de Pearson X 2

Piatnitsky A.M.

Universidad Médica Estatal de Rusia

En 1900, Karl Pearson propuso una forma sencilla, universal y eficaz de probar la concordancia entre las predicciones de los modelos y los datos experimentales. La “prueba de chi-cuadrado” que propuso es la prueba estadística más importante y más utilizada. La mayoría de los problemas asociados con la estimación de parámetros desconocidos del modelo y la verificación de la concordancia entre el modelo y los datos experimentales se pueden resolver con su ayuda.

Sea un modelo a priori (“preexperimental”) del objeto o proceso en estudio (en estadística se habla de la “hipótesis nula” H 0), y los resultados de un experimento con este objeto. ¿Es necesario decidir si el modelo es adecuado (se corresponde con la realidad)? ¿Los resultados experimentales contradicen nuestras ideas sobre cómo funciona la realidad o, en otras palabras, debería rechazarse H0? A menudo, esta tarea se puede reducir a comparar las frecuencias promedio observadas (O i = Observado) y esperadas según el modelo (E i = Esperado) de ocurrencia de ciertos eventos. Se cree que las frecuencias observadas se obtuvieron en una serie de N observaciones independientes (!) realizadas en condiciones constantes (!). Como resultado de cada observación, se registra uno de M eventos. Estos eventos no pueden ocurrir simultáneamente (son incompatibles en pares) y uno de ellos necesariamente ocurre (su combinación forma un evento confiable). La totalidad de todas las observaciones se reduce a una tabla (vector) de frecuencias (O i )=(O 1 ,… O M ), que describe completamente los resultados del experimento. El valor O 2 =4 significa que el evento número 2 ocurrió 4 veces. Suma de frecuencias O 1 +… O M =N. Es importante distinguir entre dos casos: N – fijo, no aleatorio, N – variable aleatoria. Para un número total fijo de experimentos N, las frecuencias tienen una distribución polinómica. Ilustremos este esquema general con un ejemplo sencillo.

Usar la prueba de chi-cuadrado para probar hipótesis simples.

Sea el modelo (hipótesis nula H 0) que el dado es justo: todas las caras aparecen con la misma frecuencia con probabilidad p i =1/6, i =, M=6. Se realizó un experimento en el que se lanzó el dado 60 veces (se realizaron N = 60 ensayos independientes). Según el modelo, esperamos que todas las frecuencias observadas O i de ocurrencia 1,2,... 6 puntos estén cerca de sus valores promedio E i =Np i =60∙(1/6)=10. Según H 0, el vector de frecuencias medias (E i )=(Np i )=(10, 10, 10, 10, 10, 10). (Las hipótesis en las que las frecuencias promedio se conocen completamente antes del inicio del experimento se llaman simples). Si el vector observado (O i ) fuera igual a (34,0,0,0,0,26), entonces es inmediatamente claro que el modelo es incorrecto: el hueso no puede ser correcto, ya que solo se lanzaron 60 veces 1 y 6. La probabilidad de que ocurra tal evento para un dado correcto es insignificante: P = (2/6) 60 =2.4*10 -29. Sin embargo, la aparición de discrepancias tan obvias entre el modelo y la experiencia es una excepción. Sea el vector de frecuencias observadas (O i ) igual a (5, 15, 6, 14, 4, 16). ¿Es esto consistente con H0? Entonces, necesitamos comparar dos vectores de frecuencia (E i) y (O i). En este caso, el vector de frecuencias esperadas (Ei) no es aleatorio, pero el vector de frecuencias observadas (Oi) sí lo es; durante el próximo experimento (en una nueva serie de 60 lanzamientos) resultará ser diferente. Es útil introducir una interpretación geométrica del problema y suponer que en el espacio de frecuencias (en este caso de 6 dimensiones) se dan dos puntos con coordenadas (5, 15, 6, 14, 4, 16) y (10, 10, 10, 10, 10, 10). ¿Están lo suficientemente separados como para considerar esto incompatible con H 0 ? En otras palabras, necesitamos:

  1. aprender a medir distancias entre frecuencias (puntos en el espacio de frecuencias),
  2. tener un criterio sobre qué distancia debe considerarse demasiado (“inverosímil”) grande, es decir, inconsistente con H 0 .

El cuadrado de la distancia euclidiana ordinaria sería igual a:

X 2 Euclides = S(O i -E i) 2 = (5-10) 2 +(15-10) 2 + (6-10) 2 +(14-10) 2 +(4-10) 2 +(16-10) 2

En este caso, las superficies X 2 Euclides = const siempre son esferas si fijamos los valores de E i y cambiamos O i . Karl Pearson señaló que no debería utilizarse el uso de la distancia euclidiana en el espacio de frecuencias. Por tanto, es incorrecto suponer que los puntos (O = 1030 y E = 1000) y (O = 40 y E = 10) están a distancias iguales entre sí, aunque en ambos casos la diferencia es O -E = 30. Después de todo, cuanto mayor sea la frecuencia esperada, mayores desviaciones deben considerarse posibles. Por lo tanto, los puntos (O =1030 y E =1000) deben considerarse “cercanos” y los puntos (O =40 y E =10) “lejos” entre sí. Se puede demostrar que si la hipótesis H 0 es cierta, entonces las fluctuaciones de frecuencia O i en relación con E i son del orden de la raíz cuadrada (!) de E i. Por tanto, Pearson propuso, al calcular la distancia, elevar al cuadrado no las diferencias (O i -E i), sino las diferencias normalizadas (O i -E i)/E i 1/2. Aquí está la fórmula para calcular la distancia de Pearson (en realidad es el cuadrado de la distancia):

X 2 Pearson = S((O yo -E yo )/E yo 1/2) 2 = S(O yo -E yo ) 2 /E yo

En nuestro ejemplo:

X 2 Pearson = (5-10) 2/10+(15-10) 2/10 +(6-10) 2/10+(14-10) 2/10+(4-10) 2/10+( 16-10) 2/10=15,4

Para un dado normal, todas las frecuencias esperadas E i son iguales, pero normalmente son diferentes, de modo que las superficies en las que la distancia de Pearson es constante (X 2 Pearson =const) resultan ser elipsoides, no esferas.

Ahora que se ha elegido la fórmula para calcular las distancias, es necesario averiguar qué distancias deben considerarse “no demasiado grandes” (consistentes con H 0). Entonces, por ejemplo, ¿qué podemos decir sobre la distancia que calculamos 15,4? ? ¿En qué porcentaje de casos (o con qué probabilidad) obtendríamos una distancia mayor que 15,4 al realizar experimentos con un dado normal? Si este porcentaje es pequeño (<0.05), то H 0 надо отвергнуть. Иными словами требуется найти распределение длярасстояния Пирсона. Если все ожидаемые частоты E i не слишком малы (≥5), и верна H 0 , то нормированные разности (O i - E i )/E i 1/2 приближенно эквивалентны стандартным гауссовским случайным величинам: (O i - E i )/E i 1/2 ≈N (0,1). Это, например, означает, что в 95% случаев| (O i - E i )/E i 1/2 | < 1.96 ≈ 2 (правило “двух сигм”).

Explicación. El número de mediciones O i que caen en la celda de la tabla con el número i tiene una distribución binomial con los parámetros: m =Np i =E i,σ =(Np i (1-p i)) 1/2, donde N es el número de mediciones (N " 1), p i es la probabilidad de que una medición caiga en una celda determinada (recuerde que las mediciones son independientes y se llevan a cabo en condiciones constantes). Si p i es pequeño, entonces: σ≈(Np i ) 1/2 =E i y la distribución binomial es cercana a Poisson, en la que el número promedio de observaciones E i =λ, y la desviación estándar σ=λ 1/2 = E yo 1/ 2. Para λ≥5, la distribución de Poisson está cerca de la normal N (m =E i =λ, σ=E i 1/2 =λ 1/2), y el valor normalizado (O i - E i )/E i 1 /2 ≈ N (0 ,1).

Pearson definió la variable aleatoria χ 2 n – “chi-cuadrado con n grados de libertad”, como la suma de los cuadrados de n variables aleatorias normales estándar independientes:

χ 2 norte = T 1 2 + T 2 2 + …+ T norte 2 , donde está todo el mundo Ti = norte(0,1) - norte. o. r. Con. v.

Intentemos comprender claramente el significado de esta variable aleatoria más importante en estadística. Para ello, en el plano (con n = 2) o en el espacio (con n = 3) presentamos una nube de puntos cuyas coordenadas son independientes y tienen una distribución normal estándarf T (x) ~exp (-x 2 /2 ). En un plano, según la regla “dos sigma”, que se aplica independientemente a ambas coordenadas, el 90% (0,95*0,95≈0,90) de los puntos están contenidos dentro de un cuadrado (-2

f χ 2 2 (a) = Сexp(-a/2) = 0,5exp(-a/2).

Con un número suficientemente grande de grados de libertad n (n > 30), la distribución chi-cuadrado se acerca a la normal: N (m = n; σ = (2n) ½). Esto es una consecuencia del “teorema del límite central”: la suma de cantidades idénticamente distribuidas con varianza finita se acerca a la ley normal a medida que aumenta el número de términos.

En la práctica, es necesario recordar que el cuadrado promedio de la distancia es m (χ 2 n) = n, y su varianza es σ 2 (χ 2 n) = 2n. A partir de aquí es fácil concluir qué valores de chi-cuadrado deben considerarse demasiado pequeños y demasiado grandes: la mayor parte de la distribución se encuentra en el rango de n -2∙(2n) ½ a n +2∙(2n) ½.

Por lo tanto, las distancias de Pearson que exceden significativamente n +2∙ (2n) ½ deben considerarse inverosímilmente grandes (inconsistentes con H 0). Si el resultado es cercano a n +2∙(2n) ½, entonces conviene utilizar tablas en las que pueda averiguar exactamente en qué proporción de casos pueden aparecer valores de chi-cuadrado tan grandes y tan grandes.

Es importante saber elegir el valor correcto para el número de grados de libertad (abreviado n.d.f.). Parecía natural suponer que n era simplemente igual al número de dígitos: n =M. En su artículo, Pearson así lo sugirió. En el ejemplo de los dados, esto significaría que n =6. Sin embargo, varios años después se demostró que Pearson estaba equivocado. El número de grados de libertad es siempre menor que el número de dígitos si existen conexiones entre las variables aleatorias O i. Para el ejemplo de los dados, la suma O i es 60 y solo se pueden cambiar 5 frecuencias de forma independiente, por lo que el valor correcto es n = 6-1 = 5. Para este valor de n obtenemos n +2∙(2n) ½ =5+2∙(10) ½ =11.3. Dado que 15.4>11.3, entonces la hipótesis H 0 - el dado es correcto, debe rechazarse.

Después de aclarar el error, hubo que complementar las tablas χ 2 existentes, ya que inicialmente no tenían el caso n = 1, ya que el número más pequeño de dígitos = 2. Ahora resulta que puede haber casos en los que la distancia de Pearson tenga la distribución χ 2 n =1.

Ejemplo. Con 100 lanzamientos de moneda, el número de caras es O 1 = 65 y cruces O 2 = 35. El número de dígitos es M = 2. Si la moneda es simétrica, entonces las frecuencias esperadas son E 1 =50, E 2 =50.

X 2 Pearson = S(O yo -E yo) 2 /E yo = (65-50) 2 /50 + (35-50) 2 /50 = 2*225/50 = 9.

El valor resultante debe compararse con los que puede tomar la variable aleatoria χ 2 n =1, definida como el cuadrado del valor normal estándar χ 2 n =1 =T 1 2 ≥ 9 ó T 1 ≥3 o T 1 ≤-3. La probabilidad de tal evento es muy baja P (χ 2 n =1 ≥9) = 0,006. Por tanto, la moneda no puede considerarse simétrica: H 0 debe rechazarse. El hecho de que el número de grados de libertad no puede ser igual al número de dígitos se desprende del hecho de que la suma de las frecuencias observadas es siempre igual a la suma de las esperadas, por ejemplo O 1 +O 2 =65+ 35 = mi 1 + mi 2 =50+50=100. Por tanto, puntos aleatorios con coordenadas O 1 y O 2 se ubican en línea recta: O 1 +O 2 =E 1 +E 2 =100 y la distancia al centro resulta ser menor que si esta restricción no existiera y estaban ubicados en todo el avión. De hecho, para dos variables aleatorias independientes con expectativas matemáticas E 1 =50, E 2 =50, la suma de sus realizaciones no siempre debería ser igual a 100; por ejemplo, los valores O 1 =60, O 2 =55 estar bien visto.

Explicación. Comparemos el resultado del criterio de Pearson en M = 2 con lo que da la fórmula de Moivre-Laplace al estimar fluctuaciones aleatorias en la frecuencia de ocurrencia de un evento ν =K /N que tiene una probabilidad p en una serie de N pruebas independientes de Bernoulli ( K es el número de éxitos):

χ 2 norte =1 = S(O i -E i) 2 /E i = (O 1 -E 1) 2 /E 1 + (O 2 -E 2) 2 /E 2 = (Nν -Np) 2 /(Np) + (N ( 1-ν )-N (1-p )) 2 /(N (1-p ))=

=(Nν-Np) 2 (1/p + 1/(1-p))/N=(Nν-Np) 2 /(Np(1-p))=((K-Np)/(Npq) ½ ) 2 = T 2

Valor T =(K -Np)/(Npq) ½ = (K -m (K))/σ(K) ≈N (0.1) con σ(K)=(Npq) ½ ≥3. Vemos que en este caso el resultado de Pearson coincide exactamente con lo que da la aproximación normal para la distribución binomial.

Hasta ahora hemos considerado hipótesis simples para las cuales las frecuencias promedio esperadas E i se conocen completamente de antemano. Para obtener información sobre cómo elegir el número correcto de grados de libertad para hipótesis complejas, consulte a continuación.

Uso de la prueba de chi-cuadrado para probar hipótesis complejas

En los ejemplos con un dado y una moneda normales, las frecuencias esperadas se podrían determinar antes (!) del experimento. Estas hipótesis se denominan "simples". En la práctica, las “hipótesis complejas” son más comunes. Además, para encontrar las frecuencias esperadas E i, es necesario estimar primero una o varias cantidades (parámetros del modelo), y esto sólo puede hacerse utilizando datos experimentales. Como resultado, para “hipótesis complejas” las frecuencias esperadas E i resultan depender de las frecuencias observadas O i y, por lo tanto, se convierten en variables aleatorias, que varían según los resultados del experimento. En el proceso de selección de parámetros, la distancia de Pearson disminuye; los parámetros se seleccionan para mejorar la concordancia entre el modelo y el experimento. Por tanto, el número de grados de libertad debería disminuir.

¿Cómo estimar los parámetros del modelo? Existen muchos métodos de estimación diferentes: "método de máxima verosimilitud", "método de momentos", "método de sustitución". Sin embargo, no puede utilizar fondos adicionales y encontrar estimaciones de parámetros minimizando la distancia de Pearson. En la era anterior a la informática, este enfoque rara vez se utilizaba: resulta inconveniente para los cálculos manuales y, por regla general, no se puede resolver analíticamente. Cuando se calcula en una computadora, la minimización numérica suele ser fácil de realizar y la ventaja de este método es su versatilidad. Entonces, de acuerdo con el "método de minimización de chi-cuadrado", seleccionamos los valores de los parámetros desconocidos para que la distancia de Pearson sea la más pequeña. (Por cierto, al estudiar los cambios en esta distancia con pequeños desplazamientos en relación con el mínimo encontrado, se puede estimar la medida de precisión de la estimación: construya intervalos de confianza). Una vez que se hayan encontrado los parámetros y esta distancia mínima en sí, es Nuevamente es necesario responder a la pregunta de si es lo suficientemente pequeño.

La secuencia general de acciones es la siguiente:

  1. Selección de modelo (hipótesis H 0).
  2. Selección de bits y determinación del vector de frecuencias observadas O i .
  3. Estimación de parámetros desconocidos del modelo y construcción de intervalos de confianza para ellos (por ejemplo, buscando la distancia mínima de Pearson).
  4. Cálculo de frecuencias esperadas E i .
  5. Comparación del valor encontrado de la distancia de Pearson X 2 con el valor crítico de chi-cuadrado χ 2 crit, el más grande, que todavía se considera plausible, compatible con H 0. Encontramos el valor χ 2 crit de las tablas resolviendo la ecuación

P (χ 2 n > χ 2 crítico)=1-α,

donde α es el “nivel de significancia” o “tamaño del criterio” o “magnitud del error de primer tipo” (valor típico α = 0,05).

Por lo general, el número de grados de libertad n se calcula mediante la fórmula

n = (número de dígitos) – 1 – (número de parámetros a estimar)

Si X 2 > χ 2 crit, entonces se rechaza la hipótesis H 0, en caso contrario se acepta. En α∙100% de los casos (es decir, muy raramente), este método de comprobar H 0 conducirá a un “error del primer tipo”: la hipótesis H 0 será rechazada erróneamente.

Ejemplo. Al estudiar 10 series de 100 semillas, se contó el número de las infectadas por la mosca de ojos verdes. Datos recibidos: O i =(16, 18, 11, 18, 21, 10, 20, 18, 17, 21);

Aquí el vector de frecuencias esperadas se desconoce de antemano. Si los datos son homogéneos y se obtienen para una distribución binomial, entonces se desconoce un parámetro: la proporción p de semillas infectadas. Tenga en cuenta que en la tabla original en realidad no hay 10 sino 20 frecuencias que satisfacen 10 conexiones: 16+84=100, ... 21+79=100.

X 2 = (16-100p) 2 /100p +(84-100(1-p)) 2 /(100(1-p))+…+

(21-100p) 2 /100p +(79-100(1-p)) 2 /(100(1-p))

Combinando términos por pares (como en el ejemplo de una moneda), obtenemos la forma de escribir el criterio de Pearson, que suele escribirse inmediatamente:

X 2 = (16-100p) 2 /(100p(1-p))+…+ (21-100p) 2 /(100p(1-p)).

Ahora bien, si se utiliza la distancia mínima de Pearson como método para estimar p, entonces es necesario encontrar un p para el cual X 2 = min. (El modelo intenta, si es posible, “ajustarse” a los datos experimentales).

El criterio de Pearson es el más universal de todos los utilizados en estadística. Se puede aplicar a datos univariados y multivariados, características cuantitativas y cualitativas. Sin embargo, precisamente por su versatilidad, hay que tener cuidado de no cometer errores.

Puntos importantes

1.Selección de categorías.

  • Si la distribución es discreta, normalmente no hay arbitrariedad en la elección de los dígitos.
  • Si la distribución es continua, entonces la arbitrariedad es inevitable. Se pueden utilizar bloques estadísticamente equivalentes (todos O son iguales, por ejemplo =10). Sin embargo, la duración de los intervalos es diferente. Al hacer cálculos manuales, intentaron que los intervalos fueran iguales. ¿Deberían ser iguales los intervalos al estudiar la distribución de un rasgo univariado? No.
  • Los dígitos deben combinarse de modo que las frecuencias esperadas (¡y no observadas!) no sean demasiado pequeñas (≥5). ¡Recordemos que son ellos (E i) los que están en los denominadores al calcular X 2! Al analizar características unidimensionales, se permite violar esta regla en los dos dígitos extremos E 1 =E max =1. Si el número de dígitos es grande y las frecuencias esperadas son cercanas, entonces X 2 es una buena aproximación de χ 2 incluso para E i =2.

Estimación de parámetros. El uso de métodos de estimación “caseros” e ineficientes puede llevar a valores inflados de la distancia de Pearson.

Elegir el número correcto de grados de libertad. Si las estimaciones de los parámetros no se hacen a partir de frecuencias, sino directamente a partir de los datos (por ejemplo, la media aritmética se toma como una estimación de la media), entonces se desconoce el número exacto de grados de libertad n. Sólo sabemos que satisface la desigualdad:

(número de dígitos – 1 – número de parámetros que se están evaluando)< n < (число разрядов – 1)

Por tanto, es necesario comparar X 2 con los valores críticos de χ 2 crit calculados en todo este rango de n.

¿Cómo interpretar valores de chi-cuadrado inverosímilmente pequeños?¿Debería considerarse simétrica una moneda si, después de 10.000 lanzamientos, cae sobre el escudo de armas 5.000 veces? Anteriormente, muchos estadísticos creían que H 0 también debería rechazarse. Ahora se propone otro enfoque: aceptar H 0, pero someter los datos y la metodología para su análisis a una verificación adicional. Hay dos posibilidades: o una distancia de Pearson demasiado pequeña significa que el aumento en el número de parámetros del modelo no estuvo acompañado por una disminución adecuada en el número de grados de libertad, o los datos en sí fueron falsificados (quizás ajustados involuntariamente al resultado esperado).

Ejemplo. Dos investigadores A y B calcularon la proporción de homocigotos recesivos aa en la segunda generación de un cruce monohíbrido AA * aa. Según las leyes de Mendel, esta fracción es 0,25. Cada investigador realizó 5 experimentos y en cada experimento se estudiaron 100 organismos.

Resultados A: 25, 24, 26, 25, 24. Conclusión del investigador: la ley de Mendel es verdadera(?).

Resultados B: 29, 21, 23, 30, 19. Conclusión del investigador: la ley de Mendel no es justa(?).

Sin embargo, la ley de Mendel es de naturaleza estadística y el análisis cuantitativo de los resultados revierte las conclusiones. Combinando cinco experimentos en uno, llegamos a una distribución chi-cuadrado con 5 grados de libertad (se prueba una hipótesis simple):

X 2 A = ((25-25) 2 +(24-25) 2 +(26-25) 2 +(25-25) 2 +(24-25) 2)/(100∙0.25∙0.75)=0.16

X 2 B = ((29-25) 2 +(21-25) 2 +(23-25) 2 +(30-25) 2 +(19-25) 2)/(100∙0.25∙0.75)=5.17

Valor promedio m [χ 2 n =5 ]=5, desviación estándar σ[χ 2 n =5 ]=(2∙5) 1/2 =3.2.

Por lo tanto, sin referencia a las tablas, está claro que el valor de X 2 B es típico y el valor de X 2 A es inverosímilmente pequeño. Según tablas P (χ 2 n =5<0.16)<0.0001.

Este ejemplo es una adaptación de un caso real ocurrido en la década de 1930 (ver la obra de Kolmogorov “Sobre otra prueba de las leyes de Mendel”). Curiosamente, el investigador A era partidario de la genética, mientras que el investigador B estaba en contra.

Confusión en la notación. Es necesario distinguir la distancia de Pearson, que requiere convenciones adicionales en su cálculo, del concepto matemático de variable aleatoria chi-cuadrado. La distancia de Pearson bajo ciertas condiciones tiene una distribución cercana a chi-cuadrado con n grados de libertad. Por lo tanto, es aconsejable NO denotar la distancia de Pearson con el símbolo χ 2 n, sino utilizar una notación similar pero diferente X 2. .

El criterio de Pearson no es omnipotente. Hay un número infinito de alternativas para H 0 que no puede tener en cuenta. Supongamos que está probando la hipótesis de que la característica tenía una distribución uniforme, tiene 10 dígitos y el vector de frecuencias observadas es igual a (130,125,121,118,116,115,114,113,111,110). El criterio de Pearson no puede “observar” que las frecuencias están disminuyendo monótonamente y H 0 no será rechazada. Si se complementara con un criterio de serie, ¡entonces sí!

En la práctica de la investigación biológica, a menudo es necesario probar una u otra hipótesis, es decir, averiguar en qué medida el material fáctico obtenido por el experimentador confirma el supuesto teórico y en qué medida los datos analizados coinciden con los teóricamente esperados. unos. Surge la tarea de evaluar estadísticamente la diferencia entre los datos reales y las expectativas teóricas, estableciendo en qué casos y con qué grado de probabilidad esta diferencia puede considerarse confiable y, a la inversa, cuándo debe considerarse insignificante, insignificante, dentro de los límites del azar. En este último caso, se mantiene una hipótesis a partir de la cual se calculan los datos o indicadores teóricamente esperados. Esta técnica estadística variacional para probar una hipótesis es el método chi-cuadrado (χ 2). Esta medida a menudo se denomina "criterio de ajuste" o "prueba de bondad de ajuste de Pearson". Con su ayuda, se puede, con probabilidad variable, juzgar el grado de correspondencia de los datos obtenidos empíricamente con los esperados teóricamente.

Desde un punto de vista formal, se comparan dos series de variación, dos poblaciones: una es una distribución empírica, la otra es una muestra con los mismos parámetros ( norte, METRO, S etc.) es la misma que la empírica, pero su distribución de frecuencias se construye en estricta conformidad con la ley teórica elegida (normal, Poisson, binomial, etc.), a la que se supone que obedece el comportamiento de la variable aleatoria en estudio. .

En general, la fórmula para el criterio de cumplimiento se puede escribir de la siguiente manera:

Dónde a - frecuencia real de las observaciones,

A - frecuencia teóricamente esperada para una clase determinada.

La hipótesis nula supone que no existen diferencias significativas entre las distribuciones comparadas. Para evaluar la importancia de estas diferencias, debe consultar una tabla especial de valores críticos de chi-cuadrado (Tabla 9 PAG) y, comparando el valor calculado χ 2 con la tabla, decida si la distribución empírica se desvía de manera confiable o no confiable de la teórica. Así, la hipótesis sobre la ausencia de estas diferencias será refutada o se mantendrá vigente. Si el valor calculado χ 2 iguala o supera la tabla χ ² ( α , df), deciden que la distribución empírica difiere significativamente de la teórica. Así, se refutará la hipótesis sobre la ausencia de estas diferencias. Si χ ² < χ ² ( α , df), la hipótesis nula sigue siendo válida. Generalmente se acepta que el nivel aceptable de significancia α = 0,05, porque en este caso sólo hay un 5% de probabilidad de que la hipótesis nula sea correcta y, por tanto, hay motivos suficientes (95%) para rechazarla.


Un cierto problema es la determinación correcta del número de grados de libertad ( df), para los cuales los valores de criterio se toman de la tabla. Para determinar el número de grados de libertad del número total de clases. k debe restar el número de restricciones (es decir, el número de parámetros utilizados para calcular las frecuencias teóricas).

Dependiendo del tipo de distribución de la característica en estudio, la fórmula para calcular el número de grados de libertad cambiará. Para alternativa distribuciones ( k= 2) solo un parámetro (tamaño de muestra) está involucrado en los cálculos, por lo tanto, el número de grados de libertad es df= k−1=2−1=1. Para polinomio La fórmula de distribución es similar: df= k−1. Para comprobar la correspondencia de la serie de variación con la distribución. Poison ya se utilizan dos parámetros: tamaño de la muestra y valor medio (que coincide numéricamente con la dispersión); numero de grados de libertad df= k−2. Al comprobar la coherencia de la distribución empírica, la opción normal o binomio Según la ley, el número de grados de libertad se toma como el número de clases reales menos tres condiciones para construir series: tamaño de muestra, media y varianza, df= k−3. Inmediatamente vale la pena señalar que el criterio χ² sólo funciona para muestras volumen de al menos 25 variantes, y las frecuencias de las clases individuales deben ser no inferior a 4.

Primero, ilustramos el uso de la prueba de chi-cuadrado usando un ejemplo de análisis. variabilidad alternativa. En un experimento para estudiar la herencia de los tomates, se encontraron 3629 frutos rojos y 1176 amarillos. La proporción teórica de frecuencias para la división de caracteres en la segunda generación híbrida debería ser de 3:1 (75% a 25%). ¿Se está implementando? En otras palabras, ¿esta muestra se toma de una población en la que la razón de frecuencia es 3:1 o 0,75:0,25?

Creemos una tabla (Tabla 4), completando los valores de las frecuencias empíricas y los resultados del cálculo de las frecuencias teóricas usando la fórmula:

A = n∙p,

Dónde pag– frecuencias teóricas (fracciones de un tipo determinado),

norte – tamaño de la muestra.

Por ejemplo, A 2 = n∙p 2 = 4805∙0.25 = 1201.25 ≈ 1201.



¿Te gustó el artículo? ¡Compartir con tus amigos!