Resolución de problemas sobre la probabilidad de acierto durante los tiros. Determinación de la probabilidad del evento y distribución estadística.

Descripción del criterio

Propósito del criterio

Prueba de chi-cuadrado de Pearson

Materiales de conferencia

Tema 6. Identificar diferencias en la distribución de un rasgo

Criterio de Pearson: finalidad del criterio, su descripción, ámbito de aplicación, algoritmo de cálculo.

Prueba de Kolmogorov-Smirnov para comparar resultados medida cuantitativa: finalidad del criterio, su descripción, alcance, algoritmo de cálculo.

Al estudiar este tema es necesario tener en cuenta que ambos criterios son no paramétricos; operan con frecuencias. Por favor pague Atención especial sobre las reglas de decisión para los criterios considerados: estas reglas pueden ser opuestas. Por favor revise cuidadosamente las limitaciones en la aplicación de los criterios.

Después de estudiar el material de la conferencia, responda las Preguntas de control, anota tus respuestas en tus notas.

La prueba chi-cuadrado de Pearson puede resolver varios problemas, incluida la comparación de distribuciones.

La prueba de χ 2 se utiliza con dos propósitos;

1) para comparar empírico distribución de la característica con teórico - uniforme, normal o no;

2) para comparar dos, tres o más empíricos distribuciones de una misma característica, es decir, comprobar su homogeneidad;

3) evaluar la independencia estocástica (probabilística) en el sistema eventos aleatorios etc.

El criterio de χ 2 responde a la pregunta de si ocurren con la misma frecuencia diferentes significados iniciar sesión empírico y distribuciones teóricas o en dos o más distribuciones empíricas.

La ventaja del método es que permite comparar las distribuciones de características presentadas en cualquier escala, empezando por la escala de nombres. En el muy caso sencillo distribución alternativa (“sí - no”, “permitió un defecto - no permitió un defecto”, “resolvió el problema - no resolvió el problema”, etc.), ya podemos aplicar el criterio χ 2.

1. El tamaño de la muestra debe ser lo suficientemente grande: N>30. cuando norte<30 критерий χ 2 дает весьма приближенные значения. Точность крите­рия повышается при больших N.

2. La frecuencia teórica para cada celda de la tabla no debe ser inferior a 5: f ≥ 5 . Esto significa que si el número de dígitos está predeterminado y no se puede cambiar, entonces no podemos aplicar el método χ 2 , sin acumular un número mínimo determinado de observaciones. Si, por ejemplo, queremos probar nuestras suposiciones de que la frecuencia de las llamadas al servicio telefónico Trust se distribuye de manera desigual durante los 7 días de la semana, entonces necesitaremos 5-7 = 35 llamadas. Por lo tanto, si el número de dígitos (k) dado de antemano, como en este caso, el número mínimo de observaciones (N min) está determinado por la fórmula: .



3. Las categorías seleccionadas deben "exprimir" toda la distribución, es decir, cubrir toda la gama de variabilidad de características. En este caso, la agrupación en categorías debe ser la misma en todas las distribuciones comparadas.

4. Es necesario hacer una “corrección de continuidad” al comparar distribuciones de características que toman sólo 2 valores. Al realizar una corrección, el valor de χ 2 disminuye (ver ejemplo con corrección de continuidad).

5. Las categorías no deben superponerse: si una observación se asigna a una categoría, ya no podrá asignarse a ninguna otra categoría. La suma de observaciones por rango siempre debe ser igual al número total de observaciones.

Algoritmo para calcular el criterio χ 2

1. Cree una tabla de conjugación mutua de valores de características del siguiente tipo (esencialmente, esta es una serie de variación bidimensional en la que se indican las frecuencias de aparición de valores de características conjuntas): tabla 19. La tabla contiene frecuencias condicionales, que denotaremos en forma general como fi ij. Por ejemplo, el número de gradaciones de una característica. X es igual a 3 (k=3), el número de gradaciones de la característica en es igual a 4 (m=4); Entonces i varía de 1 a k, y j varía de 1 a m.

Tabla 19

x i y j x1 x2 x3
a la 1 f 11 f 21 f 31 f –1
a las 2 f 12 f 22 f 32 f –2
a las 3 f 13 f 23 f 33 f –3
a las 4 f 14 f 24 f 34 f –4
f 1– f 2– f 3– norte

2. A continuación, para facilitar los cálculos, transformamos la tabla original de contingencia mutua en una tabla de la siguiente forma (Tabla 20), colocando las columnas con frecuencias condicionales una debajo de la otra: Ingrese en la tabla los nombres de las categorías. (columnas 1 y 2) y las frecuencias empíricas correspondientes (3.ª columna).

Tabla 20

xyo y j fij fij * f ij – f ij * (f ij – f ij *) 2 (f ij – f ij *) 2 / f ij *
1 2 3 4 5 6 7
x1 a la 1 f 11 f 11*
x1 a las 2 f 12 f 12*
x1 a las 3 f 13 f 13*
x1 a las 4 f 14 f 14*
x2 a la 1 f 21 f 21 *
x2 a las 2 f 22 f 22 *
x2 a las 3 f 23 f 23 *
x2 a las 4 f 24 f 24 *
x3 a la 1 f 31 f 31 *
x3 a las 2 f 32 f 32 *
x3 a las 3 f 33 f 33 *
x3 a las 4 f 34 f 34*
∑=………….

3. Al lado de cada frecuencia empírica, escriba la frecuencia teórica (4ta columna), que se calcula usando la siguiente fórmula (las frecuencias totales en la línea correspondiente se multiplican por la frecuencia total en la columna correspondiente y se dividen por el número total de observaciones):

5. Determine el número de grados de libertad usando la fórmula: ν=(k-1)(m-1) , Dónde k- número de dígitos de atributo X, m - número de dígitos del signo en.

Si ν=1, haga una corrección por “continuidad” y escríbala en la columna 5a.

La corrección de continuidad consiste en restar otro 0,5 a la diferencia entre las frecuencias condicional y teórica. Entonces los encabezados de las columnas de nuestra tabla se verán así (Tabla 21):

Tabla 21

X en fij fij * f ij – f ij * fij – fij * – 0,5 (f ij – f ij * – 0,5) 2 (f ij – f ij * – 0,5) 2 / f ij *
1 2 3 4 5 5a 6 7

6. Eleva al cuadrado las diferencias resultantes e introdúcelas en la sexta columna.

7. Divida las diferencias al cuadrado resultantes por la frecuencia teórica y escriba los resultados en la séptima columna.

8. Suma los valores de la séptima columna. La cantidad resultante se designa como χ 2 em.

9. Regla de decisión:

El valor calculado del criterio debe compararse con el valor crítico (o tabulado). El valor crítico depende del número de grados de libertad según la tabla de valores críticos del criterio de Pearson χ 2 (ver Apéndice 1.6).

Si χ 2 calc ≥ χ 2 tabla, entonces las discrepancias entre las distribuciones son estadísticamente significativas, o las características cambian consistentemente, o la relación entre las características es estadísticamente significativa.

Si χ 2 calculado< χ 2 табл, то расхождения между рас­пределениями статистически недостоверны, или признаки изменяются несогласованно, или связи между признаками нет.

23. Concepto de chi-cuadrado y distribución de Student, y vista gráfica

1) Una distribución (chi-cuadrado) con n grados de libertad es la distribución de la suma de cuadrados de n variables aleatorias normales estándar independientes.

Distribución (chi-cuadrado)- distribución variable aleatoria(y la expectativa matemática de cada uno de ellos es 0 y la desviación estándar es 1)

donde estan las variables aleatorias independientes y tienen la misma distribución. En este caso, el número de términos, es decir, se denomina "número de grados de libertad" de la distribución chi-cuadrado. El número de chi-cuadrado está determinado por un parámetro, el número de grados de libertad. A medida que aumenta el número de grados de libertad, la distribución se acerca lentamente a la normalidad.

Entonces la suma de sus cuadrados

es una variable aleatoria distribuida según la llamada ley de chi-cuadrado con k = n grados de libertad; si los términos están relacionados por alguna relación (por ejemplo, ), entonces el número de grados de libertad k = n – 1.

La densidad de esta distribución.

Aquí - función gamma; en particular, Г(n + 1) = n! .

Por lo tanto, la distribución chi-cuadrado está determinada por un parámetro: el número de grados de libertad k.

Observación 1. A medida que aumenta el número de grados de libertad, la distribución chi-cuadrado se acerca gradualmente a la normalidad.

Observación 2. Utilizando la distribución chi-cuadrado, se determinan muchas otras distribuciones que se encuentran en la práctica, por ejemplo, la distribución de una variable aleatoria: la longitud de un vector aleatorio (X1, X2,..., Xn), las coordenadas de que son independientes y están distribuidas según la ley normal.

La distribución χ2 fue considerada por primera vez por R. Helmert (1876) y K. Pearson (1900).

Matemáticas.esperanza.=n; D=2norte

2) Distribución de estudiantes

Considere dos variables aleatorias independientes: Z, que tiene una distribución normal y está normalizada (es decir, M(Z) = 0, σ(Z) = 1), y V, que se distribuye según la ley de chi-cuadrado con k grados de libertad. Entonces el valor

tiene una distribución llamada distribución t o distribución de Student con k grados de libertad. En este caso, k se denomina “número de grados de libertad” de la distribución de Student.

A medida que aumenta el número de grados de libertad, la distribución de Student rápidamente se acerca a la normal.

Esta distribución fue introducida en 1908 por el estadístico inglés W. Gosset, que trabajaba en una fábrica de cerveza. En esta fábrica se utilizaban métodos probabilísticos y estadísticos para tomar decisiones económicas y técnicas, por lo que su dirección prohibió a V. Gosset publicar artículos científicos bajo su propio nombre. De esta manera se protegieron los secretos comerciales y el "know-how" en forma de métodos probabilísticos y estadísticos desarrollados por V. Gosset. Sin embargo, tuvo la oportunidad de publicar bajo el seudónimo de "Estudiante". La historia de Gosset-Student muestra que incluso hace cien años, los directivos del Reino Unido eran conscientes de la mayor eficiencia económica de los métodos de toma de decisiones probabilístico-estadísticos.

chi-cuadrado Pearson es la prueba más sencilla para comprobar la importancia de una relación entre dos variables categorizadas. El criterio de Pearson se basa en el hecho de que en una tabla de dos entradas esperado Las frecuencias bajo la hipótesis “no hay dependencia entre las variables” se pueden calcular directamente. Imagine que se pregunta a 20 hombres y 20 mujeres sobre su elección de agua con gas (marca A o marca B). Si no existe una conexión entre preferencia y género, entonces, naturalmente, esperar igual elección de marca A y marcas B para cada género.

Significado de estadísticas chi-cuadrado y su nivel de significancia depende del número total de observaciones y del número de celdas de la tabla. De acuerdo con los principios discutidos en la sección , las desviaciones relativamente pequeñas de las frecuencias observadas respecto de las esperadas resultarán significativas si el número de observaciones es grande.

Sólo hay una limitación significativa en el uso del criterio. chi-cuadrado(aparte del supuesto obvio de selección aleatoria de observaciones), que es que las frecuencias esperadas no deben ser muy pequeñas. Esto se debe a que el criterio chi-cuadrado por controles de naturaleza probabilidades en cada celda; y si las frecuencias esperadas en las celdas se vuelven pequeñas, por ejemplo menos de 5, entonces estas probabilidades no pueden estimarse con suficiente precisión utilizando las frecuencias disponibles. Para un análisis más detallado, véase Everitt (1977), Hays (1988) o Kendall y Stuart (1979).

Prueba de chi-cuadrado (método de máxima verosimilitud).Chi-cuadrado de máxima probabilidad tiene como objetivo probar la misma hipótesis sobre las relaciones en tablas de contingencia que el criterio chi-cuadrado Pearson. Sin embargo, su cálculo se basa en el método de máxima verosimilitud. En la práctica, las estadísticas del MP chi-cuadrado muy cercano en magnitud a la estadística regular de Pearson chi-cuadrado. Puede encontrarse más información sobre estas estadísticas en Bishop, Fienberg y Holland (1975) o Fienberg (1977). en el capitulo Análisis loglineal estas estadísticas se analizan con más detalle.

Enmienda de Yates. Aproximación de estadísticas chi-cuadrado para tablas de 2x2 con un pequeño número de observaciones en celdas se puede mejorar reduciendo el valor absoluto de las diferencias entre las frecuencias esperadas y observadas en 0,5 antes de elevar al cuadrado (el llamado enmienda de Yates). La corrección de Yates, que hace que la estimación sea más moderada, generalmente se aplica en los casos en que las tablas contienen sólo frecuencias pequeñas, por ejemplo, cuando algunas frecuencias esperadas son menores que 10 (para una discusión más detallada, ver Conover, 1974; Everitt, 1977; Hays). , 1988; Kendall y Stuart, 1979 y Mantel, 1974).

Prueba exacta de Fisher. Este criterio sólo es aplicable para mesas de 2x2. El criterio se basa en el siguiente razonamiento. Dadas las frecuencias marginales de la tabla, supongamos que ambas variables tabuladas son independientes. Preguntémonos: ¿cuál es la probabilidad de obtener las frecuencias observadas en la tabla, a partir de las marginales dadas? Resulta que esta probabilidad se calcula exactamente contando todas las tablas que se pueden construir a partir de las marginales. Así, el criterio de Fisher calcula preciso la probabilidad de ocurrencia de frecuencias observadas bajo la hipótesis nula (sin relación entre las variables tabuladas). La tabla de resultados muestra niveles unilaterales y bilaterales.

Chi-cuadrado de McNemar. Este criterio se aplica cuando las frecuencias en la tabla 2x2 representan dependiente muestras. Por ejemplo, observaciones de los mismos individuos antes y después de un experimento. En particular, se puede contar el número de estudiantes que tienen un rendimiento mínimo en matemáticas al principio y al final del semestre o la preferencia de los mismos encuestados antes y después del anuncio. Se calculan dos valores. chi-cuadrado: ANUNCIO Y ANTES DE CRISTO. chi-cuadrado A/D prueba la hipótesis de que las frecuencias en las células A Y D(arriba a la izquierda, abajo a la derecha) son iguales. B/C chi-cuadrado pone a prueba la hipótesis sobre la igualdad de frecuencias en las células B Y C(arriba a la derecha, abajo a la izquierda).

Coeficiente phi.plaza phi representa una medida de la relación entre dos variables en una tabla de 2x2. Sus valores varían de 0 (sin dependencia entre variables; chi-cuadrado = 0.0 ) antes 1 (relación absoluta entre dos factores de la tabla). Para más detalles, véase Castellan y Siegel (1988, p. 232).

Correlación tetracórica. Esta estadística se calcula (y se aplica) sólo a tablas de tabulación cruzada de 2x2. Si una tabla de 2x2 puede verse como el resultado de una partición (artificial) de los valores de dos variables continuas en dos clases, entonces el coeficiente de correlación tetracórica nos permite estimar la relación entre estas dos variables.

Coeficiente de conjugación. El coeficiente de contingencia se basa estadísticamente. chi-cuadrado una medida de la relación de características en la tabla de contingencia (propuesta por Pearson). La ventaja de este coeficiente sobre las estadísticas convencionales. chi-cuadrado es que es más fácil de interpretar, porque el rango de su cambio está en el rango de 0 antes 1 (Dónde 0 corresponde al caso de independencia de las características de la tabla, y un aumento en el coeficiente muestra un aumento en el grado de conexión). La desventaja del coeficiente de contingencia es que su valor máximo “depende” del tamaño de la mesa. Este coeficiente puede alcanzar un valor de 1 sólo si el número de clases no está limitado (ver Siegel, 1956, p. 201).

Interpretación de medidas de comunicación. Un inconveniente importante de las medidas de asociación (discutidas anteriormente) es la dificultad de interpretarlas en términos convencionales de probabilidad o "proporción de varianza explicada", como en el caso del coeficiente de correlación. r Pearson (ver Correlaciones). Por lo tanto, no existe una medida o coeficiente de asociación generalmente aceptado.

Estadísticas basadas en rangos. En muchos problemas que surgen en la práctica, tenemos mediciones sólo en ordinal escala (ver Conceptos básicos de estadística.). Esto se aplica especialmente a mediciones en el campo de la psicología, la sociología y otras disciplinas relacionadas con el estudio del hombre. Supongamos que entrevistó a varios encuestados para conocer su actitud hacia determinados deportes. Representas las medidas en una escala con las siguientes posiciones: (1) Siempre, (2) generalmente, (3) A veces y (4) nunca. Obviamente la respuesta a veces me pregunto muestra menos interés del encuestado que la respuesta normalmente estoy interesado etc. De este modo, es posible ordenar (clasificar) el grado de interés de los encuestados. Este es un ejemplo típico de escala ordinal. Las variables medidas en una escala ordinal tienen sus propios tipos de correlaciones que permiten evaluar las dependencias.

R Spearman. Estadísticas R Spearman se puede interpretar de la misma manera que la correlación de Pearson ( r Pearson) en términos de la proporción de varianza explicada (teniendo en cuenta, sin embargo, que el estadístico de Spearman se calcula por rangos). Se supone que las variables se miden al menos en ordinal escala. Un análisis exhaustivo de la correlación de rangos de Spearman, su poder y eficacia se puede encontrar, por ejemplo, en Gibbons (1985), Hays (1981), McNemar (1969), Siegel (1956), Siegel y Castellan (1988), Kendall (1948). ), Olds (1949) y Hotelling y Pabst (1936).

Tau Kendall. Estadísticas Tau El equivalente de Kendall R Spearman bajo algunos supuestos básicos. Sus poderes también son equivalentes. Sin embargo, normalmente los valores R Lancero y Tau Los de Kendall son diferentes porque difieren tanto en su lógica interna como en la forma en que se calculan. En Siegel y Castellan (1988), los autores expresaron la relación entre estas dos estadísticas de la siguiente manera:

1 < = 3 * Тау Кендалла - 2 * R Спирмена < = 1

Más importante aún, las estadísticas de Kendall Tau y lancero R tienen diferentes interpretaciones: mientras que las estadísticas R Spearman puede considerarse como un análogo directo de las estadísticas. r Pearson, calculado por rangos, estadísticas de Kendall Tau más bien basado en probabilidades. Más precisamente, prueba que existe una diferencia entre la probabilidad de que los datos observados estén en el mismo orden para dos cantidades y la probabilidad de que estén en un orden diferente. Kendall (1948, 1975), Everitt (1977) y Siegel y Castellan (1988) analizan con gran detalle Tau Kendall. Normalmente se calculan dos estadísticas. Tau Kendall: Tau b Y Tau C. Estas medidas difieren sólo en la forma en que manejan las clasificaciones coincidentes. En la mayoría de los casos sus significados son bastante similares. Si surgen diferencias, entonces parece que la forma más segura es considerar el menor de los dos valores.

Coeficiente d de Sommer: d(X|Y), d(Y|X). Estadísticas d La medida de Sommer es una medida asimétrica de la relación entre dos variables. Esta estadística está cerca de Tau b(ver Siegel y Castellan, 1988, pp. 303-310).

Estadísticas gamma. Si hay muchos valores coincidentes en los datos, las estadísticas gama preferible R Lancero o Tau Kendall. En términos de supuestos básicos, las estadísticas gama equivalente a las estadísticas R Spearman o tau de Kendall. Su interpretación y cálculos son más similares a las estadísticas Tau de Kendall que a las estadísticas R de Spearman. Para decirlo brevemente, gama también representa probabilidad; más precisamente, la diferencia entre la probabilidad de que el orden de clasificación de dos variables coincida, menos la probabilidad de que no coincida, dividida por uno menos la probabilidad de coincidencias. Así que las estadísticas gama básicamente equivalente Tau Kendall, excepto que las coincidencias se tienen en cuenta explícitamente en la normalización. Discusión detallada de las estadísticas. gama se puede encontrar en Goodman y Kruskal (1954, 1959, 1963, 1972), Siegel (1956) y Siegel y Castellan (1988).

Coeficientes de incertidumbre. Estos coeficientes miden comunicación de información entre factores (filas y columnas de la tabla). Concepto dependencia de la información se origina en el enfoque teórico de la información para el análisis de tablas de frecuencia, se pueden consultar manuales relevantes para aclarar esta cuestión (ver Kullback, 1959; Ku y Kullback, 1968; Ku, Varner y Kullback, 1971; ver también Bishop, Fienberg y Holanda, 1975, págs. 344-348). Estadísticas S(Y,X) es simétrico y mide la cantidad de información en una variable Y relativo a la variable X o en una variable X relativo a la variable Y. Estadísticas S(X|Y) Y S(Y|X) expresa dependencia direccional.

Respuestas multidimensionales y dicotomías. Variables como la respuesta multivariada y las dicotomías multivariadas surgen en situaciones en las que el investigador está interesado no sólo en las frecuencias “simples” de los eventos, sino también en algunas propiedades cualitativas (a menudo no estructuradas) de estos eventos. La naturaleza de las variables multidimensionales (factores) se comprende mejor a través de ejemplos.

  • · Respuestas multidimensionales
  • · Dicotomías multidimensionales
  • · Tabulación cruzada de respuestas multivariadas y dicotomías
  • Tabulación cruzada por pares de variables con respuestas multivariadas
  • · Comentario final

Respuestas multidimensionales. Imagine que en el proceso de una gran investigación de mercados, le pidió a los clientes que nombraran los 3 mejores refrescos desde su punto de vista. Una pregunta típica podría verse así.

Considere la aplicación enEMSOBRESALIRPrueba de chi-cuadrado de Pearson para probar hipótesis simples.

Después de obtener datos experimentales (es decir, cuando hay alguna muestra) normalmente se elige la ley de distribución que mejor describa la variable aleatoria representada por un determinado muestreo. La verificación de qué tan bien los datos experimentales están descritos por la ley de distribución teórica seleccionada se lleva a cabo utilizando criterios de acuerdo. Hipótesis nula, suele existir una hipótesis sobre la igualdad de la distribución de una variable aleatoria según alguna ley teórica.

Veamos primero la aplicación. Prueba de bondad de ajuste de Pearson X 2 (chi-cuadrado) en relación con hipótesis simples (los parámetros de la distribución teórica se consideran conocidos). Entonces - , cuando solo se especifica la forma de la distribución, y los parámetros de esta distribución y el valor Estadísticas x2 se evalúan/calculan en base a los mismos muestras.

Nota: En la literatura en lengua inglesa, el procedimiento de solicitud. Prueba de bondad de ajuste de Pearson x2 tiene un nombre La prueba de bondad de ajuste chi-cuadrado.

Recordemos el procedimiento para probar hipótesis:

  • basado muestras se calcula el valor Estadísticas, que corresponde al tipo de hipótesis que se está probando. Por ejemplo, para usado t-Estadísticas(si no se sabe);
  • sujeto a la verdad hipótesis nula, la distribución de este Estadísticas es conocido y puede usarse para calcular probabilidades (por ejemplo, para t-Estadísticas Este );
  • calculado en base a muestras significado Estadísticas comparado con el valor crítico para un valor dado ();
  • hipótesis nula rechazar si valor Estadísticas mayor que crítico (o si la probabilidad de obtener este valor Estadísticas() menos Nivel significativo, que es un enfoque equivalente).

llevemos a cabo evaluación de la hipótesis para diversas distribuciones.

Caso discreto

Supongamos que dos personas están jugando a los dados. Cada jugador tiene su propio juego de dados. Los jugadores se turnan para lanzar 3 dados a la vez. Cada ronda la gana el que saca más seises a la vez. Los resultados se registran. Uno de los jugadores, después de 100 rondas, tuvo la sospecha de que los dados de su oponente eran asimétricos, porque a menudo gana (a menudo lanza seises). Decidió analizar la probabilidad de que se produjeran tantos resultados enemigos.

Nota: Porque Hay 3 cubos, entonces puedes tirar 0 a la vez; 1; 2 o 3 seises, es decir una variable aleatoria puede tomar 4 valores.

De la teoría de la probabilidad sabemos que si los dados son simétricos, entonces la probabilidad de obtener seises obedece. Por lo tanto, después de 100 rondas, las frecuencias de los seis se pueden calcular usando la fórmula
=DIST.BINOM.(A7,3,1/6,FALSO)*100

La fórmula supone que en la celda A7 contiene el número correspondiente de seises obtenidos en una ronda.

Nota: Los cálculos se dan en archivo de ejemplo en la hoja discreta.

Para comparacion observado(Observado) y frecuencias teóricas(Esperado) cómodo de usar.

Si las frecuencias observadas se desvían significativamente de la distribución teórica, hipótesis nula sobre la distribución de una variable aleatoria según una ley teórica debe ser rechazada. Es decir, si los dados del oponente son asimétricos, entonces las frecuencias observadas serán "significativamente diferentes" de las Distribución binomial.

En nuestro caso, a primera vista, las frecuencias son bastante cercanas y sin cálculos es difícil sacar una conclusión inequívoca. Aplicable Prueba de bondad de ajuste de Pearson X 2, de modo que en lugar de la afirmación subjetiva “sustancialmente diferente”, que puede hacerse basándose en la comparación histogramas, utilice una declaración matemáticamente correcta.

Usamos el hecho de que debido a ley de los grandes números frecuencia observada (Observada) con volumen creciente muestras n tiende a la probabilidad correspondiente a la ley teórica (en nuestro caso, ley binomial). En nuestro caso, el tamaño de muestra n es 100.

vamos a presentar prueba Estadísticas, que denotamos por X 2:

donde O l es la frecuencia observada de eventos en los que la variable aleatoria ha tomado ciertos valores aceptables, El l es la frecuencia teórica correspondiente (Esperada). L es el número de valores que puede tomar una variable aleatoria (en nuestro caso es 4).

Como se puede ver en la fórmula, esto Estadísticas es una medida de la proximidad de las frecuencias observadas a las teóricas, es decir se puede utilizar para estimar las "distancias" entre estas frecuencias. Si la suma de estas “distancias” es “demasiado grande”, entonces estas frecuencias son “significativamente diferentes”. Está claro que si nuestro cubo es simétrico (es decir, aplicable ley binomial), entonces la probabilidad de que la suma de “distancias” sea “demasiado grande” será pequeña. Para calcular esta probabilidad necesitamos conocer la distribución. Estadísticas X 2 ( Estadísticas X 2 calculado en base al azar muestras, por lo tanto es una variable aleatoria y, por lo tanto, tiene su propia Distribución de probabilidad).

Del análogo multidimensional Teorema integral de Moivre-Laplace se sabe que para n->∞ nuestra variable aleatoria X 2 es asintóticamente con L - 1 grados de libertad.

Entonces si el valor calculado Estadísticas X 2 (la suma de las “distancias” entre frecuencias) será mayor que un cierto valor límite, entonces tendremos motivos para rechazar hipótesis nula. Lo mismo que comprobar hipótesis paramétricas, el valor límite se ajusta mediante Nivel significativo. Si la probabilidad de que el estadístico X 2 tome un valor menor o igual al calculado ( pag-significado), será menor Nivel significativo, Eso hipótesis nula puede ser rechazado.

En nuestro caso, el valor estadístico es 22,757. La probabilidad de que el estadístico X2 tome un valor mayor o igual a 22,757 es muy pequeña (0,000045) y se puede calcular mediante las fórmulas
=CHI2.DIST.PH(22.757,4-1) o
=CHI2.PRUEBA(Observado; Esperado)

Nota: La función CHI2.TEST() está diseñada específicamente para probar la relación entre dos variables categóricas (ver).

La probabilidad 0,000045 es significativamente menor de lo habitual Nivel significativo 0,05. Entonces, el jugador tiene todas las razones para sospechar que su oponente es deshonesto ( hipótesis nula se niega su honestidad).

Cuando usas criterio X 2 es necesario asegurarse de que el volumen muestras n era lo suficientemente grande, de lo contrario la aproximación de distribución no sería válida estadísticas X 2. Generalmente se considera que para esto es suficiente que las frecuencias observadas sean mayores a 5. Si este no es el caso, entonces las frecuencias pequeñas se combinan en una o se suman a otras frecuencias, y se asigna el valor combinado. probabilidad total y, en consecuencia, el número de grados de libertad disminuye X 2 distribuciones.

Para mejorar la calidad de la aplicación. criterio X 2(), es necesario reducir los intervalos de partición (aumentar L y, en consecuencia, aumentar el número grados de libertad), sin embargo, esto lo impide la limitación del número de observaciones incluidas en cada intervalo (db>5).

Caso continuo

Prueba de bondad de ajuste de Pearson x2 También se puede aplicar en caso de .

Consideremos un cierto muestra, que consta de 200 valores. Hipótesis nula Establece que muestra Hecho de .

Nota: Variables aleatorias en archivo de ejemplo en la hoja continua generado usando la fórmula =INV.EST.NORM(ALEATORIO()). Por tanto, nuevos valores muestras se generan cada vez que se recalcula la hoja.

Se puede evaluar visualmente si el conjunto de datos existente es apropiado.

Como puede verse en el diagrama, los valores de muestra encajan bastante bien a lo largo de la línea recta. Sin embargo, como en el caso de evaluación de la hipótesis aplicable Prueba de bondad de ajuste de Pearson X 2.

Para hacer esto, dividimos el rango de cambio de la variable aleatoria en intervalos con un paso de 0,5. Calculemos lo observado y frecuencias teóricas. Calculamos las frecuencias observadas usando la función FREQUENCY(), y las teóricas usando la función NORM.ST.DIST().

Nota: Igual que para caso discreto, es necesario asegurar que muestra era bastante grande y el intervalo incluía >5 valores.

Calculemos el estadístico X2 y compárelo con el valor crítico para un determinado Nivel significativo(0,05). Porque dividimos el rango de cambio de una variable aleatoria en 10 intervalos, entonces el número de grados de libertad es 9. El valor crítico se puede calcular usando la fórmula
=CHI2.OBR.PH(0.05;9) o
=CHI2.OBR(1-0.05;9)

El diagrama anterior muestra que el valor estadístico es 8,19, que es significativamente mayor valor crítico hipótesis nula no es rechazado.

Abajo es donde muestra adquirió un significado improbable y basado en criterio Consentimiento de Pearson X 2 La hipótesis nula fue rechazada (aunque valores aleatorios fueron generados usando la fórmula =INV.EST.NORM(ALEATORIO()), Proporcionar muestra de distribución normal estándar).

Hipótesis nula rechazado, aunque visualmente los datos se ubican bastante cerca de una línea recta.

Tomemos también como ejemplo muestra de U(-3; 3). En este caso, incluso a partir del gráfico es obvio que hipótesis nula debe ser rechazado.

Criterio Consentimiento de Pearson X 2 también confirma que hipótesis nula debe ser rechazado.



¿Te gustó el artículo? ¡Compartir con tus amigos!