Aplicación de la ley de grandes números de Chebyshev en economía. El concepto del teorema del límite central de Lyapunov.

Ley números grandes es ley central teoría de la probabilidad debido a que formula una conexión fundamental entre regularidad y aleatoriedad. En concreto, sostiene que un gran número de accidentes genera un patrón que permite predecir el curso de los acontecimientos. En su forma más general se expresa teorema de chebyshev:

Dejar ( Χ1; X2; … X norte ; ...) variables aleatorias independientes (se supone que son número infinito). Y dejemos que sus varianzas estén uniformemente acotadas (es decir, las varianzas de todas estas variables aleatorias no exceden una constante CON):

Entonces, no importa cuán pequeño sea el número positivo, se satisface la relación de probabilidad límite:

si el número de variables aleatorias es lo suficientemente grande. O, lo que es lo mismo, probabilidad

Así, el teorema de Chebyshev establece que si consideramos un número suficientemente grande norte variables aleatorias independientes ( Χ1; X2; … Xn), entonces el evento puede considerarse casi confiable (con una probabilidad cercana a la unidad) de que la desviación de la media aritmética de estas variables aleatorias de la media aritmética de sus expectativas matemáticas será de acuerdo con valor absoluto tan pequeño como quieras.

Prueba. Χ1; X2; … Xn):

(4)

; (5)

Teniendo en cuenta las condiciones (1), establecemos que

(6)

Por tanto, cuando la varianza es . Es decir, cuando la dispersión de valores de una variable aleatoria a su alrededor expectativa matemática disminuye indefinidamente. Y esto significa que cuando el valor, es decir, . O, para ser más precisos, la probabilidad de que una variable aleatoria se desvíe al menos de alguna manera de su expectativa matemática (una constante) tiende a cero. Es decir, para cualquier número positivo arbitrariamente pequeño

Entonces, según el probado teorema de Chebyshev, la media aritmética gran número variables aleatorias independientes ( Χ1; X2; … Xn), al ser una variable aleatoria, en realidad pierde el carácter de aleatoriedad y se convierte, de hecho, en una constante inmutable. Esta constante es igual a la media aritmética de las expectativas matemáticas de los valores ( Χ1; X2; … Xn). Esta es la ley de los grandes números.

Se puede dar otra prueba del teorema de Chebyshev. Para ello utilizamos la desigualdad de Chebyshev. Es válido tanto para variables aleatorias discretas como continuas y tiene valor en sí mismo. La desigualdad de Chebyshev nos permite estimar la probabilidad de que la desviación de una variable aleatoria de su expectativa matemática no exceda en valor absoluto. numero positivo. Presentemos una prueba de la desigualdad de Chebyshev para variables aleatorias discretas.



La desigualdad de Chebyshev: La probabilidad de que la desviación de una variable aleatoria X de su expectativa matemática en valor absoluto es menor que un número positivo, no menor que:

.

Prueba: Desde eventos consistentes en la implementación de desigualdades. Y , son opuestos, entonces la suma de sus probabilidades es igual a 1, es decir . De ahí la probabilidad que nos interesa. (*)

Lo encontraremos . Para esto encontremos la varianza variable aleatoria X.

Todos los términos de esta suma no son negativos. Descartemos aquellos términos para los cuales (para los términos restantes ), por lo que el importe sólo puede disminuir. Aceptemos asumir, para mayor certeza, que el k primeros términos (asumiremos que en la tabla de distribución valores posibles numerados en ese orden). De este modo,

Dado que ambos lados de la desigualdad son positivas, por lo tanto al elevarlas al cuadrado obtenemos la desigualdad equivalente . Usemos esta observación, reemplazando cada uno de los factores en la suma restante. número (en este caso la desigualdad solo puede aumentar), obtenemos. (**)

Según el teorema de la suma, la suma de las probabilidades es la probabilidad de que X tomará uno, no importa cuál, valor , y para cualquiera de ellos la desviación satisface la desigualdad . De ello se deduce que la suma expresa la probabilidad . Esto nos permite reescribir la desigualdad (**) de la siguiente manera: . (***).

sustituyamos (***) V (*) y obtenemos , que era lo que había que demostrar.

Prueba del teorema 2 de Chebyshev:

Introduzcamos una nueva variable aleatoria- media aritmética de variables aleatorias ( Χ1; X2; … Xn):

Utilizando las propiedades de expectativa matemática y dispersión, obtenemos:

; . (*)

Aplicando la desigualdad de Chebyshev a la cantidad, tenemos.

Considerando la relación (*),

Por condición se entiende . (***) Sustituyendo lado derecho(***) en desigualdad (**) tenemos

De aquí, pasando al límite en , obtenemos

Como la probabilidad no puede exceder uno, finalmente obtenemos:

Que es lo que necesitábamos demostrar.

Detengámonos en un caso particular importante del teorema de Chebyshev. Es decir, considere el caso en el que variables aleatorias independientes ( Χ1; X2; … Xn) tienen las mismas leyes de distribución y, en consecuencia, las mismas características numéricas:

(8)

Entonces para la variable aleatoria , según (5), tenemos:

(9)

La relación de probabilidad límite (7) en este caso tomará la forma:

(10)

La conclusión que sigue de (10) es gran importancia para combatir errores aleatorios al realizar varios tipos de mediciones.

Digamos, por ejemplo, que necesita medir una determinada cantidad. A. Produciremos no uno, sino varios ( norte) mediciones repetidas independientes del valor de esta cantidad. Cualquier medición es inherente a un error aleatorio asociado con la imperfección del dispositivo de medición, todo tipo de interferencias aleatorias en la medición, etc. Por lo tanto los resultados ( Χ1; X2; … Xn) mediciones secuenciales individuales del valor deseado A, en términos generales, no se darán: serán variables aleatorias. Además, con cantidades que tienen distribuciones idénticas, porque las mediciones se realizan repetidamente, es decir, a constante Condiciones externas. Luego, para la cantidad, la media aritmética de los resultados de todos. norte mediciones - se cumplirá la relación de probabilidad límite (10). Esto significa que esta media aritmética pierde el carácter de aleatoriedad, convirtiéndose en Asignificado verdadero cantidad medida. Esto, por cierto, se evidencia en las fórmulas (9), según las cuales:

(11)

Es decir, habiendo realizado un número suficientemente grande de mediciones repetidas de la cantidad deseada A, en cada uno de los cuales es posible un error de medición aleatorio, y luego, para encontrar la media aritmética de los resultados de estas mediciones, usamos la fórmula

A(12)

podemos obtener el valor y prácticamente sin errores aleatorios.

Esta conclusión es consecuencia de la ley de los grandes números. EN en este caso esta ley se manifiesta en el hecho de que al resumir los resultados de la medición en (4) errores aleatorios Las dimensiones individuales, que en principio aparecen con la misma frecuencia con un signo más y un signo menos, generalmente se anulan entre sí. Y el error restante aún se dividirá en PAG, es decir, disminuirá aún más en PAG una vez. Así que cuando valores grandes norte el valor será casi exactamente igual al valor medido A. Naturalmente, esta conclusión se utiliza ampliamente en la práctica.

Nota. En magnitud se anulan entre sí sólo errores aleatorios mediciones, es decir, errores asociados a la acción de factores aleatorios (interferencia). Pero los errores sistemáticos (permanentes), es decir, los errores inherentes a cada medición, naturalmente permanecen en . Por ejemplo, una flecha derribada (no ajustada) en un dispositivo provoca un error constante (sistemático) en cada medición y, por tanto, lo provoca en la media aritmética de los resultados de estas mediciones. Los errores sistemáticos deben eliminarse incluso antes de realizar las mediciones y no deben permitirse durante el proceso de medición.

Entonces, si α es el valor de división del dispositivo de medición, entonces todas las mediciones repetidas se realizan con una precisión de α. Pero entonces, naturalmente, la media aritmética de los resultados de todas las mediciones solo puede indicarse con una precisión de α, es decir, con una precisión determinada por la precisión del dispositivo.

Por lo tanto, no se debe pensar que, habiendo realizado un número suficientemente grande de mediciones repetidas de la cantidad A y luego encontrando la media aritmética de los resultados de estas mediciones, obtenemos exacto significado A. Lo obtendremos sólo dentro de la precisión del dispositivo de medición. E incluso entonces, si excluimos el error sistemático de medición.

Aquí hay otro importante. caso especial ley de los grandes números. Dejar x=k– el número de ocurrencias de algún evento A V PAG pruebas repetidas ( X- valor aleatorio). Y deja y – probabilidad de ocurrencia y no ocurrencia de un evento A en una sola prueba. Considere una variable aleatoria: la frecuencia relativa de ocurrencia de un evento A V PAG pruebas. Presentemos también norte variables aleatorias ( X 1, X 2, …X n), que representan el número de ocurrencias del evento. A en el primero, segundo,... PAG-ésimas pruebas. Entonces k = X 1 + X 2 +…+ X p y ocurrencia de un evento A prácticamente coincide con la probabilidad de que ocurra el evento A en una sola prueba. Esta conclusión es la base para encontrar las probabilidades de muchos eventos aleatorios, cuyas probabilidades no se pueden encontrar de otra manera (teóricamente).

Por ejemplo, supongamos que la prueba sea lanzar una moneda deformada (asimétrica) y el evento A Para este desafío, es una caída de cresta. probabilidad de evento A Por fórmula clásica o de alguna otra manera formula teorica es difícil de encontrar, porque dicha fórmula debe reflejar de alguna manera las características de la deformación de la moneda. Por tanto, el verdadero camino que conduce a la meta es uno: lanzar la moneda repetidamente (cuanto mayor sea el número de lanzamientos norte, mejor) y determinar empíricamente la frecuencia relativa de aparición del escudo de armas. Si norte es grande, entonces de acuerdo con la ley de los grandes números es posible con probabilidad alta afirmar que .

La ley de los grandes números se manifiesta en muchos fenómenos naturales y sociales.

Ejemplo 1. Como es sabido, el gas colocado en un recipiente cerrado ejerce presión sobre las paredes del recipiente. Según las leyes del estado gaseoso, a temperatura constante del gas, esta presión es constante. La presión del gas es causada por los impactos caóticos de sus moléculas individuales contra las paredes del recipiente. Las velocidades y direcciones de movimiento de todas las moléculas son diferentes, por lo tanto, las fuerzas de impacto de diferentes moléculas en las paredes del recipiente también son diferentes. Sin embargo, la presión del gas en las paredes del recipiente no está determinada por la fuerza de impacto de las moléculas individuales, sino por su promedio por la fuerza. Pero ella es como la promedio. numero enorme a pesar de todo fuerzas activas, según la ley de los grandes números, se mantendrá prácticamente sin cambios. Por tanto, la presión del gas en las paredes del recipiente permanece prácticamente sin cambios.

Ejemplo 2. Una compañía de seguros que se ocupa, por ejemplo, de seguros de automóviles, paga diferentes importes de seguro para diferentes eventos asegurados (accidentes de tráfico y accidentes de tráfico). Sin embargo, el valor promedio de este monto de seguro, como promedio de muchos diferentes norte Los importes de los seguros independientes, según la ley de los grandes números, se mantendrán prácticamente sin cambios. Puede determinarse examinando las estadísticas reales de reclamaciones de seguros. Para que una compañía de seguros evite pérdidas, la prima de seguro promedio cobrada a sus clientes debe ser mayor que la prima promedio pagada por la compañía a sus clientes. Pero esta prima no debería ser demasiado alta para que la empresa sea competitiva (para competir en atractivo con otras compañías de seguros).

Al principio del curso ya hablamos de que leyes matemáticas Las teorías de probabilidad se obtienen abstrayendo patrones estadísticos reales inherentes a fenómenos aleatorios masivos. La presencia de estos patrones está asociada precisamente con el carácter masivo de los fenómenos, es decir, con un gran número de experimentos homogéneos realizados o con un gran número de influencias aleatorias acumulativas, que en su totalidad generan una variable aleatoria que está sujeta a una ley bien definida. La propiedad de estabilidad de los fenómenos aleatorios masivos es conocida por la humanidad desde la antigüedad. Cualquiera que sea el ámbito en el que se manifieste, su esencia se reduce a lo siguiente: características específicas cada fenómeno aleatorio individual casi no tiene efecto sobre el resultado promedio de masas y fenómenos similares; las desviaciones aleatorias del promedio, inevitables en cada fenómeno individual, se anulan mutuamente, se nivelan, se nivelan en la masa. Es esta estabilidad de los promedios la que representa el contenido físico de la "ley de los grandes números", entendida en el sentido amplio de la palabra: con un número muy grande de fenómenos aleatorios, su resultado promedio prácticamente deja de ser aleatorio y puede predecirse. con un alto grado de certeza.

EN en el sentido estricto la palabra "ley de los grandes números" en la teoría de la probabilidad significa una serie teoremas matemáticos, en cada uno de los cuales, para determinadas condiciones, se establece el hecho de que las características medias de un gran número de experimentos se acercan a determinadas constantes.

En 2.3 ya formulamos el más simple de estos teoremas: el teorema de J. Bernoulli. Ella afirma que con una gran cantidad de experimentos, la frecuencia de un evento se acerca (más precisamente, converge en probabilidad) a la probabilidad de este evento. Con otros, más formas generales Introduciremos la ley de los grandes números en este capítulo. Todos ellos establecen el hecho y las condiciones de convergencia en la probabilidad de determinadas variables aleatorias a variables constantes y no aleatorias.

La ley de los grandes números juega un papel importante en aplicaciones prácticas teoría de probabilidad. La propiedad de las variables aleatorias, bajo ciertas condiciones, de comportarse casi como no aleatorias permite operar con confianza con estas cantidades y predecir los resultados de fenómenos aleatorios masivos con casi total certeza.

Las posibilidades de tales predicciones en el campo de los fenómenos aleatorios masivos se amplían aún más con la presencia de otro grupo de teoremas límite, que no se refieren a los valores límite de variables aleatorias, sino a las leyes límite de distribución. Se trata de sobre un grupo de teoremas conocido como "teorema del límite central". Ya hemos dicho que cuando se suma un número suficientemente grande de variables aleatorias, la ley de distribución de la suma se acerca indefinidamente a la normal, sujeto a ciertas condiciones. Estas condiciones, que pueden formularse matemáticamente de diversas maneras (en una forma más o menos general), se reducen esencialmente al requisito de que la influencia sobre la suma de los términos individuales sea uniformemente pequeña, es decir, que la suma no incluya miembros que dominan claramente sobre la totalidad el resto según su influencia en la dispersión del importe. Las diversas formas del teorema del límite central difieren entre sí en las condiciones para las cuales se establece esta propiedad limitante de la suma de variables aleatorias.

Varias formas de la ley de los grandes números junto con diversas formas El teorema del límite central forma un conjunto de los llamados teoremas de límite de la teoría de la probabilidad. Teoremas de límite permitirán no sólo hacer pronósticos científicos en el campo de los fenómenos aleatorios, sino también evaluar la precisión de estos pronósticos.

En este capítulo consideraremos sólo algunos de los más formas simples teoremas de límite. Primero, consideraremos los teoremas relacionados con el grupo de la “ley de los grandes números”, luego los teoremas relacionados con el grupo del “teorema del límite central”.

()

El significado de la ley de los grandes números de Chebyshev es el siguiente. Mientras que una variable aleatoria individual puede tomar valores muy alejados de su expectativa matemática, la media aritmética de un gran número de variables aleatorias, con una probabilidad cercana a la unidad, toma un valor que difiere poco de la media aritmética de sus expectativas matemáticas.
Un caso especial de la ley de los grandes números de Chebyshev. Dejar - una secuencia de variables aleatorias independientes por pares que tienen varianzas limitadas en conjunto, es decir y las mismas expectativas matemáticas . Entonces, sea lo que sea , la relación es válida

Esto se deriva directamente de la fórmula (), ya que

Comentario. Dicen que una variable aleatoria converge en probabilidad al numero A, si la probabilidad de desigualdad es arbitrariamente pequeña al aumentar norte se acerca a la unidad sin límite. La convergencia en probabilidad no significa eso. De hecho, en el último caso la desigualdad es válida para todos los valores suficientemente grandes norte. En el caso de la convergencia en probabilidad, esta desigualdad para valores individuales arbitrariamente grandes norte Tal vez sin ejecutar. Sin embargo, el hecho de no satisfacer la desigualdad para valores grandes norte Hay un evento muy raro (improbable). Teniendo esto en cuenta, un caso especial de la ley de los grandes números de Chebyshev se puede formular de la siguiente manera.
Significado aritmetico variables aleatorias independientes por pares , teniendo varianzas conjuntamente limitadas y expectativas matemáticas idénticas , converge en probabilidad a a.
Expliquemos el significado de un caso especial de la ley de los grandes números de Chebyshev. Supongamos que queremos encontrar el valor verdadero. A alguno cantidad física(por ejemplo, el tamaño de alguna pieza). Para ello realizaremos una serie de medidas independientes entre sí. Cada medición va acompañada de algún error (). Por lo tanto, cada posible resultado de medición es una variable aleatoria (índice i- número de medida). Supongamos que en cada medición no hay error sistemático, es decir, desviación del valor real. A de la cantidad medida en ambas direcciones son igualmente probables. En este caso, las expectativas matemáticas de todas las variables aleatorias son iguales e iguales al valor medido. A, es decir.
Supongamos finalmente que las mediciones se realizan con cierta precisión garantizada. Esto significa que para todas las medidas. Por lo tanto, estamos en las condiciones de la ley de los grandes números de Chebyshev y, por lo tanto, si el número de dimensiones es lo suficientemente grande, entonces con certeza práctica podemos decir que sea cual sea, el promedio resultados aritméticos la medición difiere del valor real A menos que

1. /PB-MS-theory/Conferencias-1(4 páginas).doc
2. /PB-MS-theory/Lectures-2(4 páginas).doc
3. /PB-MS-teoría/Conferencias-3(4p.).doc
4. /PB-MS-teoría/Conferencias-4(4p.).doc
5. /PB-MS-theory/Tabla de contenidos.doc
Conferencia 1
Tema 19. Contraste estadístico de hipótesis estadísticas. Principios generales de la prueba de hipótesis. Conceptos de hipótesis estadística (simple y compleja), hipótesis nula y competidora,
Ley de los grandes números. La desigualdad de Chebyshev. Teoremas de Chebyshev y Bernoulli
Conferencia Características numéricas básicas de variables aleatorias discretas y continuas: expectativa matemática, dispersión y desviación estándar. Sus propiedades y ejemplos.
Tema de la conferencia sobre teoría de la probabilidad. Eventos aleatorios. Álgebra de eventos. Frecuencia relativa y probabilidad de un evento aleatorio. Grupo completo de eventos. Definición clásica de probabilidad. Propiedades básicas de la probabilidad. Fórmulas básicas de combinatoria.

Conferencia 13.

Ley de los grandes números. La desigualdad de Chebyshev. Teoremas de Chebyshev y Bernoulli.
El estudio de patrones estadísticos permitió establecer que, bajo determinadas condiciones, el comportamiento general gran cantidad las variables aleatorias casi pierden su carácter aleatorio y se vuelven naturales (en otras palabras, las desviaciones aleatorias de algún comportamiento promedio se anulan entre sí). En particular, si la influencia sobre la suma de los términos individuales es uniformemente pequeña, la ley de distribución de la suma se aproxima a la normal. formulación matemática Esta afirmación se da en un grupo de teoremas llamados ley de los grandes números.

La desigualdad de Chebyshev.
La desigualdad de Chebyshev, utilizada para demostrar otros teoremas, es válida tanto para variables aleatorias continuas como discretas. Demostrémoslo para variables aleatorias discretas.
Teorema 13.1 (desigualdad de Chebyshev). pag( | XMETRO(X)| D( X) / ε². (13.1)

Prueba. Dejar X viene dada por la serie de distribución


X

X 1

X 2



X PAG

R

R 1

R 2



R PAG

Desde los acontecimientos | XMETRO(X)| X METRO(X)| ≥ ε son opuestos, entonces R (|XMETRO(X)| pag(| XMETRO(X)| ≥ ε) = 1, por lo tanto, R (|XMETRO(X)| pag(| XMETRO(X)| ≥ε). Lo encontraremos R (|XMETRO(X)| ≥ ε).

D(X) = (X 1 – METRO(X))² pag 1 + (X 2 – METRO(X))² pag 2 + … + (X norte METRO(X))² pag norte . Excluyamos de esta suma aquellos términos para los cuales | XMETRO(X)| k términos. Entonces

D(X) ≥ (X k + 1 – METRO(X))² pag k + 1 + (X k + 2 – METRO(X))² pag k +2 + … + (X norte METRO(X))² pag norte ≥ ε² ( pag k + 1 + pag k + 2 + … + pag norte).

Tenga en cuenta que pag k + 1 + pag k + 2 + … + pag norte existe la posibilidad de que | XMETRO(X)| ≥ ε, ya que esta es la suma de las probabilidades de todos los valores posibles X, para lo cual esta desigualdad es cierta. Por eso, D(X) ≥ ε² R(|XMETRO(X)| ≥ ε), o R (|XMETRO(X)| ≥ ε) ≤ D(X) / ε². Entonces la probabilidad del evento opuesto pag( | XMETRO(X)| D( X) / ε², que es lo que faltaba demostrar.
Teoremas de Chebyshev y Bernoulli.

Teorema 13.2 (teorema de Chebyshev). Si X 1 , X 2 ,…, X PAG– variables aleatorias independientes por pares cuyas varianzas están uniformemente limitadas ( D(X i) ≤ C), entonces para un número arbitrariamente pequeño ε la probabilidad de desigualdad

será arbitrariamente cercano a 1 si el número de variables aleatorias es lo suficientemente grande.

Comentario. En otras palabras, si se cumplen estas condiciones

Prueba. Considere una nueva variable aleatoria
y encuentre su expectativa matemática. Usando las propiedades de la expectativa matemática, obtenemos que . Aplicar para Desigualdad de Chebyshev: Dado que las variables aleatorias consideradas son independientes, entonces, teniendo en cuenta las condiciones del teorema, tenemos: Usando este resultado, presentamos la desigualdad anterior en la forma:

Vayamos al límite en
: Dado que la probabilidad no puede ser mayor que 1, se puede afirmar que

El teorema está demostrado.
Consecuencia.

Si X 1 , X 2 , …, X PAG– variables aleatorias independientes por pares con varianzas uniformemente limitadas, que tienen la misma expectativa matemática igual a A, entonces para cualquier ε > 0 arbitrariamente pequeño la probabilidad de desigualdad
será tan cercano a 1 como se desee si el número de variables aleatorias es lo suficientemente grande. En otras palabras,
.

Conclusión: la media aritmética de un número suficientemente grande de variables aleatorias toma valores cercanos a la suma de sus expectativas matemáticas, es decir, pierde el carácter de variable aleatoria. Por ejemplo, si se realiza una serie de mediciones de cualquier cantidad física, y: a) el resultado de cada medición no depende de los resultados de las demás, es decir, todos los resultados son variables aleatorias independientes por pares; b) las mediciones se realizan sin errores sistemáticos (sus expectativas matemáticas son iguales entre sí e iguales al valor real A cantidad medida); c) se garantiza una cierta precisión de las mediciones, por lo que las dispersiones de las variables aleatorias consideradas están uniformemente limitadas; luego, con un número suficientemente grande de mediciones, su media aritmética resultará arbitrariamente cercana al valor real de la cantidad medida.
Teorema de Bernoulli.
Teorema 13.3 (teorema de Bernoulli). Si en cada uno de PAG probabilidad de experimentos independientes R ocurrencia de un evento A es constante, entonces con un número suficientemente grande de pruebas la probabilidad de que el módulo de desviación de la frecuencia relativa de ocurrencias A V PAG experimentos de R será tan pequeño como se desee, tan cerca de 1 como se desee:

(13.2)

Prueba. Introduzcamos variables aleatorias X 1 , X 2 , …, X PAG, Dónde X i número de apariciones A V i-m experiencia. Donde X i sólo puede tomar dos valores: 1 (con probabilidad R) y 0 (con probabilidad q = 1 – pag). Además, las variables aleatorias consideradas son independientes por pares y sus varianzas están uniformemente acotadas (ya que D(X i) = pq, pag + q = 1, de donde pq ≤¼). En consecuencia, el teorema de Chebyshev se les puede aplicar cuando METRO i = pag:

.

Pero
, porque X i toma un valor de 1 cuando aparece A V esta experiencia, y un valor igual a 0 si A No pasó. De este modo,

Q.E.D.
Comentario. Del teorema de Bernoulli no lo hagas, Qué
Se trata sólo de probabilidades que la diferencia entre la frecuencia relativa y la probabilidad absoluta puede llegar a ser arbitrariamente pequeña. La diferencia es la siguiente: con la convergencia habitual considerada en Análisis matemático, para todos PAG, partiendo de algún valor, la desigualdad
siempre ejecutado; en nuestro caso puede haber tales valores PAG, para lo cual esta desigualdad no es cierta. Este tipo de convergencia se llama convergencia en probabilidad.

Conferencia 14.

Teorema del límite central de Lyapunov. Teorema del límite de Moivre-Laplace.
La ley de los grandes números no examina la forma. ley limite distribución de la suma de variables aleatorias. Esta pregunta se considera en un grupo de teoremas llamados teorema del límite central. Argumentan que la ley de distribución de una suma de variables aleatorias, cada una de las cuales puede tener distribuciones diferentes, se aproxima a la normal cuando el número de términos es suficientemente grande. Esto explica la importancia de la ley normal para aplicaciones prácticas.
Funciones características.

Para demostrar el teorema del límite central se utiliza el método de las funciones características.
Definición 14.1.Función característica variable aleatoria X función llamada

gramo(t) = METRO (mi itX ) (14.1)

De este modo, gramo (t) representa la expectativa matemática de alguna variable aleatoria compleja Ud. = mi itX, asociado al valor X. En particular, si X- variable aleatoria discreta, dado cerca distribución, entonces

. (14.2)

Para una variable aleatoria continua con densidad de distribución F(X)

(14.3)

Ejemplo 1. Deja X– número de 6 puntos en un tiro dado. Luego según la fórmula (14.2) gramo(t) =

Ejemplo 2. Encontremos la función característica para una variable aleatoria continua normalizada distribuida sobre ley normal
. Según la fórmula (14.3) (usamos la fórmula
y qué i² = -1).

Propiedades de funciones características.
1. Función F(X) se puede encontrar en función conocida gramo(t) según la fórmula

(14.4)

(la transformación (14.3) se llama Transformada de Fourier, y transformación (14.4) – transformación inversa Fourier).

2. Si las variables aleatorias X Y Y relacionado por la relación Y = hacha, entonces sus funciones características están relacionadas por la relación

gramo y (t) = gramo X (en). (14.5)

3. La función característica de la suma de variables aleatorias independientes es igual al producto de las funciones características de los términos: para

(14.6)
Teorema 14.1 (teorema del límite central para términos distribuidos idénticamente). Si X 1 , X 2 ,…, X PAG,… - variables aleatorias independientes con la misma ley distribución, expectativa matemática t y varianza σ 2, luego con aumento ilimitado PAG ley de distribución de suma
se acerca infinitamente a lo normal.

Prueba.

Demostremos el teorema de variables aleatorias continuas. X 1 , X 2 ,…, X PAG(prueba de cantidades discretas similarmente). Según las condiciones del teorema, las funciones características de los términos son idénticas:
Entonces, por la propiedad 3, la función característica de la suma Y norte voluntad
Ampliemos la función. gramo X (t) en la serie Maclaurin:

, Dónde
en
.

Asumiendo que t= 0 (es decir, mover el origen al punto t), Eso
.

(porque t= 0). Sustituyendo los resultados obtenidos en la fórmula de Maclaurin, encontramos que

.

Considere una nueva variable aleatoria
, diferente de Y norte en que su dispersión para cualquier PAG es igual a 0. Desde Y norte Y z norte conectado dependencia lineal, basta demostrar que z norte distribuido según la ley normal, o, lo que es lo mismo, que su función característica se acerque función característica ley normal (ver ejemplo 2). Por la propiedad de las funciones características.

Tomemos el logaritmo de la expresión resultante:

Dónde

vamos a descomponernos
en una fila en PAG→ ∞, limitándonos a dos términos del desarrollo, entonces ln(1 - k) ≈ - k. De aquí

Donde el último límite es 0, ya que en . Por eso,
, eso es
- función característica distribución normal. Entonces, con un aumento ilimitado en el número de términos, la función característica de la cantidad z norte se acerca ilimitadamente a la función característica de la ley normal; por lo tanto, la ley de distribución z norte (Y Y norte) se acerca a lo normal sin límite. El teorema está demostrado.

A.M. Lyapunov demostró el teorema del límite central para condiciones más vista general:
Teorema 14.2 (teorema de Lyapunov). Si la variable aleatoria X es la suma de un número muy grande de variables aleatorias mutuamente independientes para las cuales se cumple la siguiente condición:

, (14.7)

Dónde b k – tercer momento central absoluto de magnitud X A, A D k es su varianza, entonces X tiene una distribución cercana a la normal (la condición de Lyapunov significa que la influencia de cada término en la suma es insignificante).
En la práctica, se puede utilizar el teorema del límite central durante suficiente tiempo. pequeña cantidad términos, ya que los cálculos probabilísticos requieren una precisión relativamente baja. La experiencia demuestra que para una suma de incluso diez términos o menos, la ley de su distribución puede sustituirse por una normal.

Un caso especial del teorema del límite central para variables aleatorias discretas es el teorema de Moivre-Laplace.

Teorema 14.3 (teorema de Moivre-Laplace). Si se produce PAG experimentos independientes, en cada uno de los cuales un evento A aparece con probabilidad R, entonces la siguiente relación es válida:

(14.8)

Dónde Y – número de ocurrencias del evento A V PAG experimentos, q = 1 – pag.

Prueba.

Supondremos que
, Dónde X i– número de ocurrencias del evento A V i-m experiencia. Entonces la variable aleatoria
(ver Teorema 14.1) puede considerarse normalmente distribuido y normalizado, por lo tanto, la probabilidad de caer en el intervalo (α, β) se puede encontrar mediante la fórmula;

Porque el Y Tiene Distribución binomial, . Entonces
. Sustituyendo esta expresión en la fórmula anterior, obtenemos la igualdad (14.8).

Consecuencia.

Bajo las condiciones del teorema de Moivre-Laplace, la probabilidad
que el evento A aparecerá en PAG experimentos exactamente k veces, con una gran cantidad de experimentos se puede encontrar usando la fórmula:

(14.9)

Dónde
, A
(los valores de esta función se dan en tablas especiales).

Ejemplo 3. Encuentre la probabilidad de que con 100 lanzamientos de moneda, el número de escudos de armas esté en el rango de 40 a 60.

Apliquemos la fórmula (14.8), teniendo en cuenta que PAG= 0,5. Entonces etc.= 100·0.5 = 50, Entonces, si
Por eso,

Ejemplo 4. En las condiciones del ejemplo anterior, encuentre la probabilidad de que aparezcan 45 escudos.

Lo encontraremos
, Entonces

Conferencia 15.

Conceptos básicos estadística matemática. Población y muestra. Series de variación, series estadísticas. Muestra agrupada. Series estadísticas agrupadas. Polígono de frecuencia. Función de distribución de muestra e histograma.
La estadística matemática se ocupa del establecimiento de patrones que gobiernan la masa. fenómenos aleatorios, basado en el procesamiento de datos estadísticos obtenidos como resultado de las observaciones. Las dos tareas principales de la estadística matemática son:

Determinar cómo recopilar y agrupar estas estadísticas;

Desarrollo de métodos de análisis de los datos obtenidos en función de los objetivos del estudio, que incluyen:

a) evaluación de la probabilidad desconocida de un evento; estimación de función de distribución desconocida; estimación de parámetros de distribución, cuyo tipo se conoce; evaluación de la dependencia de otras variables aleatorias, etc.;

b) comprobar hipótesis estadísticas sobre la vista distribución desconocida o sobre los valores de los parámetros de una distribución conocida.

Para resolver estos problemas, debe elegir entre población grande objetos homogéneos Cantidad limitada objetos, a partir de los resultados del estudio de los cuales es posible hacer una predicción sobre las características estudiadas de estos objetos.

Definamos los conceptos básicos de la estadística matemática.

Población – todo el conjunto de objetos disponibles.

Muestra– un conjunto de objetos seleccionados al azar de población.

Tamaño de la poblacionnorte y tamaño de la muestranorte – el número de objetos de la población considerada.

Tipos de muestreo:

Repetido– cada objeto seleccionado se devuelve a la población general antes de seleccionar el siguiente;

Repetible– el objeto seleccionado no se devuelve a la población general.
Comentario. Para poder sacar conclusiones del estudio de la muestra sobre el comportamiento de la característica de la población general que nos interesa, es necesario que la muestra represente correctamente las proporciones de la población general, es decir, que sea representante(representante). Teniendo en cuenta la ley de los grandes números, se puede argumentar que esta condición se cumple si cada objeto se selecciona al azar y para cualquier objeto la probabilidad de ser incluido en la muestra es la misma.
Procesamiento primario de resultados.

Sea la variable aleatoria que nos interesa X toma el valor en la muestra X 1 PAG 1 vez, X 2 – PAG 2 veces, …, X A - PAG A veces, y
Dónde PAG- tamaño de la muestra. Entonces los valores observados de la variable aleatoria. X 1 , X 2 ,…, X A llamado opciones, A PAG 1 , PAG 2 ,…, PAG Afrecuencias. Si dividimos cada frecuencia por el tamaño de la muestra, obtenemos frecuencias relativas
Una secuencia de opciones escritas en orden ascendente se llama variacional al lado, y una lista de opciones y sus correspondientes frecuencias o frecuencias relativasserie estadística:


X i

X 1

X 2



X k

norte i

norte 1

norte 2



norte k

w i

w 1

w 2



w k

Al realizar 20 series de 10 lanzamientos de dados, el número de seis puntos resultó ser 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2, 2,3,4,1.Compongamos serie de variación: 0,1,2,3,4,5. Serie estadística para frecuencias absolutas y relativas tiene la forma:


X i

0

1

2

3

4

5

norte i

3

6

5

3

2

1

w i

0,15

0,3

0,25

0,15

0,1

0,05

Si se estudia alguna característica continua, entonces la serie de variación puede consistir en una cantidad muy grande de números. En este caso es más conveniente utilizar muestra agrupada. Para obtenerlo, el intervalo que contiene todos los valores observados del atributo se divide en varios intervalos parciales iguales de longitud. h, y luego encontrar para cada intervalo parcial norte i– la suma de frecuencias de la variante incluida en iº intervalo. La tabla compilada a partir de estos resultados se llama agrupados estadísticamente cerca :

Polígono de frecuencia. Función de distribución de muestra e histograma.
Para visualizar el comportamiento de la variable aleatoria en estudio en la muestra, se pueden construir varios gráficos. Uno de ellos - rango de frecuencia: una línea discontinua cuyos segmentos conectan puntos con coordenadas ( X 1 , norte 1), (X 2 , norte 2),…, (X k , norte k), Dónde X i se trazan en el eje x, y norte i – en el eje de ordenadas. Si se trazan valores no absolutos en el eje de ordenadas ( norte i), y relativo ( w i) frecuencia, obtenemos polígono de frecuencia relativa(Figura 1) . Arroz. 1.

Por analogía con la función de distribución de una variable aleatoria, se puede especificar una determinada función, la frecuencia relativa del evento. X X.

Definición 15.1.Función de distribución de muestra (empírica) llamar a la función F* (X), definiendo para cada valor X frecuencia relativa del evento X X. De este modo,

, (15.1)

Dónde PAG X– número de opciones, más pequeño X, PAG- tamaño de la muestra.
Comentario. A diferencia de la función de distribución empírica encontrada experimentalmente, la función de distribución F(X) de la población general se llama función teórica distribución. F(X) determina la probabilidad de un evento X X, A F* (X) – su frecuencia relativa. Para suficientemente grande PAG, como se desprende del teorema de Bernoulli, F* (X) tiende en probabilidad a F(X).

De la definición de la función de distribución empírica se desprende claramente que sus propiedades coinciden con las propiedades F(X), a saber:


  1. 0 ≤F* (X) ≤ 1.

  2. F* (X) es una función no decreciente.

  3. Si X 1 es la opción más pequeña, entonces F* (X) = 0 en XX 1; Si X A – la mejor opción, entonces F* (X) = 1 en X> X A .
Para una característica continua, se muestra una ilustración gráfica. gráfico de barras, es decir, una figura escalonada que consta de rectángulos, cuyas bases son intervalos parciales longitud h y alturas longitudes norte i / h(histograma de frecuencia) o w i / h (histograma de frecuencias relativas). En el primer caso, el área del histograma es igual al volumen de la muestra, en el segundo, a la unidad (Fig. 2). Figura 2.

Conferencia 16.

Características numéricas distribución estadística: media muestral, estimaciones de varianza, estimaciones de moda y mediana, estimaciones de momento inicial y central. Descripción estadística y calcular estimaciones de los parámetros de un vector aleatorio bidimensional.
Una de las tareas de la estadística matemática es estimar los valores de las características numéricas de la variable aleatoria en estudio utilizando la muestra disponible.

Definición 16.1.Muestra promedio llamado el promedio valores aritméticos variable aleatoria aceptada en la muestra:

, (16.1)

Dónde X i– opciones, norte i- frecuencias.

Comentario. La media muestral sirve para estimar la expectativa matemática de la variable aleatoria en estudio. La cuestión de cuán precisa es dicha estimación se discutirá más adelante.

Definición 16.2.varianza muestral llamado

, (16.2)

A desviación estándar de la muestra

(16.3)

Al igual que en la teoría de variables aleatorias, se puede demostrar que siguiente fórmula para calcular la varianza muestral:

. (16.4)

Ejemplo 1. Encuentre las características numéricas de una muestra dada por una serie estadística.


X i

2

5

7

8

norte i

3

8

7

2

Otras características de la serie de variación son:

- modaMETRO 0 – opción tener frecuencia más alta(en el ejemplo anterior METRO 0 = 5).

- medianat mi - opción, que divide la serie de variaciones en dos partes, iguales en número de opciones. Si la opción numérica es impar ( norte = 2k+ 1), entonces metro mi = X k + 1 , y por incluso norte = 2k
. En particular, en el ejemplo 1

Las estimaciones de los momentos inicial y central (los llamados momentos empíricos) se determinan de manera similar a los momentos teóricos correspondientes:

- el momento empírico inicial de ordenk llamado

. (16.5)

En particular,
, es decir, el momento empírico inicial de primer orden es igual al promedio muestral.

- momento empírico central de ordenk llamado

. (16.6)

En particular,
, es decir, el momento empírico central de segundo orden es igual a la varianza muestral.
Descripción estadística y cálculo de características.

vector aleatorio bidimensional.
En el estudio estadístico de variables aleatorias bidimensionales, la tarea principal suele ser identificar la relación entre los componentes.

Una muestra bidimensional es un conjunto de valores vectoriales aleatorios: ( X 1 , en 1), (X 2 , en 2), …, (X PAG , y PAG). Para ello se pueden determinar promedios muestrales de los componentes:

y las correspondientes varianzas muestrales y desviaciones estándar. Además, se puede calcular promedios condicionales: - media aritmética de los valores observados Y, correspondiente X=x, Y - promedio de los valores observados X, correspondiente Y = y.

Si existe una dependencia entre los componentes de una variable aleatoria bidimensional, puede tener diferente tipo: dependencia funcional si cada valor posible X coincide con un valor Y y estadístico, en el que un cambio en una cantidad conduce a un cambio en la distribución de otra. Si, como resultado de un cambio en un valor, el valor promedio de otro cambia, entonces la dependencia estadística entre ellos se llama correlación.

Conferencia 17.

Propiedades básicas de las características estadísticas de los parámetros de distribución: imparcialidad, coherencia, eficiencia. Imparcialidad y consistencia de la media muestral como estimación de la expectativa matemática. Sesgo de varianza muestral. Un ejemplo de estimador de varianza insesgado. Estimaciones asintóticamente insesgadas. Métodos para construir estimaciones: método de máxima verosimilitud, método del momento, método cuantil, método mínimos cuadrados Enfoque bayesiano de estimación.
Una vez obtenidas estimaciones estadísticas de los parámetros de distribución (media muestral, varianza muestral, etc.), es necesario asegurarse de que sirvan suficientemente como una aproximación de las características correspondientes de la población. Determinemos los requisitos que se deben cumplir.

Sea Θ* - evaluación estadística parámetro desconocido Θ distribución teórica. Extraigamos varias muestras del mismo tamaño de la población general. PAG y calcular para cada uno de ellos la estimación del parámetro Θ:
Entonces la estimación Θ* puede considerarse como una variable aleatoria que toma posibles valores. Si la expectativa matemática de Θ* no es igual al parámetro estimado, lo recibiremos al calcular las estimaciones. errores sistemáticos un signo (con exceso si METRO(Θ*) >Θ, y con desventaja si METRO(Θ*) M (Θ*) = Θ.
Definición 17.2. La estimación estadística Θ* se llama imparcial, si su expectativa matemática es igual al parámetro estimado Θ para cualquier tamaño de muestra:

METRO(Θ*) = Θ. (17.1)

Desplazado Se denomina estimación cuya expectativa matemática no es igual al parámetro estimado.

Sin embargo, la imparcialidad no es condición suficiente buena aproximación al valor real del parámetro estimado. Si, en este caso, los posibles valores de Θ* pueden desviarse significativamente del valor promedio, es decir, la dispersión de Θ* es grande, entonces el valor encontrado a partir de los datos de una muestra puede diferir significativamente del parámetro estimado. Por tanto, es necesario imponer restricciones a la dispersión.
Definición 17.2. La evaluación estadística se llama eficaz, si es para un tamaño de muestra determinado PAG tiene la menor varianza posible.
Cuando se consideran muestras grandes, las estimaciones estadísticas también están sujetas al requisito de coherencia.
Definición 17.3.Adinerado Se llama estimación estadística que, cuando PAG→∞ tiende en probabilidad al parámetro estimado (si esta estimación es insesgada, entonces será consistente si en PAG→∞ su varianza tiende a 0).
Asegurémonos de que representa una estimación insesgada de la expectativa matemática METRO(X).

La consideraremos como una variable aleatoria y X 1 , X 2 ,…, X PAG, es decir, los valores de la variable aleatoria en estudio que componen la muestra, – como variables aleatorias independientes y distribuidas idénticamente X 1 , X 2 ,…, X PAG, teniendo expectativa matemática A. De las propiedades de la expectativa matemática se deduce que

Pero, dado que cada una de las cantidades X 1 , X 2 ,…, X PAG tiene la misma distribución que la población general, A = METRO(X), eso es METRO(
) = METRO(X), que era lo que había que demostrar. La media muestral no sólo es una estimación insesgada, sino también consistente, de la expectativa matemática. Asumiendo que X 1 , X 2 ,…, X PAG tienen varianzas limitadas, entonces del teorema de Chebyshev se deduce que su media aritmética, es decir, al aumentar PAG tiende en probabilidad a la expectativa matemática A cada uno de sus valores, es decir, a METRO(X). En consecuencia, la media muestral es una estimación consistente de la expectativa matemática.

A diferencia de la media muestral, la varianza muestral es una estimación sesgada de la varianza poblacional. Se puede demostrar que

, (17.2)

Dónde D GRAMO – el valor real de la varianza poblacional. Se puede proponer otra estimación de la dispersión: varianza corregidas ² , calculado por la fórmula

. (17.3)

Esta estimación será imparcial. Coincide promedio corregido Desviación Estándar

. (17.4)

Definición 17.4. La evaluación de algún atributo se llama asintóticamente imparcial, si para muestra X 1 , X 2 , …, X PAG

, (17.5)

Dónde X– valor real de la cantidad estudiada.
Métodos para la construcción de evaluaciones.
1. Método de máxima verosimilitud.
Dejar X– variable aleatoria discreta, que como resultado PAG las pruebas tomaron valores X 1 , X 2 , …, X PAG. Supongamos que conocemos la ley de distribución de esta cantidad, determinada por el parámetro Θ, pero no sabemos valor numérico este parámetro. Encontremos su estimación puntual.

Dejar R(X i, Θ) es la probabilidad de que como resultado de la prueba el valor X tomará el valor X i. Llamemos función de probabilidad variable aleatoria discreta X función de argumento Θ, determinada por la fórmula:

l (X 1 , X 2 , …, X PAG ; Θ) = pag(X 1 ,Θ) pag(X 2 ,Θ)… pag(X norte ,Θ).

Luego, como estimación puntual del parámetro Θ, tomamos su valor Θ* = Θ( X 1 , X 2 , …, X PAG), en el que la función de verosimilitud alcanza su máximo. La estimación Θ* se llama estimación de máxima verosimilitud.

Dado que las funciones l y en l alcanzar un máximo en el mismo valor de Θ, es más conveniente buscar el máximo ln lfunción logarítmica credibilidad. Para hacer esto necesitas:


Ventajas del método de máxima verosimilitud: las estimaciones obtenidas son consistentes (aunque pueden estar sesgadas), distribuidas asintóticamente normalmente para valores grandes PAG y tienen la varianza más pequeña en comparación con otras estimaciones asintóticamente normales; si para el parámetro estimado Θ existe evaluación efectivaΘ*, entonces la ecuación de probabilidad tiene única decisiónΘ*; el método hace el uso más completo de datos muestrales y, por tanto, es especialmente útil en el caso de muestras pequeñas.

Desventaja del método de máxima verosimilitud: complejidad computacional.
Para una variable aleatoria continua con un tipo conocido de densidad de distribución F(X) y un parámetro desconocido Θ, la función de probabilidad tiene la forma:

l (X 1 , X 2 , …, X PAG ; Θ) = F(X 1 ,Θ) F(X 2 ,Θ)… F(X norte ,Θ).

La estimación de máxima verosimilitud de un parámetro desconocido se realiza de la misma forma que para una variable aleatoria discreta.
2. Método de momentos.
El método de los momentos se basa en el hecho de que los momentos empíricos inicial y central son estimaciones consistentes de los momentos teóricos inicial y central, respectivamente, por lo que podemos igualar puntos teóricos momentos empíricos correspondientes del mismo orden.

Si se especifica el tipo de densidad de distribución F(X, Θ), determinado por un parámetro desconocido Θ, entonces para estimar este parámetro es suficiente tener una ecuación. Por ejemplo, se puede equiparar momentos iniciales primer orden:

,

obteniendo así una ecuación para determinar Θ. Su solución Θ* será una estimación puntual del parámetro, que es función de la media muestral y, por tanto, de la variante muestral:

Θ = ψ ( X 1 , X 2 , …, X PAG).

Si especies conocidas densidad de distribución F(X, Θ 1, Θ 2) está determinado por dos parámetros desconocidos Θ 1 y Θ 2, entonces es necesario crear dos ecuaciones, por ejemplo

v 1 = METRO 1 , µ 2 = t 2 .

De aquí
- un sistema de dos ecuaciones con dos incógnitas Θ 1 y Θ 2. Sus soluciones serán estimaciones puntuales Θ 1 * y Θ 2 * - funciones de la opción de muestreo:

Θ 1 = ψ 1 ( X 1 , X 2 , …, X PAG),

Θ 2 = ψ 2 ( X 1 , X 2 , …, X PAG).
3. Método de mínimos cuadrados.

Si necesita estimar la dependencia de cantidades. en Y X, y se conoce la forma de la función que los conecta, pero se desconocen los valores de los coeficientes incluidos en ella; sus valores se pueden estimar a partir de la muestra disponible utilizando el método de mínimos cuadrados; Para ello la función en = φ ( X) se elige de modo que la suma de las desviaciones al cuadrado de los valores observados en 1 , en 2 ,…, en PAG de φ( X i) fue mínimo:

En este caso es necesario encontrar punto estacionario funciones φ( X; a, b, C), es decir, resolver el sistema:

(la solución, por supuesto, sólo es posible si se sabe tipo específico funciones φ).

Consideremos como ejemplo la selección de parámetros. función lineal método de mínimos cuadrados.

Para evaluar los parámetros A Y b en función y = hacha + b, lo encontraremos
Entonces
. De aquí
. Dividiendo ambas ecuaciones resultantes por PAG y recordando las definiciones de momentos empíricos, podemos obtener expresiones para A Y b como:

. Por lo tanto, la conexión entre X Y en se puede especificar en la forma:


4. Enfoque bayesiano para la obtención de estimaciones.
Dejar ( Y, X) – vector aleatorio cuya densidad se conoce R(en|X) distribución condicional Y en cada valor X=x. Si el experimento da como resultado sólo valores Y, y los valores correspondientes X desconocido, entonces estimar algunos función dada φ( X) como su valor aproximado, se propone buscar la expectativa matemática condicional METRO (φ‌‌( X)‌‌‌‌‌‌|Y), calculado por la fórmula:

, Dónde , R(X X, q(y) – densidad de distribución incondicional Y. Un problema sólo puede resolverse cuando se sabe R(X). A veces, sin embargo, es posible construir una estimación consistente para q(y), dependiendo únicamente de los valores obtenidos en la muestra Y.

Conferencia 18.

Estimación de intervalos de parámetros desconocidos. Precisión de estimación, probabilidad de confianza(confiabilidad), intervalo de confianza. Construcción de intervalos de confianza para estimar la expectativa matemática de una distribución normal con varianza conocida y desconocida. Intervalos de confianza para estimar la desviación estándar de una distribución normal.
Al muestrear un volumen pequeño punto estimado puede diferir significativamente del parámetro estimado, lo que conduce a errores graves. Por lo tanto, en este caso es mejor utilizar estimaciones de intervalo , es decir, indicar el intervalo en el que probabilidad dada el valor real del parámetro estimado cae. Por supuesto, cuanto más corta sea la duración de este intervalo, más precisa será la estimación del parámetro. Por tanto, si la desigualdad | Θ* - Θ | 0 caracteriza precisión de la estimación(cuanto menor sea δ, más precisa será la estimación). Pero métodos de estadística permítanos decir sólo que esta desigualdad se satisface con cierta probabilidad.

Definición 18.1.Fiabilidad (probabilidad de confianza) estimación Θ* del parámetro Θ es la probabilidad γ de que se cumpla la desigualdad | Θ* - Θ |
pag (Θ* - δ
Por tanto, γ es la probabilidad de que Θ caiga en el intervalo (Θ* - δ, Θ* + δ).

Definición 18.2.Confiable se llama el intervalo en el que cae parámetro desconocido con una confiabilidad dada γ.
Construcción de intervalos de confianza.
1. Intervalo de confianza para estimar la expectativa matemática de una distribución normal con varianza conocida.

Dejemos que la variable aleatoria en estudio X se distribuye según la ley normal con un cuadrado medio conocido σ, y se requiere estimar su expectativa matemática con base en el valor de la media muestral A. Consideraremos la media muestral como una variable aleatoria. y los valores son la opción de muestra X 1 , X 2 ,…, X PAG como variables aleatorias independientes distribuidas idénticamente X 1 , X 2 ,…, X PAG, cada uno de los cuales tiene una expectativa matemática A y desviación estándar σ. Donde METRO() = A,
(utilizamos las propiedades de expectativa matemática y dispersión de la suma de variables aleatorias independientes). Estimemos la probabilidad de la desigualdad.
. Apliquemos la fórmula para la probabilidad de que una variable aleatoria distribuida normalmente caiga en un intervalo dado:

R (
) = 2Ф
. Entonces, teniendo en cuenta el hecho de que, R() = 2F
=

2F( t), Dónde
. De aquí
, y la igualdad anterior se puede reescribir de la siguiente manera:

. (18.1)

Entonces, el valor de la expectativa matemática A con probabilidad (confiabilidad) γ cae en el intervalo
, donde el valor t se determina a partir de las tablas de la función de Laplace de modo que la igualdad 2Ф( t) = γ.
Ejemplo. Encontremos el intervalo de confianza para la expectativa matemática de una variable aleatoria distribuida normalmente si el tamaño de la muestra PAG = 49,
σ = 1,4 y probabilidad de confianza γ = 0,9.

definamos t, en el cual Ф( t) = 0,9:2 = 0,45: t= 1,645. Entonces

, o 2,471 a a con una confiabilidad de 0,9.
2. Intervalo de confianza para estimar la expectativa matemática de una distribución normal con varianza desconocida.

Si se sabe que la variable aleatoria en estudio X distribuidos según la ley normal con una desviación estándar desconocida, luego buscar intervalo de confianza para su expectativa matemática, construimos una nueva variable aleatoria

, (18.2)

Dónde - promedio de la muestra, s– varianza corregida, PAG- tamaño de la muestra. Esta variable aleatoria, cuyos posibles valores se denotarán por t, tiene una distribución de Estudiante (ver Clase 12) con k = norte– 1 grados de libertad.

Desde la densidad de distribución de estudiantes
, Dónde
, no depende explícitamente de A y σ, puedes establecer la probabilidad de que caiga en un cierto intervalo (- t γ , t γ ), teniendo en cuenta la uniformidad de la densidad de distribución, de la siguiente manera:
. De aquí obtenemos:

(18.3)

Así, se obtuvo un intervalo de confianza para A, Dónde t γ se puede encontrar en la tabla correspondiente para cada caso PAG y γ.

Ejemplo. Deje que el tamaño de la muestra PAG = 25, = 3, s= 1,5. Encontremos el intervalo de confianza para A en γ = 0,99. De la tabla encontramos que t γ (PAG= 25, γ = 0,99) = 2,797. Entonces
, o 2,161a con una probabilidad de 0,99.
3. Intervalos de confianza para estimar la desviación estándar de una distribución normal.

Buscaremos un intervalo de confianza de la forma ( s – δ, s), Dónde s es la desviación estándar muestral corregida, y para δ se cumple la siguiente condición: pag (|σ – s|
Escribamos esta desigualdad en la forma:
o, designando
,

Consideremos la variable aleatoria χ, determinada por la fórmula

,

que se distribuye según la ley del chi-cuadrado con PAG-1 grados de libertad (ver lección 12). Su densidad de distribución.

no depende del parámetro estimado σ, sino que depende sólo del tamaño de la muestra PAG. Transformemos la desigualdad (18.4) para que tome la forma χ 1 Supongamos que q

,

o, después de multiplicar por
,
. Por eso,
. Entonces
Hay tablas para la distribución chi-cuadrado en las que puedes encontrar q según lo dado PAG y γ sin resolver esta ecuación. Así, habiendo calculado el valor de la muestra s y determinar el valor de la tabla q, podemos encontrar el intervalo de confianza (18.4), en el que el valor σ cae con una probabilidad dada γ.
Comentario. Si q> 1, entonces, teniendo en cuenta la condición σ > 0, el intervalo de confianza para σ tendrá límites

. (18.5)

Dejar PAG = 20, s= 1,3. Encontremos el intervalo de confianza para σ para una confiabilidad dada γ = 0,95. De la tabla correspondiente encontramos q (norte= 20, γ = 0,95) = 0,37. Por tanto, los límites del intervalo de confianza son: 1,3(1-0,37) = 0,819 y 1,3(1+0,37) = 1,781. Entonces, 0,819



¿Te gustó el artículo? ¡Compartir con tus amigos!