Variables aleatorias distribuidas idénticamente. Biblioteca Abierta - biblioteca abierta de información educativa

para resolver muchos problemas prácticos es necesario conocer el conjunto de condiciones por las cuales el resultado del impacto acumulativo gran cantidad Los factores aleatorios son casi independientes del azar. Estas condiciones se describen en varios teoremas llamados nombre común ley grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es éxito o fracaso. Por tanto, Sn es la suma de n variables aleatorias mutuamente independientes, cada una de las cuales toma los valores 1 y 0 con probabilidades p y q.

La forma más simple de la ley de los grandes números es el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todos los intentos, entonces, a medida que aumenta el número de intentos, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatorio.

teorema de poisson establece que la frecuencia de un evento en una serie pruebas independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

Central teorema del límite explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma gran número variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

Teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y desde variables aleatorias siempre se generan numero infinito razones y la mayoría de las veces ninguna de ellas tiene una dispersión comparable a la dispersión de la propia variable aleatoria, entonces la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a la ley de distribución normal.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un cierto numero dado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce, sólo su expectativa matemática y dispersión.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 la desigualdad es verdadera, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

teorema de bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces para cualquier s > 0 es cierto.

Teorema de Lyapunov. Sean s 1, s 2,…, s n,…- secuencia ilimitada variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos.

Entonces = Ф(b) - Ф(a) para cualquier números reales a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. En cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos de un valor especificado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () -- F () (1.3)

Aquí F (x) -- función normal Yo distribuyo. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un caso mucho más teorema general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que. Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a más caso general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos durante el k-ésimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3,5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número medio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn -- 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en población,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N/N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los grandes números establece que para un número suficientemente grande muestra aleatoria su media probablemente será cercana a, es decir, la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación Ф(x) - Ф(-- x) = 0,99 es igual a x = 2,57 ..., y por tanto n debe ser tal que 2,57 o n > 660. Una estimación preliminar cuidadosa permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k;)). Entonces Sn tiene una distribución de Poisson con media y varianza iguales a n.

Al escribir en lugar de n, concluimos que para n

La suma se realiza sobre todos los k desde 0 hasta. Ph-la (1.5) también se cumple de forma arbitraria.

Trabajo de curso

sobre el tema: "Leyes de los grandes números"


Variables aleatorias distribuidas idénticamente

Para resolver muchos problemas prácticos, es necesario conocer un conjunto de condiciones por las cuales el resultado de la influencia combinada de un gran número de factores aleatorios es casi independiente del azar. Estas condiciones se describen en varios teoremas, denominados colectivamente ley de los grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es un éxito o un fracaso. Por tanto, Sn es la suma de n variables aleatorias mutuamente independientes, cada una de las cuales toma los valores 1 y 0 con probabilidades p y q.

La forma más simple de la ley de los grandes números es el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todos los intentos, entonces, a medida que aumenta el número de intentos, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatorio.

El teorema de Poisson establece que la frecuencia de un evento en una serie de ensayos independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

El teorema del límite central explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

El teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y dado que las variables aleatorias siempre se generan por un número infinito de causas y, en la mayoría de los casos, ninguna de ellas tiene una dispersión comparable a la dispersión de la propia variable aleatoria, la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a la ley de distribución normal.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un cierto número especificado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce; sólo se conocen su expectativa matemática y su varianza.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 la desigualdad es verdadera, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

Teorema de Bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces, para cualquier s > 0, .

Teorema de Lyapunov. Sea s 1, s 2,…, s n,… una secuencia ilimitada de variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos , , , .

Entonces = Ф(b) - Ф(a) para cualquier número real a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. En cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos que un valor dado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () - F () (1.3)

Aquí Ф(х) es la función de distribución normal. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un teorema mucho más general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que . Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a un caso más general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos durante el k-ésimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3.5,

a D( k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número medio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() - Ф(- ). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф( 0)- Ф(- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en la población general,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N /N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los números grandes establece que para una muestra aleatoria suficientemente grande, es probable que la media esté cerca de , es decir, la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación F(x) - F(- x) = 0,99 es x = 2,57..., y por tanto n debe ser tal que 2,57 o n > 660. Una estimación preliminar cuidadosa permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k; )). Entonces Sn tiene una distribución de Poisson con media y varianza iguales a n.

Escribiendo en lugar de n, concluimos que para n


La suma se realiza sobre todos los k desde 0 hasta . Ph-la (1.5) también se cumple de forma arbitraria.

Anteriormente consideramos la cuestión de encontrar la PDF para la suma de variables aleatorias estadísticamente independientes. En esta sección veremos nuevamente la cantidad estadísticamente cantidades independientes, pero nuestro enfoque será diferente y no dependerá de las PDF parciales de las variables aleatorias en la suma. En particular, supongamos que los términos de la suma son variables aleatorias estadísticamente independientes y distribuidas de manera idéntica, cada una de las cuales tiene medias y varianzas acotadas.

Se define como la suma normalizada, llamada media muestral.

Primero, determinaremos los límites superiores de la probabilidad de la cola y luego demostraremos un teorema muy importante que determina la PDF en el límite cuando tiende al infinito.

La variable aleatoria definida por (2.1.187) se encuentra a menudo al estimar el promedio de una variable aleatoria sobre una serie de observaciones. En otras palabras, pueden considerarse realizaciones muestrales independientes de una distribución y son una estimación de la media.

La expectativa matemática es

.

La varianza es

Si lo consideramos como una estimación de la media, vemos que su expectativa matemática es igual a , y su dispersión disminuye al aumentar el tamaño de la muestra. Si aumenta sin límite, la varianza tiende a cero. Estimación de parámetros (en en este caso), que satisface las condiciones a las que tiende su expectativa matemática verdadero significado parámetro, y la varianza es estrictamente cero, se denomina estimación consistente.

La probabilidad de cola de una variable aleatoria se puede estimar desde arriba utilizando los límites indicados en la Sección. 2.1.5. La desigualdad de Chebyshev en relación con tiene la forma

,

. (2.1.188)

En el límite cuando , de (2.1.188) se sigue

. (2.1.189)

En consecuencia, la probabilidad de que la estimación de la media difiera del valor real en más de , tiende a cero si crece sin límite. Esta afirmación es una forma de la ley de los grandes números. Dado que el límite superior converge a cero relativamente lentamente, es decir inversamente proporcional. la expresión (2.1.188) se llama ley débil de los grandes números.

Si aplicamos la cota de Chernoff a la variable aleatoria, que contiene una dependencia exponencial de , obtenemos una cota superior ajustada para la probabilidad de una sola cola. Siguiendo el procedimiento descrito en el art. 2.1.5, encontramos que la probabilidad de cola para está determinada por la expresión

donde y. Pero , son estadísticamente independientes y están distribuidos de manera idéntica. Por eso,

¿Dónde está una de las cantidades? El parámetro , que da el límite superior más preciso, se obtiene derivando (2.1.191) e igualando la derivada a cero. Esto lleva a la ecuación

(2.1.192)

Denotemos la solución (2.1.192) por . Entonces el límite para la probabilidad de la cola superior es

, . (2.1.193)

De manera similar, encontraremos que la probabilidad de cola inferior tiene el límite

, . (2.1.194)

Ejemplo 2.1.7. Sea , una serie de variables aleatorias estadísticamente independientes definidas de la siguiente manera:

Queremos definir un límite superior estricto para la probabilidad de que la suma de sea mayor que cero. Dado que , la cantidad tendrá valor negativo para la expectativa matemática (promedio), por lo tanto, buscaremos la probabilidad de la cola superior. Porque en (2.1.193) tenemos

, (2.1.195)

¿Dónde está la solución de la ecuación?

Por eso,

. (2.1.197)

En consecuencia, para la frontera en (2.1.195) obtenemos

vemos que límite superior disminuye exponencialmente con , como se esperaba. Por el contrario, según el límite de Chebyshev, la probabilidad de la cola disminuye en proporción inversa a .

Teorema del límite central. En esta sección, consideramos un teorema extremadamente útil sobre la FDI de una suma de variables aleatorias en el límite cuando el número de términos de la suma aumenta sin límite. Hay varias versiones de este teorema. Demostremos el teorema para el caso en que las variables aleatorias sumables , , son estadísticamente independientes y están distribuidas de manera idéntica, cada una de ellas tiene una media limitada y una varianza limitada.

Por conveniencia, definimos una variable aleatoria normalizada.

Por tanto, tiene media cero y varianza unitaria.

Ahora deja

Dado que cada sumando de la suma tiene una media cero y una varianza unitaria, un valor normalizado (por el factor ) tiene una media cero y una varianza unitaria. Queremos definir el FMI para el límite cuando.

La función característica es igual a

, (2.1.200).

,

o, equivalentemente,

. (2.1.206)

Pero eso es solo todo función característica Variable aleatoria gaussiana con media cero y varianza unitaria. Así tenemos resultado importante; La PDF de la suma de variables aleatorias estadísticamente independientes e idénticamente distribuidas con media y varianza limitadas se aproxima a Gauss en . Este resultado se conoce como teorema del límite central.

Aunque hemos supuesto que las variables aleatorias en la suma están distribuidas equitativamente, este supuesto puede flexibilizarse siempre que se sigan imponiendo ciertas restricciones adicionales a las propiedades de las variables aleatorias que se están sumando. Hay una variación del teorema, por ejemplo, cuando se abandona el supuesto de una distribución idéntica de variables aleatorias en favor de una condición impuesta al tercer momento absoluto de las variables aleatorias de la suma. Para una discusión de esta y otras versiones del teorema del límite central, se remite al lector a Cramer (1946).

El teorema del límite central es un grupo de teoremas dedicados a establecer las condiciones bajo las cuales ley normal distribuciones, y cuya violación conduce a una distribución diferente de la normal. Varias formas El teorema del límite central difiere entre sí en las condiciones impuestas a las distribuciones de los términos aleatorios que forman la suma. Probemos uno de los más formas simples este teorema, es decir, el teorema del límite central para términos independientes distribuidos idénticamente.

Considere una secuencia de variables aleatorias independientes distribuidas idénticamente que tienen una expectativa matemática. Supongamos también que existe varianza. Introduzcamos la notación. La ley de los números grandes para esta secuencia se puede representar de la siguiente forma:

donde la convergencia puede entenderse tanto en el sentido de convergencia en probabilidad (ley débil de los grandes números) como en el sentido de convergencia con probabilidad, igual a uno(ley reforzada de grandes números).

Teorema (teorema del límite central para variables aleatorias independientes distribuidas idénticamente). Sea una secuencia de variables aleatorias independientes distribuidas idénticamente, . Entonces hay convergencia uniforme relativa a ()

¿Dónde está la función del estándar? distribución normal(con parámetros):

Si se cumple la condición para tal convergencia, la secuencia se llama asintóticamente normal.

Teoremas de Lyapunov y Lindeberg

Consideremos el caso en el que las variables aleatorias tienen distribuciones diferentes: son independientes con distribuciones diferentes.

Teorema (Lindeberg). Sea una secuencia de variables aleatorias independientes con varianzas finitas. Si se cumple la condición de Lindeberg para esta secuencia:

donde, entonces, se cumple el teorema del límite central.

Dado que es difícil verificar directamente la condición de Lindeberg, consideramos alguna otra condición bajo la cual se cumple el teorema del límite central, a saber, la condición del teorema de Lyapunov.

Teorema (Lyapunov). Si se cumple la condición de Lyapunov para una secuencia de variables aleatorias:

entonces la secuencia es asintóticamente normal, es decir se cumple el teorema del límite central.

El cumplimiento de la condición de Lyapunov implica el cumplimiento de la condición de Lindeberg, y de ahí se sigue el teorema del límite central.

Ya se sabe que según la ley de distribución se puede encontrar características numéricas variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

consideremos norte variables aleatorias mutuamente independientes incógnita 1 , X 2 , ...., Xp, que tienen las mismas distribuciones, y por tanto las mismas características (expectativa matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades, que es lo que haremos en este apartado.

Denotemos la media aritmética de las variables aleatorias consideradas por :

= (incógnita 1 +X 2 +…+X norte)/norte.

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética. incógnita y las características correspondientes de cada cantidad individual.

1. La expectativa matemática de la media aritmética de variables aleatorias mutuamente independientes distribuidas idénticamente es igual a la expectativa matemática de cada uno de los valores:

METRO()=un

Prueba. Usando las propiedades de la expectativa matemática ( factor constante se puede sacar como signo de expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos

METRO( )= METRO

Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

METRO()=n/n=n.

2. La dispersión de la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es n veces menor que la dispersión D de cada uno de los valores:

D()=D/n.(* )

Prueba. Usando las propiedades de dispersión (el factor constante se puede quitar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma de cantidades independientes es igual a la suma de las dispersiones de los términos), tenemos

D( )=D

Teniendo en cuenta que la dispersión de cada una de las cantidades según la condición es igual a D, obtenemos

D( )= nD/n 2 =D/n.

3. Promedio desviación estándar la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es varias veces menor que la desviación cuadrática media s cada una de las cantidades:

Prueba. Porque D()= D/n, entonces la desviación estándar es igual a

s ( )= .

Conclusión general de las fórmulas (*) y (**): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética de un número suficientemente grande de variables aleatorias mutuamente independientes tiene una dispersión significativamente menor que cada una valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Generalmente para medir algunos cantidad fisica Realice varias mediciones y luego encuentre la media aritmética de los números obtenidos, que se toma como un valor aproximado del valor medido. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

a) la media aritmética da un resultado más fiable que las mediciones individuales;

b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución. a) Se sabe que las mediciones individuales dan diferentes valores de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.), que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. norte mediciones individuales como variables aleatorias incógnita 1 , X 2 , ..., Xp(el índice indica el número de medida). Estas cantidades tienen distribución igualitaria probabilidades (las mediciones se realizan con el mismo método y con los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Ya sabemos que la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca del valor real del valor medido que el resultado de una medición separada. Esto significa que la media aritmética de varias mediciones da un resultado más fiable que una sola medición.

b) Ya sabemos que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es s= 6 m, y un total de norte= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

s ( )=

Vemos que la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una medición separada.



¿Te gustó el artículo? ¡Comparte con tus amigos!