Variables aleatorias independientes distribuidas idénticamente. Desviación estándar de la suma de variables aleatorias mutuamente independientes

Trabajo del curso

sobre el tema: “Leyes números grandes»


Variables aleatorias distribuidas idénticamente

para resolver muchos problemas prácticos es necesario conocer el conjunto de condiciones por las cuales el resultado del impacto acumulativo gran cantidad Los factores aleatorios son casi independientes del azar. Estas condiciones se describen en varios teoremas llamados nombre común la ley de los grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es éxito o fracaso. Por tanto, Sn es la suma de n mutuamente independientes variables aleatorias, cada uno de los cuales toma valores 1 y 0 con probabilidades p y q.

La forma mas simple la ley de los grandes números: el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todas las pruebas, entonces, a medida que aumenta el número de pruebas, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatoria. .

El teorema de Poisson establece que la frecuencia de un evento en una serie pruebas independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

Central teorema del límite explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma gran número variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

El teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y como siempre se generan variables aleatorias número infinito razones y la mayoría de las veces ninguna de ellas tiene una dispersión comparable a la dispersión de la variable aleatoria misma, entonces la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a ley normal distribuciones.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Se define limite superior la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que algunos numero dado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce, sólo su valor esperado y dispersión.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 la desigualdad es verdadera, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

Teorema de Bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces, para cualquier s > 0, .

Teorema de Lyapunov. Sean s 1, s 2,…, s n,…– secuencia ilimitada variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos , , , .

Entonces = Ф(b) - Ф(a) para cualquier numeros reales a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. En cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos que un valor dado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () - F () (1.3)

Aquí F(x) - función normal Yo distribuyo. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un caso mucho más teorema general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que . Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a más caso general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos durante el k-ésimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3.5,

a D( k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número promedio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() - Ф(- ). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф( 0)- Ф(- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en población,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N /N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los grandes números establece que para un número suficientemente grande muestra aleatoria su media probablemente será cercana a , es decir, a la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación F(x) - F(- x) = 0,99 es x = 2,57..., y por tanto n debe ser tal que 2,57 o n > 660. Una estimación preliminar cuidadosa permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k; )). Entonces Sn tiene una distribución de Poisson con media y varianza iguales a n.

Escribiendo en lugar de n, concluimos que para n


La suma se realiza sobre todos los k desde 0 hasta . Ph-la (1.5) también se cumple de forma arbitraria.

Ya se sabe que según la ley de distribución se puede encontrar características numéricas variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

Consideremos norte variables aleatorias mutuamente independientes X 1 , X 2 , …,xn, que tienen las mismas distribuciones y, por tanto, las mismas características (esperanza matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades.

Denotemos la media aritmética de las variables aleatorias consideradas por:

.

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética y las características correspondientes de cada valor individual.

1. Expectativa matemática del promedio aritmética variables aleatorias mutuamente independientes co-distribuidas es igual a la expectativa matemática de cada uno de los valores:

Prueba. Usando las propiedades de la expectativa matemática ( factor constante se puede sacar como signo de expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos

Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

.

2. Dispersión de la media aritmética norte variables aleatorias mutuamente independientes distribuidas idénticamente en norte veces menos variación D cada una de las cantidades:

Prueba. Usando las propiedades de dispersión (el factor constante se puede sacar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma cantidades independientes igual a la suma de las varianzas de los términos), tenemos

Teniendo en cuenta que la varianza de cada una de las cantidades según la condición es igual a D, obtenemos

.

3. Promedio Desviación Estándar significado aritmetico norte Las variables aleatorias mutuamente independientes distribuidas idénticamente son veces menores que la desviación estándar de cada uno de los valores:

Prueba. Dado que , entonces la desviación estándar es igual a

.

Conclusión general De las fórmulas (7.3) y (7.4): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética de un número suficientemente grande de variables aleatorias mutuamente independientes tiene una dispersión significativamente menor que cada una. valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Generalmente para medir algunos cantidad física Realice varias mediciones y luego encuentre la media aritmética de los números obtenidos, que se toma como un valor aproximado del valor medido. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

a) la media aritmética da un resultado más fiable que las mediciones individuales;

b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución. a) Se sabe que las mediciones individuales dan diferentes valores de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.), que no se tienen en cuenta de antemano.

Por esta razón, tenemos derecho a considerar posibles resultados. norte mediciones individuales como variables aleatorias X 1 , X 2 , …,xn(el índice indica el número de medida). Estas cantidades tienen la misma distribución de probabilidad (las mediciones se realizan con la misma metodología y los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Como se ha demostrado, la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca de significado verdadero cantidad medida que el resultado de una sola medición. Esto significa que la media aritmética de varias mediciones da un resultado más fiable que una sola medición.

b) Se sabe que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Sin embargo, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es s = 6 m, y toda ella se realiza norte= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

.

Obviamente, la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una medición separada.

Para resolver muchos problemas prácticos, es necesario conocer un conjunto de condiciones por las cuales el resultado de la influencia combinada de un gran número de factores aleatorios es casi independiente del azar. Estas condiciones se describen en varios teoremas, denominados colectivamente ley de los grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es un éxito o un fracaso. Por tanto, Sn es la suma de n variables aleatorias mutuamente independientes, cada una de las cuales toma los valores 1 y 0 con probabilidades p y q.

La forma más simple de la ley de los grandes números es el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todos los intentos, a medida que aumenta el número de intentos, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatorio.

teorema de poisson afirma que la frecuencia de un evento en una serie de ensayos independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

Teorema del límite central explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

Teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y dado que las variables aleatorias siempre se generan por un número infinito de causas y, en la mayoría de los casos, ninguna de ellas tiene una dispersión comparable a la dispersión de la propia variable aleatoria, la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a la ley de distribución normal.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un cierto número especificado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce; sólo se conocen su expectativa matemática y su varianza.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 la desigualdad es verdadera, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

teorema de bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces para cualquier s > 0 es cierto.

Teorema de Lyapunov. Sea s 1, s 2,…, s n,… una secuencia ilimitada de variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos.

Entonces = Ф(b) - Ф(a) para cualquier número real a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. En cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos que un valor dado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () -- F () (1.3)

Aquí Ф(х) es la función de distribución normal. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un teorema mucho más general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que. Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a un caso más general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos durante el k-ésimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3,5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número promedio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn -- 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en la población,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N/N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los números grandes establece que para una muestra aleatoria lo suficientemente grande, su media probablemente será cercana a la media poblacional, es decir, a la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación Ф(x) - Ф(-- x) = 0,99 es igual a x = 2,57 ..., y por tanto n debe ser tal que 2,57 o n > 660. Una estimación preliminar cuidadosa permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k;)). Entonces Sn tiene una distribución de Poisson con media y varianza iguales a n.

Al escribir en lugar de n, concluimos que para n

La suma se realiza sobre todos los k desde 0 hasta. Ph-la (1.5) también se cumple de forma arbitraria.

Conozcamos las desviaciones estándar de varias variables aleatorias mutuamente independientes. ¿Cómo encontrar la desviación estándar de la suma de estas cantidades? La respuesta a esta pregunta viene dada por el siguiente teorema.

Teorema. Desviación estándar de la suma Número finito las variables aleatorias mutuamente independientes son iguales a raíz cuadrada de la suma de los cuadrados de las desviaciones estándar de estas cantidades."

Prueba. Denotemos por X la suma de las cantidades mutuamente independientes consideradas:

La varianza de la suma de varias variables aleatorias mutuamente independientes es igual a la suma de las varianzas de los términos (ver § 5, Corolario 1), por lo tanto

o finalmente

Variables aleatorias mutuamente independientes distribuidas idénticamente

Ya se sabe que según la ley de distribución se pueden encontrar las características numéricas de una variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

Consideremos PAG variables aleatorias mutuamente independientes X v X v ..., xfi, que tienen las mismas distribuciones, y por tanto las mismas características (expectativa matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades, que es lo que haremos en este apartado.

Denotemos la media aritmética de las variables aleatorias consideradas por X:

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética. X y las características correspondientes de cada cantidad individual.

1. La expectativa matemática de la media aritmética de variables aleatorias mutuamente independientes distribuidas idénticamente es igual a la expectativa matemática a de cada una de las variables:

Prueba. Usando las propiedades de la expectativa matemática (el factor constante se puede sacar del signo de la expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos


Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

2. La dispersión de la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es n veces menor que la dispersión D de cada una de las variables:

Prueba. Usando las propiedades de dispersión (el factor constante se puede quitar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma de cantidades independientes es igual a la suma de las dispersiones de los términos), tenemos

§ 9. Variables aleatorias mutuamente independientes distribuidas idénticamente 97

Teniendo en cuenta que la dispersión de cada una de las cantidades por condición es igual a D, obtenemos

3. Desviación estándar de la media aritmética de n aleatorios mutuamente independientes e idénticamente distribuidos

Los valores son 4n veces menores que la desviación estándar a de cada uno de los valores:

Prueba. Porque D(X) = D/n entonces la desviación estándar X es igual

Conclusión general de las fórmulas (*) y (**): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética de un número suficientemente grande de variables aleatorias mutuamente independientes tiene

significativamente menos dispersión que cada valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Por lo general, para medir una determinada cantidad física se realizan varias mediciones y luego se encuentra la media aritmética de los números obtenidos, que se toma como un valor aproximado de la cantidad medida. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

  • a) la media aritmética da un resultado más fiable que las mediciones individuales;
  • b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución, a) Se sabe que las mediciones individuales dan valores desiguales de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.), que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. PAG mediciones individuales como variables aleatorias X v X 2,..., Xp(el índice indica el número de medida). Estas cantidades tienen distribución igualitaria probabilidades (las mediciones se realizan con la misma metodología y los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Ya sabemos que la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca del valor real del valor medido que el resultado de una medición separada. Esto significa que la media aritmética de varias mediciones da un resultado más caso que una sola medición.

b) Ya sabemos que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es a = 6 m, y un total de PAG= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

Vemos que la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una medición separada.



¿Te gustó el artículo? ¡Compartir con tus amigos!