Las variables aleatorias que son independientes tienen la misma distribución. Variables aleatorias mutuamente independientes distribuidas idénticamente

Ya se sabe que según la ley de distribución se puede encontrar características numéricas variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

Consideremos PAG variables aleatorias mutuamente independientes X 1 , X 2 , ...., Xp, que tienen las mismas distribuciones, y por tanto las mismas características (expectativa matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades, que es lo que haremos en este apartado.

Denotemos la media aritmética de las variables aleatorias consideradas por :

= (X 1 +X 2 +…+X norte)/norte.

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética. X y las características correspondientes de cada cantidad individual.

1. Expectativa matemática del promedio. aritmética Cantidades aleatorias mutuamente independientes distribuidas coevalmente son iguales a la expectativa matemática de cada una de las cantidades:

METRO()=un

Prueba. Usando las propiedades de la expectativa matemática ( factor constante se puede sacar como signo de expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos

METRO( )= METRO

Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

METRO()=n/n=n.

2. La dispersión de la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es n veces menor que la dispersión D de cada uno de los valores:

D()=D/n.(* )

Prueba. Usando las propiedades de dispersión (el factor constante se puede sacar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma cantidades independientes igual a la suma de las varianzas de los términos), tenemos

D( )=D

Teniendo en cuenta que la varianza de cada una de las cantidades según la condición es igual a D, obtenemos

D( )= nD/n 2 =D/n.

3. Promedio Desviación Estándar la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es varias veces menor que la desviación cuadrática media s cada una de las cantidades:

Prueba. Porque D()= D/n, entonces la desviación estándar es igual a

s ( )= .

Conclusión general de las fórmulas (*) y (**): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética es suficiente gran número Las variables aleatorias mutuamente independientes tienen una dispersión significativamente menor que cada variable individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Generalmente para medir algunos cantidad física Realice varias mediciones y luego encuentre la media aritmética de los números obtenidos, que se toma como un valor aproximado del valor medido. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

a) la media aritmética da un resultado más fiable que las mediciones individuales;

b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución. a) Se sabe que las mediciones individuales dan diferentes valores de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.) que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. norte mediciones individuales como variables aleatorias X 1 , X 2 , ..., Xp(el índice indica el número de medida). Estas cantidades tienen la misma distribución de probabilidad (las mediciones se realizan con el mismo método y con los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Ya sabemos que la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca de significado verdadero cantidad medida que el resultado de una sola medición. Esto significa que la media aritmética de varias mediciones da un resultado más fiable que una sola medición.

b) Ya sabemos que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es s= 6 m, y un total de norte= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

s ( )=

Vemos que la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una sola medición.

Anteriormente consideramos la cuestión de encontrar la PDF para la suma de variables aleatorias estadísticamente independientes. En esta sección, consideraremos nuevamente la suma de variables estadísticamente independientes, pero nuestro enfoque será diferente y no dependerá de las PDF parciales de las variables aleatorias en la suma. En particular, supongamos que los términos de la suma son estadísticamente independientes y están distribuidos idénticamente. variables aleatorias, cada uno de los cuales tiene medios limitados y varianza limitada.

Se define como la suma normalizada, llamada media muestral.

Primero, determinaremos los límites superiores de la probabilidad de la cola y luego demostraremos un teorema muy importante que determina la PDF en el límite cuando tiende al infinito.

La variable aleatoria definida por (2.1.187) se encuentra a menudo al estimar el promedio de una variable aleatoria sobre una serie de observaciones. En otras palabras, pueden considerarse realizaciones muestrales independientes de una distribución y son una estimación de la media.

La expectativa matemática es

.

La varianza es

Si lo consideramos como una estimación de la media, vemos que su expectativa matemática es igual a , y su dispersión disminuye al aumentar el tamaño de la muestra. Si aumenta sin límite, la varianza tiende a cero. Estimación de parámetros (en en este caso), que satisface las condiciones de que su expectativa matemática tienda al valor real del parámetro y la varianza se acerque estrictamente a cero, se denomina estimación consistente.

La probabilidad de cola de una variable aleatoria se puede estimar desde arriba utilizando los límites indicados en la Sección. 2.1.5. La desigualdad de Chebyshev en relación con tiene la forma

,

. (2.1.188)

En el límite cuando , de (2.1.188) se sigue

. (2.1.189)

En consecuencia, la probabilidad de que la estimación de la media difiera del valor real en más de , tiende a cero si crece sin límite. Esta disposición es una forma de ley. números grandes. Dado que el límite superior converge a cero relativamente lentamente, es decir inversamente. la expresión (2.1.188) se llama ley débil de los grandes números.

Si aplicamos la frontera de Chernoff que contiene una dependencia exponencial de una variable aleatoria, obtenemos una densa limite superior para la probabilidad de una cola. Siguiendo el procedimiento descrito en el art. 2.1.5, encontramos que la probabilidad de la cola está determinada por la expresión

dónde y . Pero , son estadísticamente independientes y están distribuidos de manera idéntica. Por eso,

¿Dónde está una de las cantidades? El parámetro , que da el límite superior más preciso, se obtiene derivando (2.1.191) e igualando la derivada a cero. Esto lleva a la ecuación

(2.1.192)

Denotemos la solución (2.1.192) por . Entonces el límite para la probabilidad de la cola superior es

, . (2.1.193)

De manera similar, encontraremos que la probabilidad de cola inferior tiene el límite

, . (2.1.194)

Ejemplo 2.1.7. Sea , una serie de variables aleatorias estadísticamente independientes definidas de la siguiente manera:

Queremos definir un límite superior estricto para la probabilidad de que la suma de sea mayor que cero. Dado que , la cantidad tendrá significado negativo para la expectativa matemática (promedio), por lo tanto, buscaremos la probabilidad de la cola superior. Porque en (2.1.193) tenemos

, (2.1.195)

¿Dónde está la solución de la ecuación?

Por eso,

. (2.1.197)

En consecuencia, para la frontera en (2.1.195) obtenemos

Vemos que el límite superior disminuye exponencialmente con , como se esperaba. Por el contrario, según el límite de Chebyshev, la probabilidad de la cola disminuye en proporción inversa a .

Central teorema del límite. En esta sección, consideramos un teorema extremadamente útil sobre la FDI de una suma de variables aleatorias en el límite cuando el número de términos de la suma aumenta sin límite. Hay varias versiones de este teorema. Demostremos el teorema para el caso en que las variables aleatorias sumables , , son estadísticamente independientes y están distribuidas de manera idéntica, cada una de ellas tiene una media limitada y una varianza limitada.

Por conveniencia, definimos una variable aleatoria normalizada.

Por tanto, tiene media cero y varianza unitaria.

Ahora deja

Dado que cada sumando de la suma tiene media cero y varianza unitaria, el valor normalizado (por el factor ) tiene media cero y varianza unitaria. Queremos definir el FMI para el límite cuando.

La función característica es igual a

, (2.1.200).

,

o equivalente,

. (2.1.206)

Pero eso es solo todo función característica Variable aleatoria gaussiana con media cero y varianza unitaria. Así tenemos resultado importante; La PDF de la suma de variables aleatorias estadísticamente independientes e idénticamente distribuidas con media y varianza limitadas se aproxima a Gauss en . Este resultado se conoce como teorema del límite central.

Aunque hemos supuesto que las variables aleatorias en la suma están distribuidas equitativamente, este supuesto puede flexibilizarse siempre que se sigan imponiendo ciertas restricciones adicionales a las propiedades de las variables aleatorias que se están sumando. Hay una variación del teorema, por ejemplo, cuando se abandona el supuesto de una distribución idéntica de variables aleatorias en favor de una condición impuesta al tercer momento absoluto de las variables aleatorias de la suma. Para una discusión de esta y otras versiones del teorema del límite central, se remite al lector a Cramer (1946).

Conozcamos las desviaciones estándar de varias variables aleatorias mutuamente independientes. ¿Cómo encontrar la desviación estándar de la suma de estas cantidades? La respuesta a esta pregunta viene dada por el siguiente teorema.

Teorema. Desviación estándar de la suma Número finito variables aleatorias mutuamente independientes son iguales a raíz cuadrada de la suma de los cuadrados de las desviaciones estándar de estas cantidades."

Prueba. Denotemos por X la suma de las cantidades mutuamente independientes consideradas:

La varianza de la suma de varias variables aleatorias mutuamente independientes es igual a la suma de las varianzas de los términos (ver § 5, Corolario 1), por lo tanto

o finalmente

Variables aleatorias mutuamente independientes distribuidas idénticamente

Ya se sabe que según la ley de distribución se pueden encontrar las características numéricas de una variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

Consideremos PAG variables aleatorias mutuamente independientes X v X v ..., xfi, que tienen las mismas distribuciones, y por tanto las mismas características (expectativa matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades, que es lo que haremos en este apartado.

Denotemos la media aritmética de las variables aleatorias consideradas por X:

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética. X y las características correspondientes de cada cantidad individual.

1. La expectativa matemática de la media aritmética de variables aleatorias mutuamente independientes distribuidas idénticamente es igual a la expectativa matemática a de cada una de las variables:

Prueba. Usando las propiedades de la expectativa matemática (el factor constante se puede sacar del signo de la expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos


Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

2. La dispersión de la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es n veces menor que la dispersión D de cada una de las variables:

Prueba. Usando las propiedades de dispersión (el factor constante se puede quitar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma de cantidades independientes es igual a la suma de las dispersiones de los términos), tenemos

§ 9. Variables aleatorias mutuamente independientes distribuidas idénticamente 97

Teniendo en cuenta que la dispersión de cada una de las cantidades por condición es igual a D, obtenemos

3. Desviación estándar de la media aritmética de n aleatorios mutuamente independientes e idénticamente distribuidos

Los valores son 4n veces menores que la desviación estándar a de cada uno de los valores:

Prueba. Porque D(X) = D/n entonces la desviación estándar X es igual

Conclusión general de las fórmulas (*) y (**): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética de un número suficientemente grande de variables aleatorias mutuamente independientes tiene

significativamente menos dispersión que cada valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Por lo general, para medir una determinada cantidad física se realizan varias mediciones y luego se encuentra la media aritmética de los números obtenidos, que se toma como un valor aproximado de la cantidad medida. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

  • a) la media aritmética da un resultado más fiable que las mediciones individuales;
  • b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución, a) Se sabe que las mediciones individuales dan valores desiguales de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.), que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. PAG mediciones individuales como variables aleatorias X v X 2,..., Xp(el índice indica el número de medida). Estas cantidades tienen la misma distribución de probabilidad (las mediciones se realizan utilizando la misma técnica y los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Ya sabemos que la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca del valor real del valor medido que el resultado de una medición separada. Esto significa que la media aritmética de varias mediciones da un resultado más caso que una sola medición.

b) Ya sabemos que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es a = 6 m, y un total de PAG= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

Vemos que la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una sola medición.

para resolver muchos problemas prácticos es necesario conocer el conjunto de condiciones por las cuales el resultado del impacto acumulativo gran cantidad Los factores aleatorios son casi independientes del azar. Estas condiciones se describen en varios teoremas llamados nombre común la ley de los grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es éxito o fracaso. Por tanto, Sn es la suma de n variables aleatorias mutuamente independientes, cada una de las cuales toma los valores 1 y 0 con probabilidades p y q.

La forma más simple de la ley de los grandes números es el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todos los intentos, entonces, a medida que aumenta el número de intentos, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatorio.

teorema de poisson establece que la frecuencia de un evento en una serie pruebas independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

Teorema del límite central explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

Teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y como siempre se generan variables aleatorias número infinito razones y la mayoría de las veces ninguna de ellas tiene una dispersión comparable a la dispersión de la variable aleatoria misma, entonces la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a ley normal distribuciones.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un cierto numero dado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce; sólo se conocen su expectativa matemática y su varianza.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 se cumple la siguiente desigualdad, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

teorema de bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces para cualquier s > 0 es cierto.

Teorema de Lyapunov. Sean s 1, s 2,…, s n,…- secuencia ilimitada variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos.

Entonces = Ф(b) - Ф(a) para cualquier numeros reales a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. Para cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos que un valor dado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () -- F () (1.3)

Aquí F (x) -- función normal Yo distribuyo. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un caso mucho más teorema general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que. Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a más caso general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos durante el k-ésimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3,5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número promedio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn -- 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en población,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N/N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los grandes números establece que para un número suficientemente grande muestra aleatoria su media probablemente será cercana a, es decir, la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación Ф(x) - Ф(-- x) = 0,99 es igual a x = 2,57 ..., y por tanto n debe ser tal que 2,57 o n > 660. Una estimación preliminar cuidadosa permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k;)). Entonces Sn tiene una distribución de Poisson con expectativa matemática y varianza igual a n.

Al escribir en lugar de n, concluimos que para n

La suma se realiza sobre todos los k desde 0 hasta. Ph-la (1.5) también se cumple de forma arbitraria.

ellos dicen que son independientes (y) idénticamente distribuidos, si cada una de ellas tiene la misma distribución que las demás, y todas las cantidades son independientes en su conjunto. La frase "independiente distribuida idénticamente" a menudo se abrevia como i.id.(De inglés independientes e idénticamente distribuidos ), a veces - “n.o.r”.

Aplicaciones

La suposición de que las variables aleatorias son independientes y están distribuidas de manera idéntica se usa ampliamente en la teoría de la probabilidad y la estadística, ya que permite simplificar enormemente los cálculos teóricos y demostrar resultados interesantes.

Uno de los teoremas clave de la teoría de la probabilidad, el teorema del límite central, establece que si es una secuencia de variables aleatorias independientes distribuidas idénticamente, entonces, cuando tienden al infinito, la distribución de su variable aleatoria promedio converge a la distribución normal.

En estadística, generalmente se supone que una muestra estadística es una secuencia de i.i.d. realizaciones de alguna variable aleatoria (tal muestra se llama simple).


Fundación Wikimedia. 2010.

  • Es decir.
  • Intel 8048

Vea qué son las “variables aleatorias independientes distribuidas idénticamente” en otros diccionarios:

    El problema de la ruina del jugador- El problema de la ruina del jugador es un problema del campo de la teoría de la probabilidad. discutido en detalle matemático ruso A. N. Shiryaev en la monografía "Probabilidad" ... Wikipedia

    Distribución sostenible- en teoría de la probabilidad, esta es una distribución que se puede obtener como límite en la distribución de sumas de variables aleatorias independientes. Contenido 1 Definición 2 Notas ... Wikipedia

    Fórmula Levy-Khinchin para una distribución estable- Una distribución estable en teoría de la probabilidad es una distribución que se puede obtener como límite en la distribución de sumas de variables aleatorias independientes. Contenido 1 Definición 2 Comentarios 3 Propiedades distribuciones estables...Wikipedia

    Distribución infinitamente divisible- en teoría de la probabilidad, es la distribución de una variable aleatoria tal que puede representarse como un número arbitrario de términos independientes distribuidos de manera idéntica. Contenido 1 Definición ... Wikipedia

    Modelo de Cramer-Lundberg- Modelo Kramer Lundberg modelo matemático, que permite evaluar los riesgos de ruina de una compañía de seguros. En el marco de este modelo, se supone que las primas de seguro se reciben de manera uniforme, a una tasa del tipo condicional unidades monetarias por unidad... ... Wikipedia

    Fórmula de Levy-Khinchin para una distribución infinitamente divisible- Una distribución infinitamente divisible en la teoría de la probabilidad es una distribución de una variable aleatoria tal que puede representarse como un número arbitrario de términos independientes distribuidos idénticamente. Contenido 1 Definición 2 ... ... Wikipedia

    modelo cramer- Este artículo debería ser wikificado. Formatéelo de acuerdo con las reglas de formato del artículo. El modelo de Cramer Lundberg es un modelo matemático que permite evaluar los riesgos de quiebra de una compañía de seguros... Wikipedia

    Control estadístico de aceptación- totalidad métodos de estadística control de productos en masa para determinar su cumplimiento de los requisitos especificados. PD j. un medio eficaz para garantizar la buena calidad de los productos masivos. PD a. se lleva a cabo el... ... Gran enciclopedia soviética

    Distribución multinomial- La distribución multinomial (polinomial) en la teoría de la probabilidad es una generalización. Distribución binomial en caso de pruebas independientes experimento aleatorio con varios resultados posibles. Definición Deja independiente... ... Wikipedia

    Distribución polinomial- La distribución multinomial (polinomial) en la teoría de la probabilidad es una generalización de la distribución binomial al caso de pruebas independientes de un experimento aleatorio con varios resultados posibles. Definición: Que los independientes sean igualmente... ... Wikipedia



¿Te gustó el artículo? ¡Compartir con tus amigos!