Convergencia por definición de probabilidad. Teoremas límite de la teoría de la probabilidad.

teorema de convergencia de probabilidad de teoría

Teoremas límite de la teoría de la probabilidad.

Convergencia de secuencias de variables aleatorias y distribuciones de probabilidad.

1.1.1.1 Convergencia variables aleatorias

Sea un espacio de probabilidad con un sistema de variables aleatorias y una variable aleatoria especificada en él. En teoría de la probabilidad, se consideran los siguientes tipos de convergencia de secuencias de variables aleatorias.

Una secuencia de variables aleatorias converge en probabilidad a una variable aleatoria si para cualquier

Este tipo de convergencia se denota de la siguiente manera: , o.

Una secuencia de variables aleatorias converge a una variable aleatoria con probabilidad 1 (o casi con certeza) si

es decir, si es para todos excepto, quizás, de algún conjunto de probabilidad cero (). Denotaremos la convergencia con probabilidad 1 de la siguiente manera: , o. La convergencia con probabilidad 1 es convergencia en casi todas partes con respecto a la medida de probabilidad.

Tenga en cuenta que la convergencia es un evento de álgebra que se puede representar como

Formulemos algunos teoremas que establezcan criterios para una convergencia casi segura.

Teorema 1.1. si y sólo si para cualquier

o, lo que es lo mismo,

Teorema 1.2. si la fila

converge para cualquiera, entonces

Se puede demostrar que la convergencia implica convergencia (esto se desprende de (1.1)). La afirmación inversa es, en términos generales, falsa, pero el siguiente teorema es verdadero.

Teorema 1.3. Si, entonces hay una subsecuencia tal que for.

La conexión entre convergencia y convergencia se establece mediante los siguientes teoremas.

Teorema 1.4. (Impuesto sobre la convergencia monótona) Que haya secuencia monótona Variables aleatorias no negativas: que tienen expectativas matemáticas finitas limitadas al mismo valor: . Entonces la secuencia converge con probabilidad 1 a alguna variable aleatoria c, y

Teorema 1.5. (Lebesgue sobre la convergencia dominada) Sean y sean cantidades donde es una variable aleatoria no negativa que tiene una expectativa matemática finita. Entonces la variable aleatoria también tiene una expectativa matemática finita y

Una secuencia de variables aleatorias converge a una variable aleatoria con una media de orden si

Denotaremos tal convergencia. Cuando hablan de convergencia en el cuadrado medio y lo denotan. En virtud de la desigualdad generalizada de Chebyshev, se produce convergencia. De la convergencia en probabilidad, y especialmente de la convergencia casi con certeza, no se sigue convergencia de orden. Por tanto, la convergencia en probabilidad es la convergencia más débil de las tres que hemos considerado.

Se dice que una secuencia es fundamental en probabilidad (casi con certeza, en promedio de orden) si para cualquier

Teorema 1.6. (Criterio de convergencia de Cauchy) Para que sea en cualquier sentido (en probabilidad, casi con certeza, en el promedio del orden) es necesario y suficiente que la secuencia sea fundamental en el sentido correspondiente.

1.1.1.2 Convergencia débil de distribuciones

Se dice que la distribución de probabilidad de variables aleatorias converge débilmente a la distribución de una variable aleatoria si, para cualquier función continua acotada

Denotaremos convergencia débil de la siguiente manera: . Tenga en cuenta que la convergencia implica convergencia. Lo contrario no es cierto, sin embargo, para convergencia débil implica convergencia en probabilidad.

La condición (1.2) se puede reescribir usando la integral de Lebesgue con respecto a la medida de la siguiente manera

Para variables aleatorias que tienen una densidad de probabilidad, la convergencia débil significa convergencia para cualquier función acotada.

Si hablamos de funciones de distribución y las correspondientes y, entonces la convergencia débil significa que

Secuencias de variables aleatorias X 1, X 2 , . . ., X norte, . . ., dado a cierto ron espacio de probabilidad a una variable aleatoria X, definido de la siguiente manera: si por cualquier
En matemáticas En análisis, esta convergencia se llama convergencia en medida. De N. a E. emana convergencia en la distribución.
V. I. Bityutskov.

Enciclopedia matemática. - M.: Enciclopedia soviética.

I. M. Vinogradov.

    1977-1985.

    Vea qué es “CONVERGENCIA EN PROBABILIDAD” en otros diccionarios: - ...Wikipedia

    Convergencia con probabilidad uno, convergencia de una secuencia de variables aleatorias X1, X2, . . ., X p. . ., definida en un cierto espacio de probabilidad a una variable aleatoria X, definida de la siguiente manera: (o a.s.), si B matemática... ...

    Enciclopedia Matemática En teoría de la probabilidad, un tipo de convergencia de variables aleatorias. Contenido 1 Definición 2 Notas ... Wikipedia tener un límite. Los conceptos tienen sentido para sucesiones arbitrarias, series e integrales: Límite de una sucesión... ... Wikipedia

    Este término tiene otros significados, consulte Convergencia. Una secuencia de funciones converge casi en todas partes a una función límite si el conjunto de puntos para los cuales no hay convergencia tiene medida cero. Contenido 1 Definición 1.1 Término ... Wikipedia

    Este término tiene otros significados, consulte Convergencia. Convergencia en análisis funcional, teoría de probabilidad y disciplinas relacionadas tipo de convergencia de funciones medibles o variables aleatorias. Definición Deja espacio con... ... Wikipedia

    - (por probabilidad) en análisis funcional, teoría de la probabilidad y disciplinas afines, este es un tipo de convergencia de funciones medibles (variables aleatorias) definidas en un espacio con una medida (espacio de probabilidad). Definición: Dejemos que un espacio tenga una medida... ... Wikipedia

    Un concepto matemático que significa que algunos cantidad variable tiene un límite. En este sentido, se habla de una secuencia, una serie, un producto infinito, una fracción continua, una integral, etc. Surge el concepto de serie... ... Gran enciclopedia soviética

    Lo mismo que la convergencia en probabilidad... - ...Wikipedia

    El principio general es que acción conjunta factores aleatorios conducen a algunos condiciones generales a un resultado casi independiente del azar. La convergencia de la frecuencia de ocurrencia de un evento aleatorio con su probabilidad a medida que aumenta el número... ... - ...Wikipedia

Libros

  • Teoría de la probabilidad y estadística matemática en problemas Más de 360 ​​​​problemas y ejercicios, Borzykh D.. El manual propuesto contiene problemas. varios niveles dificultades. Sin embargo, el énfasis principal está en tareas de complejidad media. Esto se hace intencionalmente para alentar a los estudiantes a...
  • Teoría de la probabilidad y estadística matemática en problemas. Más de 360 ​​tareas y ejercicios, Borzykh D.A.. El manual propuesto contiene tareas de distintos niveles de complejidad. Sin embargo, el énfasis principal está en tareas de complejidad media. Esto se hace intencionalmente para alentar a los estudiantes a...

En el futuro tendremos que operar ampliamente con derivadas e integrales de procesos aleatorios. Ambas operaciones (diferenciación e integración) suponen, como se sabe, la convergencia de una determinada secuencia de cantidades hacia un límite. Pero para las variables aleatorias que no están definidas de manera determinista, sino por sus distribuciones de probabilidad, el concepto de convergencia al límite (y por lo tanto los conceptos de continuidad, diferenciabilidad e integrabilidad para funciones aleatorias) no puede tener el mismo significado que se le atribuye en el análisis. Para una secuencia de variables aleatorias, sólo es posible una definición probabilística de convergencia al límite, lo que, dicho sea de paso, abre posibilidades más diversas a la hora de elegir la definición misma. La convergencia probabilística también es esencial para considerar las llamadas propiedades ergódicas de funciones aleatorias, que abordaremos en la siguiente sección.

Comencemos, por simplicidad, considerando varios tipos convergencia de una secuencia de variables aleatorias a un número (no aleatorio) a.

Uno de los tipos de convergencia probabilística es la convergencia en el cuadrado medio (rms), lo que significa que la media llega a cero. desviación cuadrada del número a en

que está escrito en la forma

Designación 1. i. metro. compuestos de letras iniciales nombre inglés este límite (límite en el cuadrado medio). El uso de este tipo de convergencia es más apropiado en los casos en que se tiene que tratar con números cuadráticos (en particular, aquellos que tienen significado energético) combinaciones de variables aleatorias.

La igualdad (19.1) obviamente supone la finitud del valor más finito y el valor promedio desde . Restando y sumando entre paréntesis en (19.1), reescribimos esta igualdad de manera diferente:

Pero el límite de la suma de dos cantidades no negativas puede ser igual a cero, sólo si los límites de ambos términos son iguales a cero, es decir

Por tanto, es el límite de la secuencia de medias y el límite de la varianza es cero.

Otro tipo de convergencia probabilística a a - convergencia en probabilidad (en ver.) - se define de la siguiente manera:

donde, como de costumbre, es cualquier arbitrariamente pequeño numero positivo. En este caso escriben

La igualdad (19.2) significa que la probabilidad de acertar en algún lugar fuera de un intervalo arbitrariamente estrecho se vuelve cero en el límite. Debido a su pequeñez arbitraria, esto a su vez significa que la densidad de probabilidad de la variable aleatoria supera . Sin embargo, de esto no se sigue en absoluto que a sea el límite de la secuencia y que D tienda a cero. Además, pueden crecer ilimitadamente al aumentar N o incluso ser infinitos para cualquier N. Sean, por ejemplo, no negativos y distribuidos según la ley de Cauchy:

Para cualquiera, el límite en es igual a cero, mientras que el límite no existe. Al mismo tiempo, siempre se cumple la condición de normalización:

entonces tiende a . Sin embargo, no es difícil comprobar que para cualquier N y son infinitos.

La convergencia en probabilidad a menudo se denomina convergencia en el sentido de la ley. números grandes. Se dice que las variables aleatorias son extremadamente constantes si existe una secuencia de constantes que

Si todos son iguales (iguales a a), entonces esta igualdad entra en (19.2), es decir, significa que converge en probabilidad a a o la diferencia - a converge en probabilidad a cero.

La convergencia en probabilidad debe distinguirse claramente de la convergencia ordinaria.

De hecho, no se puede demostrar nada matemáticamente sobre el comportamiento de los números empíricos: los valores. Sólo declaraciones relacionadas con conceptos teóricos, incluido el concepto de probabilidad tal como se define en los axiomas originales. En la convergencia de probabilidad, no estamos hablando del hecho de que a para , sino del hecho de que la probabilidad de un evento tiende a la unidad. La conexión de esta afirmación con la experiencia está contenida en el "axioma de medición", según el cual la probabilidad se mide por frecuencia relativa.

la ocurrencia del evento aleatorio en cuestión en una serie de pruebas suficientemente larga, en un conjunto de sistemas suficientemente grande, etc.

Para comprender mejor este aspecto fundamental de la cuestión, detengámonos en algunos teoremas límite de la teoría de la probabilidad, unidos bajo nombre común la ley de los grandes números, es decir, los teoremas relacionados con el caso en el que en (19.2) existe la media aritmética de N variables aleatorias

Realizamos una serie de N pruebas, tomamos sus resultados y calculamos el promedio (19.3). Luego miramos para ver si hay un evento (llamémoslo evento BN) que

Para medir la probabilidad de un evento BN, debemos realizar un número muy grande M de series de N pruebas, y debemos tener un conjunto de dichas series. La ley de los grandes números (19.2) establece que cuanto más larga sea la serie que forma un colectivo (mayor N), más cerca de la unidad, es decir, según el “axioma de la medición”, más gran cantidad La serie corresponderá al inicio de BN (en el límite, casi todas):

Por lo tanto, esta es una afirmación completamente significativa, pero lo será sólo con una comparación clara. concepto matemático probabilidad con el concepto empírico de frecuencia relativa. Sin esto, la ley de los grandes números sigue siendo un cierto teorema, que se deriva lógicamente de un determinado sistema de axiomas para el valor P, que se define como una función de dominio completamente aditiva, no negativa y normalizada a la unidad.

A menudo esta cuestión, que ya hemos abordado en el § 1, se presenta en literatura educativa de manera bastante confusa, sin una indicación clara de que el "axioma de la medición", que conecta los conceptos de la teoría de la probabilidad con los fenómenos reales, con la experimentación y la práctica, no está contenido en teoría matemática como tal. Se pueden encontrar afirmaciones de que la base para el éxito de la aplicación de la teoría de la probabilidad en diversos problemas de las ciencias naturales y la tecnología se encuentra precisamente en la ley de los grandes números. Si este fuera el caso, significaría que

la base del éxito práctico es la consecuencia lógica de ciertos axiomas abstractos y que estos axiomas matemáticos prescriben en sí mismos cómo deben comportarse las cantidades empíricas.

En principio, sería posible partir de otros axiomas y construir otra teoría de la probabilidad, cuyas conclusiones, siendo diferentes de las de teoría existente, sería igualmente lógicamente impecable e igualmente innecesario para fenómenos reales. La situación aquí es la misma que con las distintas geometrías posibles. Pero tan pronto como una teoría matemática se complementa con ciertos métodos para medir las cantidades con las que opera y, por tanto, se convierte en una teoría física, la situación cambia. La corrección o incorrección de una teoría deja entonces de ser una cuestión sólo de su consistencia lógica, para convertirse en una cuestión de su correspondencia con cosas y fenómenos reales. La cuestión de la verdad de los propios axiomas adquiere contenido, ya que ahora puede someterse a una verificación experimental y, en general, práctica.

Sin embargo, incluso antes de tal verificación, es necesaria una correspondencia interna entre ambas partes de la teoría física: los métodos establecidos para medir cantidades no deben entrar en conflicto con las ecuaciones a las que la parte matemática de la teoría subordina estas cantidades. Por ejemplo, las ecuaciones de movimiento de Newton suponen que la fuerza es un vector y, por lo tanto, son incompatibles con una forma de medir la fuerza que la caracterizaría sólo en términos de valor absoluto. Quizás en realidad la fuerza no sea un vector, sino, digamos, un tensor, pero esta es otra cuestión sobre qué tan bien refleja realidad objetiva dado teoria fisica generalmente. Ahora estamos hablando sólo del hecho de que la presencia de una contradicción entre las partes matemáticas y de medición de la teoría física la hace insostenible incluso antes de cualquier verificación experimental de sus consecuencias.

Desde este punto de vista, la ley de los grandes números se diferencia de otros teoremas de la teoría de la probabilidad, lógicamente equivalentes a ella, sólo en que, como se verá a continuación, muestra de manera especialmente clara y explícita la compatibilidad. definición matemática probabilidad y el método de frecuencia para medirla. Muestra que el “axioma de medición” de la frecuencia no contradice la teoría matemática, pero esta última, por supuesto, no reemplaza ni puede reemplazar este “axioma”.

La prueba de varios teoremas en forma de la ley de los grandes números suele utilizar la desigualdad de Chebyshev, demostrada en su disertación de 1846. Sea una variable aleatoria con varianza finita la desigualdad de Chebyshev.

Establece que

Si, en particular, , entonces la desigualdad (19.4) toma la forma

Aunque las desigualdades (19.4) y (19.5) dan sólo una estimación muy aproximada de P (se puede obtener una estimación más precisa si se conoce la ley de distribución), son muy útiles e importantes para las construcciones teóricas.

En el caso en que la desigualdad de Chebyshev contenga la media aritmética (19.3) de N variables aleatorias, la desigualdad (19.5) nos permite demostrar el teorema de Chebyshev, que es bastante expresión general ley de los grandes números. Es decir, si es una secuencia de variables aleatorias independientes por pares que tienen varianzas uniformemente acotadas (D C), entonces

En realidad,

Según la desigualdad de Chebyshev

de donde se sigue el teorema (19.6) para la probabilidad del evento opuesto, es decir, la convergencia en probabilidad a

Un caso especial del teorema de Chebyshev es el teorema de Poisson. Sean variables aleatorias que fijan el resultado de la prueba o 0 de acuerdo con la ocurrencia o no ocurrencia del evento A durante la prueba en la que . Entonces

y el teorema de Chebyshev da

Este es el teorema de Poisson. Aún más caso especial- Cuando . Luego llegamos al teorema de Bernoulli, una de las primeras formulaciones de la ley de los grandes números:

detengámonos en esto la forma mas simple ley. El teorema (19.8) muestra que a medida que aumenta el número de pruebas N Frecuencia relativa evento A, es decir, la cantidad empírica converge en probabilidad k - la probabilidad del evento A. Si esto no fuera así, entonces no tendría sentido medir la probabilidad usando la frecuencia relativa. Pero dado que esto es así, entonces el método de frecuencia para medir probabilidades tanto (basado en la frecuencia relativa de ocurrencia de un evento A en una serie de N pruebas) como P (basado en la frecuencia relativa de ocurrencia de un evento en un grupo de M series de pruebas) puede aceptarse como complemento de la teoría matemática, ya que no la contradice. Después de esto, ya es posible preguntar y comprobar experimentalmente si la teoría física resultante refleja leyes estadísticas reales.

Es curioso que para satisfacer el teorema (19.8) para cualquier valor de , es decir, para la convergencia en probabilidad

basta con exigir que esta convergencia se produzca sólo para (la frecuencia relativa de eventos de baja probabilidad debe ser pequeña).

Escribamos ahora el teorema de Chebyshev para el caso en el que todo es a. Entonces

y el teorema toma la forma

que es la base de la regla de la media aritmética en las mediciones. Los individuos pueden desviarse mucho de a, pero con probabilidad tenemos a at Esto ocurre porque al calcular el valor promedio desviaciones aleatorias Los términos individuales se compensan y en la gran mayoría de los casos la desviación resulta ser muy pequeña.

Las desviaciones de a pueden ser errores aleatorios mediciones. Pero si la precisión de la lectura en sí durante la medición no es menor, es decir, hay error sistematico, asociado con el precio de la división de escala, entonces la precisión no es menor para cualquier N, por lo que no tiene sentido, apelando a la ley de los grandes números, esforzarse por obtener en este caso el valor de a con un error menor que , debido a Existe una idea errónea bastante extendida de que la media aritmética permite exceder la precisión de la medición limitada desde abajo y obtener, por ejemplo, utilizando un amperímetro de panel, una lectura de corriente con una precisión de microamperios.

También es posible otra situación: la magnitud medida en sí puede ser aleatoria (corriente de ruido, etc.). Entonces podemos estar seguros de que cuando , es decir, la media aritmética tiende a expectativa matemática variable aleatoria.

La condición de independencia mutua de los resultados de la medición de una variable aleatoria requiere, en términos generales, que sus mediciones se realicen en intervalos de tiempo suficientemente grandes. Sin embargo, para que la ley de los grandes números sea válida, esta condición de independencia en sí misma no es necesaria, ya que la desigualdad de Chebyshev sólo requiere para . No pararemos por más teoremas generales y sobre las condiciones necesarias y suficientes bajo las cuales la ley de los grandes números es válida para la media aritmética, ya que estas condiciones se relacionan con la cantidad misma y, por lo tanto, son menos interesantes en la práctica que condiciones más estrictas, pero relacionadas con términos individuales.

En 1909 E. Borel (luego más tarde forma general- F. P. Cantelli, luego A. N. Kolmogorov) se demostró una afirmación más fuerte que la ley de los grandes números. Por el teorema de Bernoulli

Según Borel (ley reforzada de los grandes números)

es decir, con certeza o, como dicen, “casi con certeza”, la frecuencia relativa tiene su probabilidad límite. Esta es una base aún más sólida para medir la probabilidad por frecuencia relativa.

Con base en (19.9), podemos introducir otro tipo de convergencia probabilística: la convergencia en el sentido de la ley fuerte de los grandes números, que también se llama convergencia con probabilidad o convergencia casi con certeza:

(19.10)

Brevemente esto se puede escribir como

A veces, en relación con la definición (19.10), surge confusión debido a que implica el límite habitual de una secuencia de variables aleatorias. Parece que aquí nos estamos retractando de la afirmación anterior de que la convergencia de variables aleatorias sólo puede tener un significado probabilístico. Pero de eso se trata exactamente estamos hablando acerca de y en en este caso. Entre las diversas realizaciones de la secuencia, también hay posibles realizaciones que convergen en a en el sentido habitual. Se puede demostrar que el conjunto de tales realizaciones tiene una cierta probabilidad P. Es casi seguro que la convergencia significa que esta probabilidad, es decir, la probabilidad de un evento aleatorio, es igual a uno. En otras palabras, las realizaciones que convergen en a, en el sentido habitual, "casi agotan" el conjunto de todas las realizaciones posibles de la secuencia. Por lo tanto, en (19.10) no nos alejamos de la definición probabilística de convergencia, aunque ahora no la tenemos. tenga en cuenta el límite de probabilidad (como en la convergencia en probabilidad), y la probabilidad es un límite.

Presentemos dos de las condiciones para una convergencia casi segura. Uno de ellos es necesario y suficiente.

Sin embargo, en la práctica esta condición nunca puede verificarse. Otra condición suficiente más fuerte es que

que para cualquier la serie debe converger

Otro condiciones suficientes y, en general, se puede encontrar una discusión matemática detallada de cuestiones relacionadas con la convergencia probabilística en los libros (Capítulo 3) y (Capítulo 1).

La convergencia en el cuadrado medio implica (en virtud de la desigualdad de Chebyshev) convergencia en probabilidad, y si es casi seguro que todos están uniformemente acotados en valor absoluto, entonces, a la inversa, la convergencia en probabilidad implica convergencia en el cuadrado medio. Es casi seguro que la convergencia también implica convergencia en probabilidad, pero no convergencia en cuadrado medio; al mismo tiempo, es casi seguro que la convergencia en el cuadrado medio no implica convergencia.

Los algoritmos de adaptación incluyen un gradiente de implementación o sus estimaciones, que dependen de proceso aleatorio. En consecuencia, los vectores también son aleatorios y el concepto habitual de convergencia, que conocemos bien por los cursos, no les es directamente aplicable. Análisis matemático y utilizado en el § 2.15. Por tanto, es necesario introducir nuevos conceptos de convergencia, entendidos no en el sentido habitual, sino en el sentido probabilístico.

Hay tres tipos principales de dicha convergencia: convergencia de probabilidad, convergencia cuadrática media y convergencia casi segura.

Un vector aleatorio converge en probabilidad a for , si la probabilidad de que para cualquier norma exceda tiende a cero, o, brevemente, si

. (3.29)

Por supuesto, la convergencia en probabilidad no requiere que toda secuencia de vectores aleatorios converja a k en el sentido habitual. Además, para cualquier vector no podemos afirmar que se produzca una convergencia ordinaria.

El vector aleatorio converge al cuadrado medio en , si la expectativa matemática de la norma al cuadrado tiende a cero, es decir, si

. (3.30)

La convergencia en el cuadrado medio implica convergencia en probabilidad, pero tampoco implica convergencia ordinaria para cada vector aleatorio. La convergencia en el cuadrado medio está asociada al estudio del momento de segundo orden, que se calcula de forma bastante sencilla y, además, tiene un claro significado energético. Estas circunstancias explican el uso relativamente extendido de precisamente este concepto de convergencia en física. Pero el hecho mismo de que en ambos tipos de convergencia la probabilidad de que un vector aleatorio dado converja en el sentido habitual sea cero a veces causa insatisfacción. Después de todo, siempre operamos con un gradiente de implementación. y su correspondiente vector aleatorio, y es deseable que el límite exista precisamente para la secuencia de vectores aleatorios que ahora estamos observando, y no para la familia de secuencias de vectores aleatorios correspondientes a la familia de implementaciones , que quizás nunca veamos.

Este deseo puede realizarse si invocamos el concepto de convergencia casi segura o, lo que es lo mismo, convergencia con probabilidad uno.

Dado que es un vector aleatorio, la convergencia de la secuencia en el sentido habitual puede considerarse como evento al azar. Una secuencia de vectores aleatorios converge en k casi con certeza, o con probabilidad uno si la probabilidad de convergencia ordinaria a es igual a uno, es decir, si

(3.31)

De ello se deduce que, despreciando el conjunto de realizaciones de vectores aleatorios que tienen una probabilidad común igual a cero, tenemos la convergencia habitual. Por supuesto, la tasa de convergencia depende de la implementación y es aleatoria.

La convergencia de algoritmos de adaptación es equivalente a la estabilidad de sistemas descrita por diferencias estocásticas o ecuaciones diferenciales. La estabilidad de estos sistemas debe entenderse en un sentido probabilístico: en probabilidad, en promedio cuadrático y casi con certeza (o con probabilidad uno). La estabilidad probabilística es una sección relativamente nueva de la teoría de la estabilidad, que ahora se está desarrollando intensamente.

prueba para varias condiciones convergencia en la probabilidad de resultados promedio gran número observaciones a algunos valores constantes.  

Por tanto, la secuencia /t(/ m)> n 1 es fundamental en probabilidad y, por tanto, según el criterio de Cauchy para la convergencia en probabilidad, existe una variable aleatoria, denotada / (/), tal que  

La desigualdad de Chebyshev. Convergencia en probabilidad y sus propiedades. La ley de los grandes números en forma de Chebyshev.  

Convergencia en la distribución y sus propiedades. Conexión con la convergencia en probabilidad. Teorema de continuidad. Funciones características.  

Comentario. Convergencia en probabilidad - u(Qv) y (P0) cuando N -> oo no se sigue de  

Para ver por qué es así, digamos que se comparan las empresas siderúrgicas utilizando múltiplos precio/beneficio, y una de las empresas del grupo registró recientemente beneficios muy bajos debido a una huelga el año pasado. Si no se normalizan las ganancias, la empresa parecerá sobrevaluada en relación con el sector, ya que es probable que el precio de mercado se base en la expectativa de que las dificultades laborales, aunque costosas, sean cosa del pasado. Si se utiliza un múltiplo precio/ventas para hacer juicios de valoración comparativos y se compara con el promedio de la industria, se supone que tarde o temprano el margen de beneficio de la empresa convergerá al promedio de la industria.  

Muy a menudo, la hipótesis de convergencia del modelo de crecimiento neoclásico se prueba utilizando el ejemplo de regiones de un país. Aunque puede haber diferencias entre regiones en términos de desarrollo tecnológico, preferencias, etc., estas diferencias serán significativamente menos significativas que las diferencias entre países. Por lo tanto, la probabilidad de convergencia absoluta entre regiones es significativamente mayor que entre países. Sin embargo, cuando se utilizan regiones para probar una hipótesis convergencia absoluta Se viola un prerrequisito importante del modelo de crecimiento neoclásico: la economía cerrada. Es obvio que las barreras culturales, lingüísticas, institucionales y formales al movimiento de factores resultan menos significativas para un grupo de regiones de un país. Sin embargo, se muestra que incluso en el caso de movilidad de factores y, por tanto, de violación de los supuestos del modelo original, las propiedades dinámicas de una economía cerrada y una economía con economía libre  

Flujo con efecto secundario limitado Flujo de Palma Flujo de Erlang de orden k Ley de distribución de Erlang de orden k con parámetro I Flujo de Erlang normalizado de orden k Teorema del límite central para términos distribuidos idénticamente de variables aleatorias convergencia en probabilidad medida de efecto secundario distribución normal normal curva Curva gaussiana Gauss K.F. Chebyshev P.L.  

Aquí plim es el límite de probabilidad; la flecha en la última condición denota convergencia en la distribución). Si se cumplen estas condiciones, entonces para n -> co, como en la situación D,  

Del lema de Fatou se deduce que este proceso es una supermartingala (no negativa) y, por lo tanto, según el teorema de Doob sobre la convergencia (ver 3b, Capítulo III), con probabilidad uno existe y lim Zt(- Zoo) es finito.  

Interés especial representa uno de ellos, a saber, la propiedad de aproximación de la densidad. Pages (1993) demostró que el algoritmo RNS que termina ausencia total vecinas de la neurona ganadora al final del entrenamiento, converge, lo que corresponde a la convergencia método clásico cuantificación ginoparamétrica o, en otras palabras, entrenamiento competitivo. El autor de este trabajo muestra que después de la cuantificación, las neuronas representan una buena marco discreto reconstruir la densidad inicial, asumiendo que cada neurona está ponderada por una probabilidad estimada por la frecuencia de su dominio Voronoi. Siempre que las neuronas estén ponderadas adecuadamente, el resultado muestra que los datos iniciales se pueden restaurar y el resultado en sí es preciso si el número de neuronas tiende a infinito.  



¿Te gustó el artículo? ¡Compartir con tus amigos!