Descomposición espectral de una función aleatoria estacionaria.

Considere la conexión entre el carácter función de correlación y la estructura del proceso aleatorio correspondiente.

Usaremos el concepto de "espectro", que se usa ampliamente no solo en la teoría de funciones aleatorias, sino también en física y tecnología. Si cualquier proceso oscilatorio se representa como una suma de oscilaciones armónicas de varias frecuencias (los llamados "armónicos"), entonces el espectro proceso oscilatorio llamada función que describe la distribución de amplitudes en varias frecuencias. El espectro muestra qué tipo de oscilaciones predominan en un proceso dado, cuáles son sus estructura interna. Introduciremos la descripción espectral de un proceso aleatorio estacionario de manera similar.

Primero, considere alguna función aleatoria estacionaria observada en un intervalo finito (0, t). Sea la función de correlación dada. función aleatoria X(t)

k x(t, t + τ ) = k x(τ ).

Lo sabemos k x(τ ) es una función par, por lo que su gráfica es simétrica con respecto al eje 0Y curva.



cuando cambia t 1 y t 2 de 0 a t argumento τ varía de - t antes t.

Se sabe que una función par en el intervalo (- T,T) se puede expandir a una serie de Fourier usando solo armónicos pares (coseno):

k x(τ ) = ,

ωk= 1 , ω 1 = ,

y los coeficientes Dk determinado por fórmulas

D 0 = ,

Dk = en k ≠ 0.

Considerando que las funciones k x(τ ) y porque ωk(τ ) son pares, puedes transformar las expresiones de los coeficientes de la siguiente manera:

(1)
D 0 = ,

Dk = en k ≠ 0.

Se puede demostrar que en tal notación una función aleatoria se puede representar como una expansión canónica:

= , (2)

Dónde Reino Unido, V k– variables aleatorias no correlacionadas con expectativas matemáticas, igual a cero y varianzas que son iguales para cada par variables aleatorias con el mismo indice k: D(Reino Unido) = D(V k) =Dk y variaciones Dk están determinados por las fórmulas (1).

La expansión (2) se llama descomposición espectral función aleatoria estacionaria.

Descomposición espectral Representa una función aleatoria estacionaria descompuesta en oscilaciones armónicas de varias frecuencias. ω 1 , ω 2 , …, ω k ,…, y las amplitudes de estas oscilaciones son variables aleatorias.



La varianza de la función aleatoria dada por la descomposición espectral (2) está determinada por la fórmula

dx = = = , (3)

aquellos. la varianza de una función aleatoria estacionaria es igual a la suma de las varianzas de todos los armónicos de su descomposición espectral.

La fórmula (3) muestra que la varianza de la función se distribuye de forma conocida en diferentes frecuencias: una frecuencia corresponde a b oh variaciones mayores, otras – m mi los más pequeños. La distribución de dispersión de frecuencia se puede ilustrar gráficamente en forma de la llamada espectro de dispersión . Para ello, las frecuencias se trazan a lo largo del eje de abscisas. ω 0 = 0, ω 1 , ω 2 , …, ω k , …, y a lo largo del eje de ordenadas – las dispersiones correspondientes.


Obviamente, la suma de todas las ordenadas del espectro así construido es igual a la varianza de la función aleatoria.

Está claro que cuanto mayor sea el período de tiempo que consideremos al construir la descomposición espectral, más completa será nuestra información sobre la función aleatoria. Por lo tanto, es natural intentar en la descomposición espectral intentar llegar al límite en t→ ∞, y observa en qué se convierte el espectro de la función aleatoria. En t → ∞ ω 1 = , entonces las distancias entre frecuencias ωk, disminuirá indefinidamente. En este caso, el espectro discreto se acercará a uno continuo, en el que cada intervalo de frecuencia arbitrariamente pequeño corresponderá a una dispersión elemental.

Representemos gráficamente el espectro continuo. Para hacer esto, trazaremos en el eje de ordenadas, no la dispersión en sí. Dk, A densidad de dispersión promedio, es decir. dispersión por unidad de longitud de un intervalo de frecuencia dado. Denotemos la distancia entre frecuencias adyacentes. ∆ω , y en cada segmento ∆ω , al igual que en la base, construiremos un rectángulo con área Dk. Obtenemos un gráfico de pasos que en principio se parece a un histograma de una distribución estadística.


Esta curva representa la densidad de distribución de dispersiones sobre frecuencias de un espectro continuo y la función misma. Sx(ω ) se llama densidad de dispersión espectral o densidad espectral función aleatoria estacionaria.

Obviamente, el área encerrada por la curva Sx(ω ), aún debe ser igual a la varianza dx función aleatoria:

dx = . (4).

La fórmula (4) es la expansión de la varianza. dx para la suma de términos elementales Sx(ω ), cada uno de los cuales representa la dispersión por rango de frecuencia elemental , adyacente al punto ω .

Así, se ha introducido una nueva característica adicional de un proceso aleatorio estacionario: la densidad espectral, que describe la composición de frecuencias. proceso estacionario. Sin embargo, no es independiente: está completamente determinado por la función de correlación. este proceso. Fórmula correspondiente, proveniente de la expansión de la función de correlación k x(τ ) en una serie de Fourier en un intervalo finito, se ve así:

Sx(ω ) = . (5)

En este caso, la función de correlación en sí también se puede expresar mediante densidad espectral:

k x(τ ) = . (6)

Fórmulas como (5) y (6), que conectan dos funciones entre sí, se llaman transformadas de Fourier.

Tenga en cuenta que desde formula general(6) en τ = 0, se obtiene la descomposición de varianza obtenida anteriormente (4).

En la práctica, en lugar de densidad espectral Sx(ω ) suelen utilizar densidad espectral normalizada:

s x(ω ) = ,

Dónde dx es la varianza de la función aleatoria.

Es fácil verificar que la función de correlación normalizada ρ X ( τ ) y densidad espectral normalizada s x(ω ) están relacionados mediante transformadas de Fourier:

ρ X ( τ ) = ,

s x(ω ) = .

Suponiendo en la primera de estas igualdades τ = 0 y dado que ρ x (0) = 1, tenemos

aquellos. área total, limitado por horario La densidad espectral normalizada es igual a 1.

§ 7. Propiedad ergódica de funciones aleatorias estacionarias.

Considere alguna función aleatoria estacionaria X(t) y supongamos que es necesario estimar sus características: expectativa matemática mx y función de correlación k x(τ ). Estas características, o mejor dicho, sus estimaciones y, como ya se mencionó, se pueden obtener de la experiencia, teniendo numero conocido implementaciones de funciones aleatorias X(t). Debido al número limitado de observaciones, la función no será estrictamente constante; será necesario promediarla y reemplazarla por alguna constante; de manera similar, promediando los valores para diferentes τ = t 2 – t 1, obtenemos la función de correlación.

Este método de procesamiento es obviamente bastante complejo y engorroso y, además, consta de dos etapas: una determinación aproximada de las características de una función aleatoria y también un promedio aproximado de estas características. Naturalmente surge la pregunta: ¿es posible que una función aleatoria estacionaria reemplace este proceso por uno más simple, que se basa de antemano en el supuesto de que la expectativa matemática no depende del tiempo y la función de correlación no depende del origen? .

Además, surge la pregunta: al procesar observaciones de una función aleatoria estacionaria, ¿es imprescindible tener varias implementaciones? Dado que el proceso aleatorio es estacionario y avanza uniformemente en el tiempo, es natural suponer que una y única implementación de duración suficiente puede servir como material suficiente para obtener las características de una función aleatoria.

Resultó que esa oportunidad existe, pero no para todos. procesos aleatorios. Por ejemplo, considere dos funciones aleatorias estacionarias, representadas por un conjunto de sus implementaciones.

Figura 1
Figura 2

Para una función aleatoria X 1 (t) (Fig. 1) se caracteriza por la siguiente característica: cada una de sus implementaciones tiene el mismo rasgos característicos: el valor promedio alrededor del cual ocurren las oscilaciones y el rango promedio de estas oscilaciones. Elijamos arbitrariamente una de estas realizaciones y continuemos mentalmente la experiencia como resultado de la cual se obtuvo durante un cierto período de tiempo. t. Obviamente, para un tamaño suficientemente grande t esta implementación puede darnos suficiente buen espectaculo sobre las propiedades de una función aleatoria en su conjunto. En particular, al promediar los valores de esta implementación a lo largo del eje x, con el tiempo, debemos obtener un valor aproximado de la expectativa matemática de una función aleatoria; promediando las desviaciones al cuadrado de este promedio, deberíamos obtener un valor aproximado de la varianza, etc.

Se dice que tal función tiene propiedad ergódica . La propiedad ergódica es que cada implementación individual de una función aleatoria es, por así decirlo, un "representante autorizado" de todo el conjunto de implementaciones posibles.

Si consideramos la función X 2 (t) (Fig. 2), entonces es obvio que para cada implementación el valor promedio es diferente y significativamente diferente de los demás. Por lo tanto, si construye un valor promedio único para todas las implementaciones, diferirá significativamente de cada una de ellas.

Si la función aleatoria X(t) tiene la propiedad ergódica, entonces para ello promedio de tiempo(sobre un área de observación bastante grande) aproximadamente igual al promedio de un conjunto de observaciones. Lo mismo será cierto para X 2 (t), X(t)X(t+τ), etc. En particular, para un tamaño suficientemente grande t valor esperado mx se puede calcular usando la fórmula

. (1)

En esta fórmula, por simplicidad, el signo ~ se omite al caracterizar una función aleatoria, lo que significa que no estamos tratando con las características en sí, sino con sus estimaciones.

De manera similar, podemos encontrar la función de correlación. k x(τ ) para cualquier τ . Porque

k x(τ ) = ,

luego calculando este valor para un dado τ , obtenemos

k x(τ ) ≈ , (2)

Dónde - implementación centrada. Habiendo calculado la integral (2) para varios valores τ , es posible reproducir aproximadamente punto por punto el desarrollo de la función de correlación.

En la práctica, las integrales anteriores suelen sustituirse por cantidades finitas. Esto se hace de la siguiente manera. Dividamos el intervalo de registro de la función aleatoria en norte partes iguales de longitud ∆ t, y denota los puntos medios de las secciones resultantes. t 1 , t 2 , …, Tennesse.



Representemos la integral (1) como la suma de integrales sobre secciones elementales ∆ t y de cada uno de ellos derivaremos la función X(t) desde debajo del signo integral por el valor promedio correspondiente al centro del intervalo - X(yo). Obtenemos aproximadamente

mx = = /

De manera similar, puede calcular la función de correlación para los valores τ , igual a 0, ∆ t, 2∆t, ... Pongamos por ejemplo el valor τ significado

τ = 2∆t = .

Calculemos la integral (2) dividiendo el intervalo de integración

T - τ = =

en nortemetro secciones iguales de longitud ∆ t y sacando la función del signo integral de cada uno de ellos por el valor medio. Obtenemos

.

La función de correlación se calcula utilizando la fórmula dada para metro= 0, 1, 2,…. Consistentemente hasta tales valores metro, en el que la función de correlación se vuelve casi igual a cero o comienza a realizar pequeñas fluctuaciones irregulares alrededor de cero. movimiento general funciones k x(τ ) se reproduce en puntos individuales.


Para que las características se puedan determinar con precisión satisfactoria, es necesario que el número de puntos norte era bastante grande (alrededor de 100 y en algunos casos más). Elegir la longitud de la sección elemental ∆ t está determinada por la naturaleza del cambio en la función aleatoria: si cambia relativamente suavemente, la sección ∆ t puedes elegir más que cuando hace fluctuaciones bruscas y frecuentes. Tentativamente, se puede recomendar elegir una sección elemental para que período completo el armónico de mayor frecuencia en la función aleatoria representó entre 5 y 10 puntos de referencia.

Solución tareas tipicas

1. a) Función aleatoria X(t) = (t 3 + 1)Ud., Dónde Ud.– una variable aleatoria cuyos valores pertenecen al intervalo (0; 10). Buscar implementaciones de funciones X(t) en dos pruebas en las que el valor Ud. tomó valores tu 1 = 2, tu 2 = 3.

Solución. Desde la implementación de la función aleatoria. X(t) se llama función de argumento no aleatorio t, entonces para estos valores de cantidad Ud. las implementaciones correspondientes de la función aleatoria serán

X 1 (t) = 2(t 3 + 1), X 2 (t) = 3(t 3 + 1).

b) Función aleatoria X(t) = Ud. pecado t, Dónde Ud.- valor aleatorio.

Buscar secciones X(t), correspondiente a valores de argumento fijos t 1 = , t 2 = .

Solución. Dado que la sección transversal de la función aleatoria X(t) es una variable aleatoria correspondiente a un valor fijo del argumento, entonces para valores dados del argumento las secciones transversales correspondientes serán

X 1 = Ud.· = , X 2 = Ud.· = Ud..

2. Encuentra la expectativa matemática de una función aleatoria. X(t) = Ud.· ℮t, Dónde Ud. METRO(u) = 5.

Solución. Te recordamos que expectativa matemática función aleatoria X(t) se llama función no aleatoria mx(t) = METRO[X(t)], que para cada valor del argumento t es igual a la expectativa matemática de la sección correspondiente de la función aleatoria. Por eso

mx(t) = METRO[X(t)] = METRO[Ud.· ℮t].

mx(t) =METRO[Ud.· ℮t] = ℮tM(Ud.) = 5℮t.

3. Encuentre la esperanza matemática de una función aleatoria a) X(t) = Utah 2 +2t+1; b) X(t) = Ud. pecado4 t + cos4 t, Dónde Ud. Y V son variables aleatorias, y METRO(U) = M(V) = 1.

Solución. Usando las propiedades de m.o. función aleatoria, tenemos

A) mx(t) = METRO(Utah 2 +2t+1) = METRO(Utah 2) +METRO(2t) + METRO(1) = METRO(Ud.)t 2 +2t+1 = t 2 +2t+1.

b) mx(t) = METRO(Ud. pecado4 t + cos4 t) = METRO(Ud. pecado4 t) + METRO( cos4 t) = METRO(Ud.)· pecado4 t + METRO(V)· cos4 t= pecado4 t+cos4 t.

4. Se conoce la función de correlación. k x función aleatoria X(t). Encuentra la función de correlación de una función aleatoria. Y(t) = X(t) + t 2, utilizando las definiciones de m.o. y función de correlación.

Solución. Busquemos m.o. función aleatoria Y(t):

mi(t) = METRO[Y(t)] = METRO[X(t) + t 2 ] = METRO[X(t)] + t 2 = mx(t) + t 2 .

Encontremos la función centrada.

= Y(t) - mi(t) = [X(t) + t 2 ] – [mx(t) + t 2 ] = X(t) –mx(t) = .

k y = = = k x.

5. Se conoce la función de correlación. k x función aleatoria X(t). Encuentre la función de correlación de la función aleatoria a) Y(t)=X(t)·( t+1); b) z(t)=C· X(t), Dónde CON- constante.

Solución. a) Encontremos el m.o. función aleatoria Y(t):

mi(t) = METRO[Y(t)] = METRO[X(t) · ( t+1)] = (t+1) · METRO[X(t)].

Encontremos la función centrada.

=Y(t)-mi(t)=X(t)·( t+1) - (t+1) · METRO[X(t)] = (t+1)·( X(t) - METRO[X(t)]) = (t+1)· .

Ahora encontremos la función de correlación.

k y = = = (t 1 +1)(t 2 +1)k x.

b) Similar al caso a) se puede demostrar que

k y = CON 2 k x.

6. Se conoce la varianza dx(t) función aleatoria X(t Y(t) =X(t)+2.

Solución. Agregar un término no aleatorio a una función aleatoria no cambia la función de correlación:

k y(t 1 , t 2) = k x(t 1 , t 2).

Lo sabemos k x(t, t) = dx(t), Es por eso

D(t) = k y(t, t) = k x(t, t) = dx(t).

7. Se conoce la varianza dx(t) función aleatoria X(t). Encuentra la varianza de una función aleatoria. Y(t) = (t+3) · X(t).

Solución. Busquemos m.o. función aleatoria Y(t):

mi(t) = METRO[Y(t)] = METRO[X(t) · ( t+3)] = (t+3) · METRO[X(t)].

Encontremos la función centrada.

=Y(t)-mi(t)=X(t)·( t+3) - (t+3)· METRO[X(t)] = (t+3)·( X(t) - METRO[X(t)]) = (t+3)· .

Encontremos la función de correlación.

k y = = = (t 1 +3)(t 2 +3)k x.

Ahora encontremos la varianza

D(t) = k y(t, t) = (t+3)(t+3)k x(t, t) = (t+3) 2 dx(t).


8. Dada una función aleatoria X(t) = Ud. cos2 t, Dónde Ud. es una variable aleatoria y METRO(u) = 5, D(u) = 6. Encuentre la expectativa matemática, la función de correlación y la varianza de la función aleatoria. X(t).

Solución. Encontremos la expectativa matemática requerida eliminando el factor no aleatorio cos2 t para el signo m.o.:

METRO[X(t)] = METRO[Ud. cos2 t] = cos2 t·M(Ud.) = 5cos2 t.

Encontremos la función centrada:

= X(t) - mx(t) = Ud. cos2 t- 5cos2 t = (U – 5)cos2 t.

Encontremos la función de correlación deseada:

k x(t 1 , t 2) = = METRO{[(U- 5)· cos2 t 1 ] [(U- 5)· cos2 t 2 ]} =

cos2 t 1 cos2 t 2 METRO(U- 5) 2 .

Además, teniendo en cuenta que para una variable aleatoria Ud. la varianza por definición es igual a D(Ud.) = METRO[(U-M((Ud.)] 2 = METRO((U- 5) 2, entendemos eso METRO((U- 5) 2 = 6. Por lo tanto, para la función de correlación finalmente tenemos

k x(t 1 , t 2) = 6cos2 t 1 cos2 t 2 .

Encontremos ahora la dispersión requerida, para la cual fijamos t 1 = t 2 = t:

dx(t) = k x(t, t) = 6cos 2 2 t.

9. Se da la función de correlación. k x(t 1 , t 2) = t 1 t 2. Encuentre la función de correlación normalizada.

Solución. Por definición, la función de correlación normalizada

ρx(t 1 , t 2) = = = .

El signo de la expresión resultante depende de si los argumentos tienen t 1 y t 2 signos idénticos o diferente. El denominador siempre es positivo, por lo que finalmente tenemos

ρx(t 1 , t 2) =

10. Se da la expectativa matemática. mx(t) = t 2 + 4 funciones aleatorias X(t). Encuentra la expectativa matemática de una función aleatoria. Y(t) = TX´( t) + t 2 .

Solución. La esperanza matemática de la derivada de una función aleatoria es igual a la derivada de su esperanza matemática. Es por eso

mi(t) = METRO(Y(t)) = METRO(TX´( t) + t 2) = METRO(TX´( t)) + METRO(t 2) =

= t∙M(X´( t)) + t 2 = t∙(mx(t))´ + t 2 = t∙(t 2+4)´+ t 2 = 3t 2 .

11. Se da la función de correlación. k x= función aleatoria X(t). Encuentra la función de correlación a partir de su derivada.

Solución. Para encontrar la función de correlación de la derivada, es necesario derivar la función de correlación de la función aleatoria original dos veces, primero con respecto a un argumento y luego con respecto al otro.

= .

+ =

= .


12. Función aleatoria dada X(t) = Ud.3 toneladas cos2 t, Dónde Ud. es una variable aleatoria y METRO(Ud.) = 4, D(Ud.) = 1. Encuentre la expectativa matemática y la función de correlación de su derivada.

Solución. mx(t) = METRO(X(t)) = METRO(Ud.3 toneladas cos2 t) = METRO(Ud.)℮3 toneladas cos2 t = 4℮3 toneladas cos2 t.

METRO(X(t)) = (mx(t))´ = 4(3℮ 3 toneladas cos2 t – 2℮3 toneladas pecado2 t) = 4℮3 toneladas(3cos2 t– 2pecado2 t).

Encontremos la función de correlación de la función aleatoria original. La función aleatoria centrada es

= X(t) - mx(t) = Ud.3 toneladas cos2 t- 4℮3 toneladas cos2 t = (U – 4)℮3 toneladas cos2 t.

k x(t 1 , t 2) = = METRO{[(U- 4) cos2 t 1 ] [(U- 4) cos2 t 2 ]} =

cos2 t 1 cos2 t 2 METRO((U- 4) 2)= cos2 t 1 cos2 t 2 D(Ud.)=cos2 t 1 cos2 t 2 .

Encontremos la derivada parcial de la función de correlación con respecto al primer argumento.

cos2 t 2 =

cos2 t 2 (3cos2 t 1 – 2pecado2 t 1).

Encontremos la segunda derivada mixta de la función de correlación.

= (3cos2 t 1 – 2pecado2 t 1) =

= (3cos2 t 1 – 2pecado2 t 1) (3cos2 t 2 – 2pecado2 t 2).


13. Función aleatoria dada X(t), teniendo una expectativa matemática

mx(t) = 3t 2 + 1. Encuentra la expectativa matemática de una función aleatoria. Y(t)= .

Solución. La expectativa matemática requerida

mi(t) = = = t 2 + t.

14. Encuentra la esperanza matemática de la integral. Y(t)= , conociendo la expectativa matemática de la función aleatoria X(t):

A) mx(t) = t–cos2 t; b) mx(t) = 4cos 2 t.

Solución. A) mi(t) = = = .

b) mi(t) = = = = + =

2t+ pecado2 t.


15. Función aleatoria dada X(t) = Ud.2 toneladas cos3 t, Dónde Ud. es una variable aleatoria y METRO(Ud.) = 5. Encuentra la esperanza matemática de la integral. Y(t)= .

Solución. Primero, encontremos la expectativa matemática de la función aleatoria en sí.

mx(t) = METRO(Ud.2 toneladas cos3 t) = METRO(Ud.)℮2 toneladas cos3 t = 5℮2 toneladas cos3 t.

mi(t) = = 5 = =

= ℮2 toneladas pecado3 t - = =

= ℮2 toneladas pecado3 t =

= ℮2 toneladas pecado3 t + ℮2 toneladas cos3 t .

Hemos obtenido una integral circular, por lo tanto

5 + = ℮2 toneladas pecado3 t + ℮2 toneladas cos3 t.

o = ℮2 toneladas( pecado3 t+cos3 t).

Finalmente mi(t) = ℮2 toneladas( pecado3 t+cos3 t).

16. Encuentra la esperanza matemática de la integral. Y(t) = , conociendo la función aleatoria X(t) =Ud.3 toneladas pecado t, Dónde Ud. es una variable aleatoria y METRO(Ud.)=2.

Solución. Encontremos la expectativa matemática de la función aleatoria en sí.

mx(t) = METRO(Ud.3 toneladas pecado t) = METRO(Ud.)℮3 toneladas pecado t = 2℮3 toneladas pecado t.

mi(t) = = 2 = =

= – 2℮3 toneladas porque t + = =

= – 2℮3 toneladas porque t + ℮3 toneladas pecado t .

Tenemos = – ℮3 toneladas porque t + ℮3 toneladas pecado t.

Finalmente mi(t) = – ℮2 toneladas porque t + ℮2 toneladas pecado t.


17. Función aleatoria dada X(t), teniendo una función de correlación

k x(t 1 , t 2) = t 1 t 2. Encuentra la función de correlación de la integral. Y(t)= .

Solución. Primero encontramos la función de correlación de la integral, que es igual a integral doble de una función de correlación dada. Por eso,

k y(t 1 , t 2) = = = = .

Entonces la varianza dy(t) = k y(t, t) = .

18. Se da la función de correlación. k x(t 1 , t 2) = función aleatoria X(t). Encuentra la varianza de la integral. Y(t)= .

Solución. Encontremos la función de correlación de la integral.

k y(t 1 , t 2) = = =

= = .

Entonces la varianza

dy(t) = k y(t, t) = .

19. Encuentra la varianza de la integral. Y(t) = , conociendo la función de correlación de la función aleatoria X(t):

A) k x(t 1 ,t 2) = ; b) k x(t 1 , t 2) = .

Solución. A) k y(t 1 , t 2) = = .

Construyendo la expansión espectral de una función aleatoria estacionaria

X(t) en un periodo de tiempo finito (Oh, T), Obtuvimos el espectro de varianzas de una función aleatoria en forma de una serie de líneas discretas individuales separadas por intervalos iguales (el llamado espectro "discontinuo" o "de líneas").

Evidentemente, cuanto mayor sea el periodo de tiempo que consideremos, más completa será nuestra información sobre la función aleatoria. Por tanto, es natural intentar llegar al límite en la descomposición espectral en T-> oo y mira en qué se convierte el espectro

función aleatoria. Con por lo tanto distancias

entre las frecuencias de los ods en los que se construye el espectro será en T-> oo disminuir indefinidamente. En este caso, el espectro discreto se acercará a uno continuo, en el que cada intervalo de frecuencia arbitrariamente pequeño Aco corresponderá a una dispersión elemental ADco.

Intentemos representar gráficamente un espectro continuo. Para hacer esto, debemos reorganizar ligeramente la gráfica del espectro discreto en valores finitos. T. Es decir, trazaremos en el eje de ordenadas, no en la dispersión en sí. Dk(que disminuye infinitamente con T-"uuuu), y densidad de dispersión promedio, aquellos. dispersión por unidad de longitud de un intervalo de frecuencia dado. Denotemos la distancia entre frecuencias adyacentes ACO:

y sobre cada segmento Aso como base construimos un rectángulo con área rek ( arroz. 17.3.1). Obtenemos un diagrama de pasos que se asemeja al principio de construcción de un histograma de una distribución estadística.

La altura del diagrama en la sección Aco adyacente al punto sod es igual a.

Arroz. 17.3.1

y representa la densidad de dispersión promedio en esta área. El área total de todo el diagrama es obviamente igual a la varianza de la función aleatoria.

Aumentaremos el intervalo indefinidamente. T. En este caso, Du -> O, y la curva escalonada se acercará indefinidamente a la curva suave. S x ( c) (Fig. 17.3.2). Esta curva representa la densidad de distribución de las dispersiones sobre las frecuencias de un espectro continuo, y la función D x.(a>) en sí se llama densidad de dispersión espectral, o, en resumen, densidad espectral función aleatoria estacionaria X(t).

Arroz. 17.3.2

Obviamente, el área encerrada por la curva D g (co) aún debe ser igual a la dispersión dx función aleatoria X(t):

La fórmula (17.3.2) no es más que la expansión de la varianza dx por la suma de los términos elementales L'Dso) s/co, cada uno de los cuales representa la dispersión por rango de frecuencia elemental dco, adyacente al punto ñ (Fig. 17.3.2).

Por lo tanto, hemos tenido en cuenta una nueva característica adicional de un proceso aleatorio estacionario: la densidad espectral, que describe la composición de frecuencia del proceso estacionario. Sin embargo, esta característica no es independiente; está completamente determinado por la función de correlación de este proceso. Así como las ordenadas de un espectro discreto Dk se expresan mediante las fórmulas (17.2.4) a través de la función de correlación k x ( t), densidad espectral Sx(a) También se puede expresar mediante una función de correlación.

Derivemos esta expresión. Para hacer esto, vayamos a expansión canónica función de correlación hasta el límite en T-> Ah, y veamos en qué se convierte. Partiremos de la expansión (17.2.1) de la función de correlación en una serie de Fourier en un intervalo finito (-t, 7):

donde la dispersión correspondiente a la frecuencia w/( se expresa mediante la fórmula

Antes de pasar al límite como Γ -> oo, pasemos en la fórmula (17.3.3) de la dispersión Dk a la densidad de dispersión promedio

Dado que esta densidad se calcula incluso en valor final t y depende de T, Denotémoslo:

Dividiendo la expresión (17.3.4) por obtenemos:

De (17.3.5) se deduce que

Sustituyamos la expresión (17.3.7) en la fórmula (17.3.3); obtenemos:

Veamos en qué se convierte la expresión (17.3.8) cuando T-> oh. Obviamente, en este caso Aso -> 0; el argumento discreto ω/(se transforma en un argumento ω que cambia continuamente; la suma se transforma en una integral sobre la variable ω; densidad media variaciones S X T) ( con A.) tiende a la densidad de dispersión A L.(ω), y la expresión (17.3.8) en el límite toma la forma:

Dónde S x (с) -densidad espectral de una función aleatoria estacionaria.

Pasando al límite como Γ -> oo en la fórmula (17.3.6), obtenemos una expresión para la densidad espectral mediante la función de correlación:

Una expresión como (17.3.9) se conoce en matemáticas como Integral de Fourier. La integral de Fourier es una generalización de la expansión en serie de Fourier para el caso de una función no periódica considerada en un intervalo infinito, y representa la expansión de la función en la suma de oscilaciones armónicas elementales con un espectro continuo 1.

Así como la serie de Fourier expresa la función expandible a través de los coeficientes de la serie, que a su vez se expresan a través de la función expandible, las fórmulas (17.3.9) y (17.3.10) expresan las funciones k x ( m) y A x (k>) son mutuos: uno a través del otro. La fórmula (17.3.9) expresa la función de correlación en términos de densidad espectral; fórmula

(17.3.10), por el contrario, expresa la densidad espectral a través de la función de correlación. Fórmulas como (17.3.9) y (17.3.10) que relacionan dos funciones entre sí se llaman Transformadas de Fourier.

Por lo tanto, la función de correlación y la densidad espectral se expresan entre sí mediante transformadas de Fourier.

Nótese que de la fórmula general (17.3.9) en m = 0 se deriva la descomposición de la dispersión en frecuencias (17.3.2) obtenida previamente.

En la práctica, en lugar de densidad espectral S x ( co) uso frecuente normalizado densidad espectral:

Dónde dx- varianza de la función aleatoria.

Es fácil verificar que la función de correlación normalizada p l (m) y la densidad espectral normalizada l A (ω) están relacionadas por las mismas transformadas de Fourier:

Suponiendo la primera ecuación (17.3.12) t = 0 y teniendo en cuenta que p t (0) = 1, tenemos:

aquellos. el área total delimitada por el gráfico de densidad espectral normalizada es igual a la unidad.

Ejemplo 1. Función de correlación normalizada p x (m) de una función aleatoria X(t) disminuye en ley lineal de uno a cero en 0 t 0 r l.(t) = 0 (Fig. 17.3.3). Determinar la densidad espectral normalizada de una función aleatoria. X(t).

Solución. La función de correlación normalizada se expresa por

fórmulas:

De las fórmulas (17.3.12) tenemos:

Arroz. 17.3.3


Arroz. 17.3.4

El gráfico de densidad espectral normalizada se muestra en la Fig. 17.3.4. La primera densidad espectral máxima, absoluta, se alcanza en co = 0; revelando incertidumbre

la densidad espectral alcanza una serie de máximos relativos, cuya altura disminuye al aumentar co; cuando ω -> oo l A. (o>) -> 0. La naturaleza del cambio en la densidad espectral. s x (с) (disminución rápida o lenta) depende del parámetro m 0. Área total, delimitado por una curva s x(co), es constante e igual a la unidad. Un cambio en m 0 equivale a un cambio en la escala de la curva, s" A .(co) a lo largo de ambos ejes manteniendo su área. Con un aumento en m 0, la escala a lo largo del eje de ordenadas aumenta, a lo largo de la abscisa eje disminuye; el predominio de la función aleatoria de frecuencia cero en el espectro se vuelve más pronunciado. En el límite, cuando m -> oo, la función aleatoria degenera en una variable aleatoria ordinaria, en este caso, p d (m) = I, y el espectro se vuelve discreto con una sola frecuencia con 0 = 0.

Arroz. 17.3.5

Ejemplo 2. Densidad espectral normalizada.v v (co) de una función aleatoria X(t) es constante en un cierto intervalo de frecuencia a>b a>2 y es igual a cero fuera de este intervalo (Fig. 17.3.5).

Determinar la función de correlación normalizada de una función aleatoria. X(t).

Solución. El valor de xl (co) en “t 2 se determina a partir de la condición de que el área limitada por la curva s x(co), igual a uno:

De (17.3.12) tenemos:

La vista general de la función p d (t) se muestra en la Fig. 17.3.6. Tiene el carácter de oscilaciones que disminuyen en amplitud con un número de nodos en los que la función desaparece. Vista específica Los gráficos obviamente dependen de los valores de a>a>2.

Arroz. 17.3.6

De interés es la forma límite de la función p x (m) como “t -> ω 2. Obviamente, cuando ω 2 = ω = ω, el espectro de la función aleatoria se vuelve discreto con una sola línea correspondiente a la frecuencia ω; en este caso, la función de correlación se convierte en un coseno simple:

Veamos qué forma tiene la función aleatoria en este caso. X(t). Con un espectro discreto con una sola línea.

expansión espectral de una función aleatoria estacionaria X(t) tiene la apariencia;

Dónde U vlV: variables aleatorias no correlacionadas con expectativas matemáticas iguales a cero y varianzas iguales:

Demostremos que una función aleatoria del tipo (17.3.14) se puede representar como una oscilación armónica de frecuencia c con amplitud y fase aleatorias. Designando

Reducimos la expresión (17.3.14) a la forma:

En esta expresión - amplitud aleatoria; F - fase aleatoria vibración armónica.

Hasta ahora, hemos considerado sólo el caso en el que la distribución de frecuencia de las dispersiones es continua, es decir, cuando un rango infinitamente pequeño de frecuencias representa una dispersión infinitesimal. En la práctica, a veces hay casos en que una función aleatoria contiene un componente de frecuencia puramente periódico o>a con una amplitud aleatoria. Entonces, en la expansión espectral de la función aleatoria, además del espectro continuo de frecuencias, aparecerá una frecuencia separada co*, con una dispersión finita Dk. En el caso general, puede haber varios de estos componentes periódicos. Entonces la expansión espectral de la función de correlación constará de dos partes: espectro discreto y continuo:

Los casos de funciones aleatorias estacionarias con un espectro tan "mixto" son bastante raros en la práctica. En estos casos, siempre tiene sentido dividir la función aleatoria en dos términos -con un espectro continuo y discreto- y estudiar estos términos por separado.

A menudo tenemos que lidiar con el caso especial en el que la dispersión final en la expansión espectral de una función aleatoria ocurre a frecuencia cero (ω = 0). Esto significa que la función aleatoria incluye como término una variable aleatoria ordinaria con varianza D0. EN casos similares También tiene sentido aislar este término aleatorio y operar con él por separado.

  • La fórmula (17.3.9) es una forma particular de la integral de Fourier, que generaliza la expansión en serie de Fourier de una función par en armónicos cosenos. Se puede escribir una expresión similar para más caso general.
  • Aquí nos enfrentamos a un caso especial de transformadas de Fourier: las llamadas “transformadas de Fourier del coseno”.

Necesario y condición suficiente ergodicidad ξ (t) en

La relación con la dispersión es la fórmula (2.5), y la condición suficiente es (2.6).

Normalmente, un proceso aleatorio estacionario no es ergonómico cuando se desarrolla de manera no uniforme. Por ejemplo, no ergodicidad.

ξ (t) puede deberse a que contiene como término una variable aleatoria X con características m x y D x. Entonces, dado que ξ 1 (t) = ξ (t) + X, entonces m ξ 1 = m ξ + m x,K ξ 1 (τ) = K ξ (τ) + D x

y τ→∞ limK ξ 1 (τ ) = τ→∞ lim[ K ξ (τ ) + D x ] = τ→∞ limK ξ (τ ) + τ→∞ limD x = D x ≠ 0 .

2.2. Descomposición espectral de un proceso aleatorio estacionario y transformada de Fourier. Densidad espectral

La idea principal de la representación espectral de procesos aleatorios es que pueden representarse como una suma de ciertos armónicos. Esta representación permite realizar con relativa facilidad diversas transformaciones, tanto lineales como no lineales, mediante procesos aleatorios. Se puede, por ejemplo, estudiar cómo se distribuye la dispersión de un proceso aleatorio entre las frecuencias de sus armónicos constituyentes. El uso de dicha información constituye la esencia teoría espectral procesos aleatorios estacionarios.

La teoría espectral permite utilizar la imagen de Fourier de un proceso aleatorio en los cálculos. En muchos casos, esto simplifica significativamente los cálculos y se utiliza ampliamente, especialmente en estudios teóricos.

Un proceso aleatorio estacionario ξ (t) se puede especificar a su manera

ellos por descomposición canónica o espectral:

ξ(t ) =m ξ +∑ ∞ (x k cos ωkt t +y k sen ωkt t ),

k = 0

donde M [ x k ] = M [ y k ] = 0 ,

re [ x k] = re [ y k] = re k,

M [ xk yk ] = M[ xi xj ] =

M[ yi yj ] = M[ xi yj ] = 0 ,

yo ≠ j. Donde

su covarianza

K ξ (t 1, t 2) = ∑ ∞ D k porque ω k (t 2− t 1) =

k = 0

= ∑ ∞ D k (cosω k t 1 cosω k t 2 + sinω k t 1 sinω k t 2 ) =

k = 0

= ∑ D k cos ωk τ =K ξ (τ) .

k = 0

La expresión (2.8) se puede representar como

ξ(t ) =m ξ +∑ z k porque (ωk t − ψk ),

k = 0

donde ψ k es la fase de la oscilación armónica de un aleatorio elemental

proceso, que es una variable aleatoria distribuida uniformemente en un intervalo en el intervalo (0.2π),z k – am-

amplitud de oscilación armónica de un proceso aleatorio elemental, y z k también es una variable aleatoria con algunos

mz y Dz.

De hecho, sea ξ k (t) = x k cos ω k t + y k sin ω k t, entonces m ξ k = 0,

K ξ k (t 1 , t 2 ) = M [ (x kcos ω kt 1 + y ksen ω kt 1 )(x kcos ω kt 2 + y ksen ω kt 2 ) ] =

M [ x k 2 cosω k t 1 cosω k t 2 + x k y k (sinω k t 1 cosω k t 2 +

Porque ω k t 1 sinω k t 2 ) + y k 2 sinω k t 1 sinω k t 2 ] =

M [ x k 2 ] cosω k t 1 cosω k t 2 + M [ y k 2 ] sinω k t 1 sinω k t 2 =

D k cosω k (t 2 − t 1 ) = D k cosω k τ .

poner

ξ k(t) = z kcos (ω kt −ψ k) ,

ψkR (0.2π),

ωk–

valor no aleatorio, pero

z k – caso-

magnitud

famoso

Dz,

ξ k (t ) = z k cosψ k cosω k t + z k sinψ k sinω k t

M [ cosψ k ] =

M [ pecadoψ k ] =

∫ cosxdx = 0

∫ senxdx = 0 ,

D [ cosψ k ] = M [ cos2 ψ k ] =

∫ cos 2 xdx= 1

D [ pecadoψ k ] = M [ pecado2 ψ k ] =

D [ pecadoψ k cosψ k ] = 0 .

∫ sen 2 xdx=

Por lo tanto m ξ k = M [ z k cosψ k sinω k t + z k sinψ k sinω k t ] = 0 ,

K ξ k (t 1 ,t 2 ) = M [ (z k cosψ k sinω k t 1 + z k sinψ k sinω k t 1 ) × × (z cosψ cosω t + z sinψ sinω t ) ] =

M [ z k 2 ] ( M [ cos2 ψ k ] cosω k t 1 cosω k t 2 +

M [ sinψ k cosψ k ] sinω k t 1 cosω k t 2 +

M [ cosψ k sinψ k ] cosω k t 1 sinω k t 2 +

M [ sin2 ψ k ] sinω k t 1 sinω k t 2 ) = D z k + 2 m z k cos(t 2 − t 1 ) .k k k 2 k k k 2

Así, bajo los supuestos hechos en las fórmulas (2.8) y (2.10) sobre las propiedades incluidas en estas fórmulas de variables aleatorias, las representaciones (2.8) y (2.10) son equivalentes. En este caso,

las cantidades de té z i y ψ i ,i = 1,∞ son dependientes, ya que, obviamente, las relaciones se cumplen

z kcos ψ k= x k, z ksin ψ k= y k,

D z k+ m z 2 k

D[xk]=D[yk]=Dk.

Dado que la función de covarianza de un proceso aleatorio estacionario es incluso función, entonces se puede variar en el intervalo (− T ,T )

poner en una serie de Fourier en términos de cosenos, es decir K ξ (τ ) = ∑ ∞ D k cosω k τ ,

k = 0

, ω =

(τ)dτ,

(τ) re τ. Creyendo

−T

−T

τ = 0, obtenemos

K ξ (0) = D ξ = ∑ D k cosω k 0

= ∑ re k .

k = 0

k = 0

Dado que ω k puede interpretarse como armónicos de la especificación

expansión central del proceso aleatorio estacionario (2.8), entonces varianza total de un proceso aleatorio estacionario, representado por su descomposición canónica (espectral), es igual a la suma de las dispersiones de todos los armónicos de su descomposición espectral. En la Fig. 2.1

muestra un conjunto de dispersiones D k correspondientes a varios armónicos ω i . Cuanto más largo sea el intervalo de descomposición según la fórmula

(2.9), más precisa será la expansión según esta fórmula. Si tomamos T ′ = 2T, entonces el espectro de dispersión de la descomposición espectral

proceso ξ (t ) en el intervalo (0,T ′ )

más componentes (ver Fig. 2.1, frecuencias ω / ).

/D 4/

D 5D 6 /

D7/

D2/k

ω1 /

ω 13 ω 1/ 2 ω 15 ω 1/ 3 ω 17 ω 1/ 4 ω 1

kω 1

Arroz. 2.2. "Espectro de variaciones" de un proceso aleatorio estacionario

Reescribamos (2.9) de una forma ligeramente diferente:

(cosk ∆ωτ) ∆ω,

∑Dk

porque ωk τ =∑

k = 0

k = 0

donde ∆ω = ω1

hay un intervalo entre frecuencias adyacentes. Si

D k =S

(ω ),

K ξ (τ) =∑ D k porque ωk τ =

(cos k ∆ωτ) ∆ω =

k = 0

0 k = 0

= ∞ ∫ S ξ (ω) cos ωτd ω.

La cantidad S ξ (ω k ) ∆ω = D k es parte del total

varianza del proceso aleatorio estacionario ξ (t) atribuible al k-ésimo armónico. Como T → ∞ (o como ∆ω→ 0), la función S ξ (ω k) se aproximará indefinidamente a la curva S ξ (ω), que

El paraíso se llama densidad espectral del caso estacionario.

proceso ξ (t) (Fig. 2.2). De (2.13) se deduce que las funciones K ξ (τ) y S ξ (ω) están relacionadas entre sí mediante la transformada del coseno de Fourier. De este modo,

Sξ(ω)=

∞ ∫ K ξ (τ) cos ωτd τ.

Arroz. 2.2. Gráficas de funciones S ξ (ω k) Y Sξ (ω )

La densidad espectral, por analogía con la función de densidad de probabilidad, tiene las siguientes propiedades:

1. Sξ (ω ) 0.

2. Sξ (ω ) dω = Sξ (ω ) porque(0 ω ) dω = kξ (0 ) =Dξ .

Si ingresas a la función Sξ (ω ) , definido de la siguiente manera:

Sξ (ω ) =Sξ 2 (ω ) , ω≥ 0,

Sξ (ω ) =

Sξ (−ω )

, ω< 0,

llamado densidad espectral de un proceso aleatorio estacionario en forma compleja, entonces esta función, además de las dos propiedades anteriores, tiene una tercera propiedad: la propiedad de paridad (Fig. 2.3).

3. Sξ (ω ) =Sξ (− ω ) .

Arroz. 2.3. Gráficos de función de densidad espectral

Reescribamos (2.8) de la siguiente forma:

X k

y k

ξ (t) =metroξ +

(porquek∆ω t) ∆ω+

( pecado k∆ω t) ∆ω .

k = 0

X k

= X(ω ) ,

y k

= Y(ω ) , entonces en

t→ ∞

∆ω→ 0

∆ω→ 0

disponible representación canónica integral centenar

proceso aleatorio nacional:

ξ (t) =metroξ +X(ω ) porqueω tdω+

Y(ω ) pecado ω tdω ,

¿Dónde están las funciones aleatorias? X(ω ) Y Y(ω )

representar el llamado

lavado " ruido blanco"(ver subsección 2.4). Características estadísticas

la siguiente:

METRO[X(ω )]= METRO[Y(ω )]= 0 ,

kX(ω 1, ω 2)

= kY(ω 1 , ω 2 ) =Sξ (ω ) δ (ω 2 − ω 1 ) , Dóndeδ (X)

mi ix + mi ix

mi ix mi ix

porque X=

pecado X=

2i

(t)= X

porque ω t+ y

ω t=

X k yo k

mi i ω k t

X k

+ yo k

mi i ω k t .

X k yo k

X k+ yo k

ξ (t) =zkmiiω kt+

designado zk=

z k mi iω kt

z k

significa conjugación compleja. Por eso,

la expansión espectral de un proceso aleatorio estacionario en forma compleja tiene la forma

i ω k t

i ω k t

+ zkmi

i ω k t

= metroξ +

ξ (t) =metroξ +

z k mi

z k mi

k = 0

k=−∞

Se pueden realizar acciones similares con la función de covarianza presentada en la forma (2.9), y obtener

k ξ (τ ) = D k mi iω kt.

k=−∞

La fórmula (2.13), teniendo en cuenta la introducción de la función, se puede reescribir de la siguiente forma:

Sξ (ω ) puedes re-

kξ (τ ) =Sξ (ω ) miiω tdω ,

y la función Sξ (ω ) - Cómo

Sξ (ω ) =

k ξ (τ ) mi iωτ d τ .

2 π −∞

Las fórmulas (2.18) y (2.19) representan la transformada de Fourier de la densidad espectral. Sξ (ω ) y función de covarianza kξ (τ ) en forma compleja.

Dado que la densidad espectral Sξ (ω ) representa

densidad de distribución de la dispersión de un proceso aleatorio sobre las frecuencias de sus armónicos, luego en algunas aplicaciones de la teoría aleatoria

procesos finales kξ ( 0) = Dξ (t) interpretado como la energía de un proceso aleatorio estacionario, y Sξ (ω ) – ¿Cómo es la densidad de esto?

energía por unidad de frecuencia. Esta interpretación apareció tras la aplicación de la teoría de los procesos aleatorios estacionarios en la ingeniería eléctrica.

Ejemplo 5. Encontrar densidad espectral Sξ (ω ) proceso aleatorio elemental ξ k(t) = Xk porque ω kt+ yk pecado ω kt.

Anteriormente se demostró que

metroξ k= 0 ,

kξ k(t1 ,t2 ) = Dk porque ω kτ ,

METRO [ X k] = METRO [ y k] = 0 ,

D[ X k ] = D[ y k ] = D k ,

τ = t2 t1 .

Según la fórmula (2.14)

ξ k

(ω )=

k

ξ k

(τ ) porqueωτ dτ =

D

porque ω

τ porqueωτ dτ =

= Dk[ porque(ω− ω k) τ + porque(ω+ ω k) τ ] dτ =

π 0

= Dk[ mii(ω−ω

Sξ k (ω ) =

i(ω−ω k) τ d(− τ ) + mii(ω−ω k) τ dτ +

k(1 ) mi

2π

+ (1 ) mi

i(ω+ω k) τ d(− τ ) + mii(ω+ω k) τ dτ

k

mii(ω−ω k)(−τ ) d(− τ ) + mii(ω−ω k) τ dτ + (1 ) ∫ mii(ω+ω k)(−τ ) d(− τ ) +

2 π −∞

+ mii(ω+ω k) τ dτ

kmii(ω−ω k) τ dτ +

mii

(ω+ω k) τ dτ

2 π −∞

= Dk[ δ (ω− ω k) + δ (ω+ ω k) ] ,

Dónde δ (ω ) = 1 miiωτ dτ – representación integral en forma de pre-

2 π −∞

educación de fourier δ -Funciones de Dirac. Expresión para Sξ k(ω )

Podría haberse dejado así, pero por lo positivo. ω (porque ω k> 0), teniendo en cuenta las propiedades δ -funciones (ver Tabla 6

a nosotros. 141), δ (ω+ ω k) 0. De este modo, Sξ (ω ) = Dkδ (ω− ω k) .

EntoncesSξ k(ω ) =1 2 Sξ k(ω ) =D2 k[ δ (ω− ω k) + δ (ω+ ω k) ] .

Encontremos ahora la densidad espectral dada en forma compleja. Funciones Sξ (ω ) Y Sξ k(ω ) – válido no-

funciones negativas. Sξ k(ω ) – una función par definida en el intervalo (− ∞ ,) ,Sξ (ω ) – definido en el intervalo ( 0,) , Y

en este intervalo Sξ k(ω ) = 1 2 Sξ k(ω ) (ver figura 2.3). Según la fórmula (2.19)

(ω )=

k

ξ k

(τ ) miiωτ dτ =

D

porqueω τ miiωτ dτ =

ξ k

2 π −∞

2 π −∞



¿Te gustó el artículo? ¡Compartir con tus amigos!