Fórmula para la densidad espectral. Densidad espectral de procesos estacionarios.

En la ingeniería radioeléctrica estadística y en la física, al estudiar señales deterministas y procesos aleatorios, se utiliza ampliamente su representación espectral en forma de densidad espectral, que se basa en la transformada de Fourier.

Si el proceso tiene energía finita y es cuadráticamente integrable (y este es un proceso no estacionario), entonces, para una implementación del proceso, la transformada de Fourier se puede definir como aleatoria. función compleja frecuencias:

X (f) = ∫ − ∞ ∞ x (t) mi − yo 2 π f t re t . (\displaystyle X(f)=\int \limits _(-\infty )^(\infty )x(t)e^(-i2\pi ft)dt.) (1)

Sin embargo, resulta casi inútil para describir el conjunto. La salida a esta situación es descartar algunos parámetros del espectro, a saber, el espectro de fase, y construir una función que caracterice la distribución de energía del proceso a lo largo del eje de frecuencia. Entonces, según el teorema de Parseval, la energía

mi x = ∫ − ∞ ∞ | x(t) | 2 re t = ∫ − ∞ ∞ | X(f) | 2df. (\displaystyle E_(x)=\int \limits _(-\infty )^(\infty )|x(t)|^(2)dt=\int \limits _(-\infty )^(\infty ) |X(f)|^(2)gl.) (2)

Función S x (f) = | X(f) | 2 (\displaystyle S_(x)(f)=|X(f)|^(2)) caracteriza así la distribución de la energía de implementación a lo largo del eje de frecuencia y se denomina densidad espectral de la implementación. Al promediar esta función en todas las implementaciones, se puede obtener la densidad espectral del proceso.

Pasemos ahora a lo estacionario. En un amplio sentido proceso aleatorio centrado x (t) (\displaystyle x(t)), cuyas realizaciones con probabilidad 1 tienen energía infinita y por tanto no tienen transformada de Fourier. La densidad espectral de potencia de tal proceso se puede encontrar basándose en el teorema de Wiener-Khinchin como la transformada de Fourier de la función de correlación:

S x (f) = ∫ − ∞ ∞ k x (τ) mi − yo 2 π f τ d τ . (\displaystyle S_(x)(f)=\int \limits _(-\infty )^(\infty )k_(x)(\tau)e^(-i2\pi f\tau )d\tau .) (3)

Si hay una transformación directa, entonces también hay una transformada de Fourier inversa, que, desde un punto de vista conocido, determina k x (τ) (\displaystyle k_(x)(\tau)):

k x (τ) = ∫ − ∞ ∞ S x (f) mi yo 2 π f τ re f . (\displaystyle k_(x)(\tau)=\int \limits _(-\infty )^(\infty )S_(x)(f)e^(i2\pi f\tau )df.) (4)

Si asumimos en las fórmulas (3) y (4) respectivamente f = 0 (\displaystyle f=0) Y τ = 0 (\displaystyle \tau =0), tenemos

S x (0) = ∫ − ∞ ∞ k x (τ) d τ , (\displaystyle S_(x)(0)=\int \limits _(-\infty )^(\infty )k_(x)(\tau )d\tau ,) (5)
σ x 2 = k x (0) = ∫ − ∞ ∞ S x (f) d f . (\displaystyle \sigma _(x)^(2)=k_(x)(0)=\int \limits _(-\infty )^(\infty )S_(x)(f)df.) (6)

La fórmula (6), teniendo en cuenta (2), muestra que la dispersión determina la energía total de un proceso aleatorio estacionario, que es igual al área bajo la curva de densidad espectral. Valor dimensional S x (f) d f (\displaystyle S_(x)(f)df) puede interpretarse como la fracción de energía concentrada en un pequeño rango de frecuencia desde f − re f / 2 (\displaystyle f-df/2) antes f + d f / 2 (\displaystyle f+df/2). Si queremos decir por x (t) (\displaystyle x(t)) corriente o voltaje aleatorio (fluctuación), entonces el valor S x (f) (\displaystyle S_(x)(f)) tendrá la dimensión de energía [V 2 /Hz] = [V 2 s]. Es por eso S x (f) (\displaystyle S_(x)(f)) aveces llamado espectro energético. En la literatura a menudo se puede encontrar otra interpretación: σ x 2 (\displaystyle \sigma _(x)^(2))– se considera como la potencia promedio generada por corriente o voltaje a través de una resistencia de 1 ohmio. Al mismo tiempo, el valor S x (f) (\displaystyle S_(x)(f)) llamado espectro de potencia proceso aleatorio.

Propiedades de densidad espectral

  • El espectro de energía de un proceso estacionario (material o complejo) es una cantidad no negativa:
S x (f) ≥ 0 (\displaystyle S_(x)(f)\geq 0). (7)
  • El espectro de energía de un proceso real, estacionario y aleatorio en un sentido amplio es una función real y uniforme de la frecuencia:
S x (− f) = S x (f) (\displaystyle S_(x)(-f)=S_(x)(f)). (8)
1. Señales y espectros. Fundamentos teóricos de las comunicaciones digitales.

1. Señales y espectros

1.1. Procesamiento de señales en comunicaciones digitales.

1.1.1. ¿Por qué "digital"?

¿Por qué los sistemas de comunicaciones militares y comerciales utilizan "dígitos"? Hay muchas razones. La principal ventaja de este enfoque es la facilidad de reconstrucción de señales digitales en comparación con las analógicas. Veamos la figura. 1.1, que muestra un pulso digital binario ideal que se propaga a lo largo de un canal de datos. La forma de onda se ve afectada por dos mecanismos principales: (1) dado que todos los canales y líneas de transmisión tienen una respuesta de frecuencia no ideal, el pulso ideal se distorsiona; y (2) el ruido eléctrico no deseado u otra interferencia externa distorsiona aún más la forma del pulso. Cuanto más largo es el canal, más distorsionan estos mecanismos el pulso (fig. 1.1). En el punto en el que el pulso transmitido aún se puede determinar de manera confiable (antes de que se degrade a un estado ambiguo), el pulso se amplifica mediante un amplificador digital, restaurando su forma ideal original. El impulso “renace” o se restaura. Los repetidores regenerativos ubicados en el canal de comunicación a cierta distancia entre sí son responsables de la restauración de la señal.

Los canales digitales son menos susceptibles a la distorsión y la interferencia que los canales analógicos. Debido a que los canales digitales binarios producen una señal significativa sólo cuando operan en uno de dos estados (encendido o apagado), la perturbación debe ser lo suficientemente grande como para mover el punto de operación del canal de un estado al otro. Tener sólo dos estados facilita la reconstrucción de la señal y, por tanto, evita que se acumulen ruidos u otras perturbaciones durante la transmisión. Las señales analógicas, por el contrario, no son señales de dos estados; pueden aceptar un número infinito formas En los canales analógicos, incluso una pequeña perturbación puede distorsionar la señal hasta quedar irreconocible. Una vez que una señal analógica se distorsiona, la perturbación no se puede eliminar mediante amplificación. Dado que la acumulación de ruido es inherente a las señales analógicas, como consecuencia de ello no se pueden reproducir perfectamente. Con la tecnología digital, una tasa de error muy baja más el uso de procedimientos de detección y corrección de errores hacen que la señal sea muy precisa. Sólo queda señalar que con las tecnologías analógicas tales procedimientos no están disponibles.

Fig.1.1. Distorsión y restauración de impulsos.

Hay otros beneficios importantes de la comunicación digital. Los canales digitales son más fiables y pueden producirse a un coste menor. precios bajos que analógico. Además, el software digital permite más implementación más flexible que la analógica (por ejemplo, microprocesadores, conmutación digital y circuitos integrados a gran escala (LSI)). Usar señales digitales y multiplexación por división de tiempo (TDM) es más simple que usar señales analógicas y multiplexación por división de frecuencia (FDM). Al transmitir y conmutar, diferentes tipos de señales digitales (datos, telégrafo, teléfono, televisión) pueden considerarse idénticas: al fin y al cabo, un bit es un bit. Además, para facilitar la conmutación y el procesamiento, los mensajes digitales se pueden agrupar en unidades autónomas llamadas paquetes. EN tecnologías digitales Naturalmente se introducen funciones que protegen contra interferencias e interferencias de señal, o que proporcionan cifrado o secreto. (En los capítulos 12 y 14 se analizan tecnologías similares.) Además, el intercambio de datos se produce principalmente entre dos computadoras o entre una computadora y un dispositivo o terminal digital. Estos dispositivos terminales digitales funcionan mejor (¡y son más naturales!) mediante canales de comunicación digitales.

¿Cuánto pagamos por los beneficios de los sistemas de comunicación digitales? Los sistemas digitales requieren un procesamiento más intensivo que los analógicos. Además, para los sistemas digitales es necesario destinar una parte importante de los recursos para la sincronización a varios niveles(ver capítulo 10). Los sistemas analógicos, por el contrario, son más fáciles de sincronizar. Otra desventaja de los sistemas de comunicación digitales es que la degradación de la calidad es un umbral. Si la relación señal-ruido cae por debajo de cierto umbral, la calidad del servicio puede cambiar repentinamente de muy buena a muy mala. En los sistemas analógicos, el deterioro de la calidad se produce de forma más suave.

1.1.2. Diagrama de caja típico y transformaciones básicas.

Diagrama de bloques funcional mostrado en la Fig. 1.2 ilustra los pasos de propagación y procesamiento de señales en un sistema de comunicaciones digitales (DCS) típico. Los bloques superiores (formato, codificación de fuente, cifrado, codificación de canal, multiplexación, modulación de pulso, modulación de paso de banda, espectro ensanchado y acceso múltiple) reflejan las transformaciones de la señal en el camino desde la fuente al transmisor. Los bloques inferiores del diagrama son transformaciones de señales en el camino desde el receptor al destinatario de la información y, de hecho, son opuestos a los bloques superiores. Los bloques de modulación y demodulación/detección se denominan colectivamente módem. El término "módem" a menudo combina varias etapas de procesamiento de señales, como se muestra en la Fig. 1.2; En este caso, se puede considerar al módem como el “cerebro” del sistema. El transmisor y el receptor pueden considerarse como los "músculos" del sistema. Para aplicaciones inalámbricas, el transmisor consta de un circuito de refuerzo de radiofrecuencia (RF), un amplificador de potencia y una antena, y el receptor consta de una antena y un amplificador de bajo ruido (LNA). La reducción de frecuencia inversa se realiza a la salida del receptor y/o demodulador.

En la Fig. La Figura 1.2 ilustra la correspondencia entre los bloques de las partes superior (transmisora) e inferior (receptora) del sistema. Los pasos de procesamiento de la señal que tienen lugar en el transmisor son predominantemente inversos a los del receptor. En la Fig. 1.2 la información original se convierte en dígitos binarios (bits); Luego, los bits se agrupan en mensajes digitales o símbolos de mensajes. Cada uno de estos símbolos (dónde) puede considerarse como un elemento de un alfabeto finito que contiene METRO elementos. Por lo tanto, para METRO=2 El símbolo del mensaje es binario (es decir, consta de un bit). Aunque los caracteres binarios se pueden clasificar como METRO-ario (con M=2), normalmente el nombre " METRO-ary" se utiliza para casos METRO>2; Esto significa que tales símbolos consisten en una secuencia de dos o más bits (Compare este alfabeto finito de los sistemas DCS con el que tenemos en los sistemas analógicos, donde la señal del mensaje es un elemento de la conjunto finito posibles señales.) Para los sistemas que utilizan codificación de canal (códigos de corrección de errores), la secuencia de símbolos de mensaje se convierte en una secuencia de símbolos de canal (símbolos de código) y se designa cada símbolo de canal. Dado que los símbolos de mensaje o símbolos de canal pueden consistir en un solo bit o un grupo de bits, una secuencia de dichos símbolos se denomina flujo de bits (Figura 1.2).

Consideremos los bloques clave de procesamiento de señales que se muestran en la Fig. 1.2; Los únicos pasos necesarios para los sistemas DCS son el formateo, la modulación, la demodulación/detección y la sincronización.

El formateo convierte la información original en bits, asegurando así que las funciones de procesamiento de información y señales sean compatibles con el sistema DCS. Desde este punto de la figura hasta el bloque de modulación de pulsos, la información permanece en forma de un flujo de bits.

Arroz. 1.2. Diagrama de bloques de un sistema de comunicaciones digitales típico.

La modulación es el proceso mediante el cual los símbolos de mensaje o símbolos de canal (si se utiliza codificación de canal) se convierten en señales compatibles con los requisitos impuestos por el canal de datos. La modulación de pulso es otra etapa necesaria, porque cada carácter que debe transmitirse primero debe convertirse de una representación binaria (niveles de voltaje que representan unos y ceros binarios) a una forma de señal de banda estrecha. El término "banda base" define una señal cuyo espectro comienza en (o cerca de) un componente de CC y termina en algún valor finito (normalmente no más de unos pocos megahercios). El bloque de modulación de código de impulsos normalmente incluye filtrado para minimizar el ancho de banda de transmisión. Cuando se aplica modulación de pulso a símbolos binarios, la señal binaria resultante se denomina señal codificada PCM (modulación de código de pulso). Existen varios tipos de señales PCM (descritas en el Capítulo 2); En aplicaciones de telefonía, estas señales suelen denominarse códigos de canal. Cuando se aplica modulación de pulso a caracteres no binarios, la señal resultante se llama METRO-Aria modulada por pulsos. Hay varios tipos de señales de este tipo, que también se describen en el Capítulo 2, donde la atención se centra en la modulación de amplitud de pulso (PAM). Después de la modulación de pulso, cada símbolo de mensaje o símbolo de canal toma la forma de una señal de paso de banda, donde. En cualquier implementación electrónica, el flujo de bits que precede a la modulación de pulsos está representado por niveles de voltaje. Cabe preguntarse por qué hay un bloque separado para la modulación de pulsos, cuando en realidad los niveles de voltaje para ceros y unos binarios ya pueden considerarse pulsos rectangulares ideales, cada uno de los cuales tiene una duración igual al tiempo de transmisión de un bit. Hay dos diferencias importantes entre niveles similares Señales de voltaje y paso de banda utilizadas para la modulación. En primer lugar, el bloque de modulación de pulsos permite el uso de binario y METRO-señales arias. La sección 2.8.2 describe varios parámetros útiles para estos tipos de señales. En segundo lugar, el filtrado realizado en la unidad de modulación de impulsos genera impulsos cuya duración es mayor que el tiempo de transmisión de un bit. La filtración permite el uso de pulsos más largos; por tanto, los impulsos se distribuyen en intervalos de tiempo de transmisión de bits adyacentes. Este proceso a veces se denomina configuración del pulso; se utiliza para mantener el ancho de banda de transmisión dentro de alguna región deseada del espectro.

Para aplicaciones que involucran transmisión de radiofrecuencia, lo siguiente etapa importante es modulación de paso de banda; siempre es necesario cuando el medio de transmisión no soporta la propagación de señales en forma de pulsos. En tales casos, el medio requiere una señal de paso de banda, donde. El término "paso de banda" se utiliza para reflejar que la onda portadora desplaza una señal de banda estrecha a una frecuencia mucho más alta que sus componentes espectrales. A medida que una señal se propaga a través de un canal, se ve afectada por las características del canal, que pueden expresarse en términos de respuesta al impulso (consulte la Sección 1.6.1). Además, en varios puntos a lo largo de la ruta de la señal, el ruido aleatorio adicional corrompe la señal recibida, por lo que la recepción debe expresarse en términos de una versión corrupta de la señal proveniente del transmisor. La señal recibida se puede expresar de la siguiente manera:

donde el signo "*" representa la operación de convolución (ver Apéndice A) y es el proceso de ruido (ver Sección 1.5.5).

En la dirección inversa, el extremo frontal del receptor y/o el demodulador reducen la frecuencia de cada señal de paso de banda. En preparación para la detección, el demodulador reconstruye la envolvente óptima de la señal de banda estrecha. Por lo general, se asocian varios filtros con el receptor y el demodulador; el filtrado se realiza para eliminar componentes de alta frecuencia no deseados (en el proceso de convertir una señal de paso de banda en una señal de banda estrecha) y dar forma al pulso. La ecualización se puede describir como un tipo de filtrado utilizado en el demodulador (o después del demodulador) para eliminar cualquier efecto de degradación de la señal que el canal pueda haber causado. La ecualización es necesaria cuando la respuesta al impulso de un canal es tan pobre que la señal recibida queda muy distorsionada. Se implementa un ecualizador (dispositivo de nivelación) para compensar (es decir, eliminar o atenuar) toda la distorsión de la señal causada por una característica no ideal. Finalmente, el paso de muestreo convierte el pulso generado en una muestra para recuperar (aproximadamente) el símbolo del canal o el símbolo del mensaje (si no se utiliza la codificación del canal). Algunos autores utilizan los términos demodulación y detección indistintamente. En este libro, la demodulación se refiere a la reconstrucción de una señal (pulso de ancho de banda) y la detección se refiere a tomar una decisión con respecto al valor digital de esta señal.

Las etapas restantes del procesamiento de señales en el módem son opcionales y están destinadas a satisfacer necesidades específicas del sistema. La codificación fuente es la conversión de una señal analógica en digital (para fuentes analógicas) y la eliminación de información redundante (innecesaria). Tenga en cuenta que sistema típico DCS puede utilizar codificación fuente (para digitalizar y comprimir la información original) o una conversión de formato más simple (solo para digitalización). El sistema no puede aplicar simultáneamente tanto la codificación fuente como el formateo, ya que la primera ya incluye la etapa necesaria de digitalización de la información. El cifrado, que se utiliza para garantizar la privacidad de las comunicaciones, evita que un usuario no autorizado comprenda el mensaje e introduzca mensajes falsos en el sistema. La codificación de canal a una velocidad de datos determinada puede reducir la probabilidad de error de PE o reducir la relación señal-ruido requerida para obtener la probabilidad deseada de PE aumentando el ancho de banda de transmisión o complicando el decodificador. Los procedimientos de multiplexación y acceso múltiple combinan señales que pueden tener diferentes características o pueden provenir de diferentes fuentes, para que puedan compartir parte de los recursos de comunicación (por ejemplo, espectro, tiempo). La dispersión de frecuencia puede proporcionar una señal que es relativamente inmune a la interferencia (tanto natural como intencional) y puede usarse para mejorar la privacidad de las partes que se comunican. También es una tecnología valiosa que se utiliza para el acceso múltiple.

Los bloques de procesamiento de señales que se muestran en la Fig. 1.2 representa un diagrama típico de un sistema de comunicación digital; sin embargo, estos bloques a veces se implementan en un orden ligeramente diferente. Por ejemplo, la multiplexación puede ocurrir antes de la codificación o modulación del canal, o - en un proceso de modulación de dos etapas (subportadora y portadora) - puede ocurrir entre dos etapas de modulación. De manera similar, la unidad de expansión de frecuencia se puede ubicar en varios lugares en la fila superior de la Fig. 1.2; su ubicación exacta depende de la tecnología específica utilizada. La sincronización y su elemento clave, la señal de reloj, están involucrados en todas las etapas del procesamiento de señales en un sistema DCS. Por simplicidad, el bloque de sincronización de la Fig. 1.2 se muestra sin hacer referencia a nada, aunque en realidad participa en la regulación de operaciones en casi todos los bloques que se muestran en la figura.

En la Fig. La Figura 1.3 muestra las funciones básicas del procesamiento de señales (que pueden considerarse como acondicionamiento de señales), divididas en los siguientes nueve grupos.

Fig.1.3. Grandes transformaciones de las comunicaciones digitales

1. Formatear y codificar la fuente

2. Transmisión de señal de banda estrecha

3. Señalización de paso de banda

4. Alineación

5. Codificación de canales

6. Sello y acceso múltiple

7. Ampliación del espectro

8. Cifrado

9. Sincronización

En la Fig. La transmisión de señal de banda estrecha de 1.3 bloques contiene una lista de alternativas binarias cuando se utiliza modulación PCM o códigos lineales. Este bloque también identifica una categoría no binaria de señales llamada METRO-Modulación de pulso aria. Otra transformación en la Fig. 1.3, denominado Señalización de paso de banda, se divide en dos bloques principales, coherente e incoherente. La demodulación suele realizarse utilizando señales de referencia. Cuando se utilizan señales conocidas como medida de todos los parámetros de la señal (especialmente la fase), el proceso de demodulación se denomina coherente; cuando no se utiliza la información de fase, se dice que el proceso es incoherente.

La codificación de canales se refiere a técnicas utilizadas para mejorar las señales digitales, haciéndolas menos vulnerables a factores de degradación como el ruido, el desvanecimiento y la supresión de la señal. En la Fig. La codificación de 1.3 canales se divide en dos bloques, un bloque de codificación de forma de onda y un bloque de secuencia estructurada. La codificación de formas de onda implica el uso de nuevas señales que introducen un rendimiento de detección mejorado con respecto a la señal original. Las secuencias estructuradas implican el uso de bits adicionales para determinar si existe un error debido al ruido en el canal. Una de esas tecnologías, la solicitud de repetición automática (ARQ), simplemente reconoce que se ha producido un error y solicita al remitente que retransmita el mensaje; Otra tecnología, conocida como corrección de errores directa (FEC), permite corregir los errores automáticamente (con ciertas limitaciones). Al analizar secuencias estructuradas, analizaremos tres métodos comunes: codificación en bloque, convolucional y turbo.

En las comunicaciones digitales, la sincronización implica el cálculo tanto del tiempo como de la frecuencia. Como se muestra en la Fig. 1.3, la sincronización se realiza en cinco niveles. Las frecuencias de referencia de los sistemas coherentes deben estar sincronizadas con la portadora (y posiblemente con la subportadora) en frecuencia y fase. Para sistemas incoherentes, la sincronización de fases no es necesaria. El proceso básico de sincronización de tiempo es la sincronización de caracteres (o sincronización de bits para caracteres binarios). El demodulador y el detector deben saber cuándo iniciar y detener el proceso de detección de símbolos y bits; El error de sincronización conduce a una reducción de la eficiencia de detección. El siguiente nivel de sincronización de tiempo, la sincronización de cuadros, permite reorganizar los mensajes. Y el último nivel, sincronización de red, permite coordinar acciones con otros usuarios para uso efectivo recursos.

1.1.3. Terminología básica en el campo de las comunicaciones digitales.

A continuación se muestran algunos términos básicos que se utilizan con frecuencia en el campo de las comunicaciones digitales.

Una fuente de información(Fuente de información). Un dispositivo que transmite información a través del sistema DCS. La fuente de información puede ser analógica o discreta. La salida de una fuente analógica puede tomar cualquier valor de un rango continuo de amplitudes, mientras que la salida de una fuente de información discreta puede tomar valores de un conjunto finito de amplitudes. Las fuentes de información analógicas se convierten en digitales mediante muestreo o cuantificación. Métodos de muestreo y cuantificación llamados formato y codificación de fuente (Fig. 1.3).

Mensaje de texto(mensaje de texto). Secuencia de caracteres (Fig. 1.4, A). En la transmisión de datos digitales, un mensaje es una secuencia de números o símbolos que pertenecen a un conjunto finito de caracteres o alfabeto.

Firmar(Personaje). Un elemento del alfabeto o conjunto de caracteres (Fig. 1.4, b). Los caracteres se pueden asignar a una secuencia de dígitos binarios. Hay varios códigos estandarizados que se utilizan para la codificación de caracteres, incluido el código ASCII (Código estándar estadounidense para el intercambio de información), el código EBCDIC (Código de intercambio decimal codificado en binario extendido), el código Hollerith, el código Hollerith, el código Baudot, el código Murray y el código Morse.

Fig.1.4. Ilustración de términos: a) mensajes de texto; b) símbolos;

c) flujo de bits (código ASCII de 7 bits); d) símbolos, ;

e) señal digital de paso de banda

Dígito binario(dígito binario) (bit) (bit). La unidad fundamental de información para todos los sistemas digitales. El término "bit" también se utiliza como unidad de volumen de información, que se describe en el Capítulo 9.

flujo de bits(flujo de bits). Una secuencia de dígitos binarios (ceros y unos). El flujo de bits a menudo se denomina señal de banda base; esto implica que sus componentes espectrales varían desde (o alrededor de) el componente de CC hasta algún valor finito, que generalmente no excede unos pocos megahercios. En la Fig. 1.4, el mensaje CÓMO se representa mediante código ASCII de siete bits y el flujo de bits se muestra en forma de pulsos de dos niveles. La secuencia de pulsos se representa utilizando señales muy estilizadas (perfectamente rectangulares) con espacios entre pulsos adyacentes. En un sistema real, los pulsos nunca se verían así, ya que tales espacios son absolutamente inútiles. Para una velocidad de datos determinada, las brechas aumentarán el ancho de banda requerido para la transmisión; o, para un ancho de banda determinado, aumentarán el retraso de tiempo necesario para recibir el mensaje.

Símbolo(símbolo) (mensaje digital). Un símbolo es un grupo de k bits considerados en su conjunto. En lo que sigue llamaremos a este bloque símbolo de mensaje () de un conjunto finito de símbolos o alfabeto (Fig. 1.4, d.) Tamaño del alfabeto METRO es igual a , donde k- número de bits en un símbolo. En la transmisión de banda estrecha, cada símbolo estará representado por uno de un conjunto de señales de pulso de banda estrecha. . A veces, al transmitir una secuencia de dichos pulsos, se utiliza la unidad baudios (baud) para expresar la velocidad de transmisión del pulso (velocidad de símbolo). Para una transmisión típica de paso de banda, cada pulso estará representado por una de un conjunto de señales de pulso de paso de banda. . Así, para los sistemas inalámbricos, el símbolo se envía transmitiendo señal digital durante t segundos El siguiente carácter se envía durante el siguiente intervalo de tiempo, t. El hecho de que el conjunto de símbolos transmitidos por el sistema DCS sea finito es la principal diferencia entre estos sistemas y los sistemas de comunicación analógicos. El receptor DCS sólo necesita determinar cuál de los METRO se transmitieron posibles señales; mientras que un receptor analógico debe determinar con precisión el valor perteneciente a un rango continuo de señales.

Señal digital(forma de onda digital). Descrito por un nivel de voltaje o corriente, una señal (un pulso para banda estrecha o una onda sinusoidal para paso de banda) que representa un carácter digital. Las características de la señal (para pulsos - amplitud, duración y ubicación, o para una onda sinusoidal - amplitud, frecuencia y fase) permiten identificarla como uno de los símbolos del alfabeto finito. En la Fig. 1.4, d Se da un ejemplo de una señal digital de paso de banda. Aunque la señal es una onda sinusoidal y por tanto tiene apariencia analógica, se sigue llamando digital porque codifica información digital. En esta figura, se indica un valor digital mediante transmisión durante cada intervalo de tiempo. t señal de una determinada frecuencia.

Tasa de transferencia de datos(velocidad de datos). k Este valor en bits por segundo (bps) viene dado por (bps) donde t los bits definen un carácter del alfabeto simbólico, y - esta es la duración A

-símbolo de bit.

1.1.4. Criterios de rendimiento digitales y analógicos. Diferencia fundamental

Los sistemas de comunicación analógicos y digitales están relacionados con la forma en que se evalúa su desempeño. Las señales del sistema analógico son un continuo, por lo que el receptor debe tratar con un número infinito de señales posibles. La medida del rendimiento de los sistemas de comunicación analógicos es la precisión, como la relación señal-ruido, el porcentaje de distorsión o el error cuadrático medio esperado entre las señales transmitidas y recibidas.

A diferencia de los sistemas de comunicación analógicos, los digitales transmiten señales que representan números. Estos dígitos forman un conjunto finito o alfabeto, y este conjunto es conocido a priori por el receptor. El criterio para la calidad de los sistemas de comunicación digital es la probabilidad de detección incorrecta de un dígito o la probabilidad de error ().

1.2. Clasificación de señal

1.2.1. Señales deterministas y aleatorias.

1.2.2. Señales periódicas y no periódicas.

Se dice que una señal es periódica en el tiempo si existe una constante tal que

para (1.2)

donde a través t Se indica el tiempo. El valor más pequeño que satisface esta condición se llama período de señal. El período determina la duración de un ciclo completo de la función. Una señal para la cual no existe ningún valor que satisfaga la ecuación (1.2) se denomina no periódica.

1.2.3. Señales analógicas y discretas.

La señal analógica es función continua tiempo, es decir exclusivamente determinado para todos t. Una señal eléctrica analógica se produce cuando algún dispositivo convierte una señal física (como el habla) en una señal eléctrica. En comparación, una señal discreta es una señal que existe en intervalos de tiempo discretos; se caracteriza por una secuencia de números definidos para cada momento en el tiempo, Connecticut, Dónde k es un número entero y t- período de tiempo fijo.

1.2.4. Señales expresadas en términos de energía o potencia.

Una señal eléctrica se puede considerar como un cambio de voltaje o corriente con potencia instantánea aplicada a una resistencia. R:

En los sistemas de comunicación, la potencia suele estar normalizada (se supone que la resistencia R equivale a 1 Ohm, aunque en un canal real puede ser cualquier cosa). Si es necesario determinar el valor de potencia real, se obtiene “desnormalizando” el valor normalizado. En el caso normalizado, las ecuaciones (1.3,a) y (1.3,6) tienen la misma forma. Por lo tanto, independientemente de si la señal se representa en términos de voltaje o corriente, la forma normalizada nos permite expresar la potencia instantánea como

¿Dónde está el voltaje o la corriente? La disipación de energía durante un período de tiempo () de una señal real con potencia instantánea obtenida mediante la ecuación (1.4) se puede escribir de la siguiente manera.

(1.5)

La potencia promedio disipada por la señal durante este intervalo es la siguiente.

(1.6)

El desempeño de un sistema de comunicación depende de la energía de la señal recibida; Las señales con mayor energía se detectan de forma más fiable (con menos errores): el trabajo de detección lo realiza la energía recibida. Por otro lado, la potencia es la velocidad a la que se suministra energía. Este punto es importante por varias razones. La potencia determina el voltaje que se debe aplicar al transmisor y la intensidad de los campos electromagnéticos que se deben considerar en los sistemas de radio (es decir, los campos en las guías de ondas que conectan el transmisor a la antena y los campos alrededor de los elementos radiantes de la antena). .

Al analizar señales de comunicación, a menudo es deseable trabajar con energía de señal. La llamaremos señal de energía si y solo si tiene energía finita distinta de cero (), donde

(1.7)

En una situación real, siempre transmitimos señales con energía finita (). Sin embargo, para describir señales periódicas, que por definición (ecuación (1.2)) siempre existen y, por tanto, tienen energía infinita, y para trabajar con señales aleatorias, que además tienen energía ilimitada, conviene definir una clase de señales expresadas en términos de poder. Entonces, es conveniente representar una señal usando potencia si es periódica y en cualquier momento tiene potencia finita distinta de cero (), donde

(1.8)

Una determinada señal se puede clasificar como energética o periódica. Una señal energética tiene energía finita pero potencia promedio cero, mientras que una señal periódica tiene potencia promedio cero pero energía infinita. Una señal en un sistema se puede expresar en términos de su energía o de valores periódicos. Como regla general, las señales periódicas y aleatorias se expresan en términos de potencia, y las señales deterministas y no periódicas se expresan en términos de energía.

La energía y la potencia de la señal son dos parámetros importantes al describir un sistema de comunicación. Clasificar una señal como energética o periódica es un modelo conveniente que facilita el tratamiento matemático de diversas señales y ruido. La Sección 3.1.5 desarrolla estas ideas en el contexto de los sistemas de comunicación digital.

1.2.5. Función de impulso unitario

Una función útil en la teoría de la comunicación es el impulso unitario o función delta de Dirac. Una función de impulso es una abstracción, un impulso con amplitud infinitamente grande, ancho cero y peso unitario (el área bajo el impulso), concentrado en el punto en el que el valor de su argumento es cero. Un impulso unitario viene dado por las siguientes relaciones.

Ilimitado en el punto (1.11)

(1.12)

Un único impulso no es una función en el sentido habitual de la palabra. Si se incluye en alguna operación, conviene considerarlo un pulso de amplitud finita, unidad de área y duración distinta de cero, tras lo cual es necesario considerar el límite a medida que la duración del pulso tiende a cero. Gráficamente se puede representar como un pico ubicado en el punto , cuya altura es igual a la integral del mismo o su área. Así, con constante A representa una función de impulso cuya área (o peso) es A, y el valor es cero en todas partes, excepto en el punto.

La ecuación (1.12) se conoce como propiedad de tamizado (o cuantificación) de la función de impulso unitario; la integral de un impulso unitario y una función arbitraria da una muestra de la función en el punto.

1.3. Densidad espectral

Densidad espectral La densidad espectral de las características de la señal es la distribución de la energía o potencia de la señal en un rango de frecuencia. Este concepto adquiere especial importancia cuando se considera el filtrado en sistemas de comunicación. Debemos poder estimar la señal y el ruido en la salida del filtro. Esta evaluación utiliza densidad espectral de energía (ESD) o densidad espectral de potencia (PSD).

1.3.1. Densidad de energía espectral

La energía total de la señal de energía real definida en el intervalo se describe mediante la ecuación (1.7). Utilizando el teorema de Parseval, podemos relacionar la energía de dicha señal, expresada en el dominio del tiempo, con la energía expresada en el dominio de la frecuencia:

, (1.13)

¿Dónde está la transformada de Fourier de una señal no periódica? (Puede encontrar un resumen del análisis de Fourier en el Apéndice A.) Denotemos por el espectro de amplitud rectangular definido como

(1.14)

La cantidad es la densidad espectral de energía (ESD) de la señal. Por lo tanto, de la ecuación (1.13) podemos expresar energía total integrando la densidad espectral sobre la frecuencia.

(1.15)

Esta ecuación muestra que la energía de la señal es igual al área debajo del gráfico en dominio de la frecuencia. La densidad de energía espectral describe la energía de la señal por unidad de ancho de banda y se mide en J/Hz. Los componentes de frecuencia positivos y negativos dan contribuciones de energía iguales, por lo tanto, para una señal real, la cantidad es una función par de la frecuencia. Por lo tanto, la densidad de energía espectral es simétrica en frecuencia con respecto al origen, y la energía total de la señal se puede expresar de la siguiente manera.

(1.16)

1.3.2. Densidad espectral de potencia

La potencia promedio de la señal real en representación periódica está determinada por la ecuación (1.8). Si es una señal periódica con punto, se clasifica como una señal en representación periódica. La expresión de la potencia promedio de una señal periódica viene dada por la fórmula (1.6), donde el promedio temporal se toma durante un período.

(1.17a)

El teorema de Parseval para una señal periódica real tiene la forma

, (1.17,b)

donde los términos son los coeficientes complejos de la serie de Fourier para una señal periódica (ver Apéndice A).

Para utilizar la ecuación (1.17.6), solo necesitas saber el valor de los coeficientes. La densidad espectral de potencia (PSD) de una señal periódica, que es una función real, par y no negativa de la frecuencia y proporciona la distribución de potencia de la señal en un rango de frecuencia, se define de la siguiente manera.

(1.18)

La ecuación (1.18) define la densidad espectral de potencia de una señal periódica como una secuencia de funciones delta ponderadas. Por tanto, la PSD de una señal periódica es una función discreta de la frecuencia. Utilizando la PSD definida en la ecuación (1.18), se puede escribir la potencia normalizada promedio de la señal real.

(1.19)

La ecuación (1.18) describe la PSD de señales periódicas únicamente. Si es una señal no periódica, no puede expresarse en términos de una serie de Fourier; si es una señal no periódica en representación periódica (que tiene energía infinita), es posible que no tenga una transformada de Fourier. Sin embargo, todavía podemos expresar la densidad espectral de potencia de tales señales en el límite. Si forma una versión truncada de una señal no periódica en una representación periódica, tomando para ello solo sus valores del intervalo (), tendrá energía finita y la correspondiente transformada de Fourier. Se puede demostrar que la densidad espectral de potencia de una señal no periódica se define como un límite.

(1.20)

Ejemplo 1.1. Potencia media normalizada

a) Encuentre la potencia de señal normalizada promedio utilizando el promedio de tiempo.

b) Complete el paso a sumando los coeficientes espectrales.

Solución

a) Usando la ecuación (1.17,a), tenemos lo siguiente.

b) Usando las ecuaciones (1.18) y (1.19), obtenemos lo siguiente.

(ver Apéndice A)

1.4. Autocorrelación

1.4.1. Autocorrelación de la señal de energía.

La correlación es un proceso de emparejamiento; La autocorrelación es la comparación de una señal con su propia versión retardada. La función de autocorrelación de la señal de energía real se define de la siguiente manera.

para (1.21)

La función de autocorrelación da una medida de la similitud de una señal con su propia copia, desplazada en unidades de tiempo. La variable actúa como parámetro de escaneo o búsqueda. - esto no es una función del tiempo; es simplemente una función de la diferencia de tiempo entre la señal y su copia desplazada.

La función de autocorrelación de una señal de energía real tiene las siguientes propiedades.

1.

3. la autocorrelación y la ESD son transformadas de Fourier entre sí, lo que se indica con una flecha de dos puntas

4. el valor en cero es igual a la energía de la señal

Al cumplir con los párrafos. 1-3 es una función de autocorrelación. La condición 4 es una consecuencia de la condición 3, por lo que no tiene que incluirse en el conjunto principal para comprobar si función de autocorrelación.

1.4.2. Autocorrelación de una señal periódica.

La autocorrelación de una señal periódica real se define de la siguiente manera.

para (1.22)

Si la señal es periódica con un período, el promedio de tiempo en la ecuación (1.22) se puede tomar durante un período y la autocorrelación se puede expresar de la siguiente manera.

para (1.23)

La autocorrelación de una señal periódica que toma valores reales tiene propiedades similares a las de una señal de energía.

1. simetría con respecto a cero

2. para todos el valor máximo es cero

3. la autocorrelación y la ESD son transformadas de Fourier entre sí

4.

1.5. Señales aleatorias

La tarea principal de un sistema de comunicación es transmitir información a través de un canal de comunicación. Todas las señales de mensajes útiles aparecen aleatoriamente, es decir. el receptor no sabe de antemano cuál de los posibles símbolos de mensaje se transmitirá. Además, diversos procesos eléctricos generan ruido que acompaña a las señales de información. Por lo tanto necesitamos método efectivo descripciones de señales aleatorias.

1.5.1. Variables aleatorias

Deja que la variable aleatoria JA) representa la relación funcional entre evento al azar A y un número real. Para facilitar la notación, denotemos la variable aleatoria por X, y su dependencia funcional de A lo consideraremos explícito. Una variable aleatoria puede ser discreta o continua. Distribución de una variable aleatoria X se encuentra mediante la expresión:

, (1.24)

¿Dónde está la probabilidad de que se acepte el valor? variable aleatoria X menor que un número real X o igual a él. La función de distribución tiene las siguientes propiedades.

2. Si

Otra función útil relacionada con la variable aleatoria. X, es la densidad de probabilidad, que se escribe de la siguiente manera.

(1.25,a)

Al igual que con la función de distribución, la densidad de probabilidad es función del número real X. El nombre “función de densidad” proviene del hecho de que la probabilidad de un evento es igual a lo siguiente.

Usando la ecuación (1.25.6), podemos escribir aproximadamente la probabilidad de que una variable aleatoria X tiene un valor que pertenece a un intervalo muy pequeño entre y .

Así, en el límite as , tendiendo a cero, podemos escribir lo siguiente.

La densidad de probabilidad tiene las siguientes propiedades.

2. .

Por tanto, la densidad de probabilidad siempre es no negativa y tiene una unidad de área. En el texto del libro usaremos la notación para indicar la densidad de probabilidad de una variable aleatoria continua. Para facilitar la notación, a menudo omitiremos el índice. X y fácil de escribir. Si una variable aleatoria X sólo puedo aceptar valores discretos, para denotar la densidad de probabilidad usaremos la notación .

1.5.1.1. promedio del conjunto

Valor medio o valor esperado de una variable aleatoria X está determinada por la expresión

, (1.26)

donde se llama operador de valor esperado. momento norte-orden de distribución de probabilidad de una variable aleatoria X se llama la siguiente cantidad.

(1.27)

Para el análisis de sistemas de comunicación, los dos primeros momentos de la variable son importantes. X. Si, cuando norte=1 la ecuación (1.27) da el momento discutido anteriormente, y en norte= 1 - valor cuadrático medio X.

(1.28)

También puedes definir momentos centrales, que son los momentos de la diferencia. X Y . momento central segundo orden (también llamado varianza) es igual a lo siguiente.

Dispersión X también escrito como , y la raíz cuadrada de este valor, , se llama desviación estándar X. La varianza es una medida de la "difusión" de una variable aleatoria. X. Especificar la varianza de una variable aleatoria limita el ancho de la función de densidad de probabilidad. La varianza y el valor cuadrático medio están relacionados mediante la siguiente relación.

Por lo tanto, la varianza es igual a la diferencia entre el valor cuadrático medio y el cuadrado del valor promedio.

1.5.2. Procesos aleatorios

Un proceso aleatorio se puede considerar en función de dos variables: eventos A y tiempo. En la Fig. 1.5 muestra un ejemplo de un proceso aleatorio. Mostrado norte Ejemplos de funciones del tiempo. Cada una de las funciones de muestra puede considerarse como la salida de un generador de ruido independiente. Para cada evento tenemos una única función de tiempo. (es decir, función selectiva). El conjunto de todas las funciones muestrales se llama conjunto. En cualquier momento dado, es una variable aleatoria cuyo valor depende del evento. Y por último, para un evento específico y para un momento específico, esto es numero regular. Para facilitar la notación, denotaremos proceso aleatorio a través de X(t), y la dependencia funcional de A lo consideraremos explícito.

Fig.1.5. Proceso de ruido aleatorio

1.5.2.1. Media estadística de un proceso aleatorio.

Dado que se desconoce el valor de un proceso aleatorio en cada momento posterior, un proceso aleatorio cuyas funciones de distribución son continuas se puede describir estadísticamente mediante una densidad de probabilidad. En general, en varios momentos Con el tiempo, esta función para un proceso aleatorio tendrá una forma diferente. En la mayoría de los casos, no es realista determinar empíricamente la distribución de probabilidad de un proceso aleatorio. Al mismo tiempo, para las necesidades de los sistemas de comunicación, suele ser suficiente una descripción parcial que incluya el promedio y la función de autocorrelación. Entonces, determinemos el promedio del proceso aleatorio. X(t) Cómo

, (1.30)

donde es una variable aleatoria obtenida al considerar un proceso aleatorio en un momento dado, a es la densidad de probabilidad (densidad sobre un conjunto de eventos en un momento dado).

Definamos la función de autocorrelación del proceso aleatorio. X(t) en función de dos variables y

donde y son variables aleatorias obtenidas considerando X(t) en determinados momentos y en consecuencia. La función de autocorrelación es una medida de la relación entre dos muestras de tiempo de un proceso aleatorio.

1.5.2.2. Estacionariedad

Proceso aleatorio X(t) Se llama estacionario en sentido estricto si ninguna de sus estadísticas se ve afectada por la transferencia del origen del tiempo. Un proceso aleatorio se llama estacionario en sentido amplio si sus dos estadísticas, la media y la función de autocorrelación, no cambian cuando se desplaza el origen del tiempo. Por lo tanto, el proceso es estacionario en el sentido amplio si

La estacionariedad en sentido estricto implica estacionariedad en sentido amplio, pero no al revés. La mayoría de los resultados útiles de la teoría de la comunicación se basan en el supuesto de que las señales de información aleatorias y el ruido son estacionarios en el sentido amplio. Desde un punto de vista práctico, un proceso aleatorio no siempre tiene que ser estacionario; la estacionariedad en algún intervalo de tiempo observable de interés práctico es suficiente.

Para procesos estacionarios, la función de autocorrelación en la ecuación (1.33) no depende del tiempo, sino solo de la diferencia. En otras palabras, todos los pares de valores X(t) en puntos en el tiempo separados por un intervalo, tienen el mismo valor de correlación. Por lo tanto, para sistemas estacionarios la función se puede escribir simplemente como.

1.5.2.3. Autocorrelación de procesos aleatorios estacionarios en sentido amplio.

Así como la varianza ofrece una medida de aleatoriedad para variables aleatorias, la función de autocorrelación ofrece una medida similar para procesos aleatorios. Para procesos estacionarios en sentido amplio, la función de autocorrelación depende únicamente de la diferencia temporal.

Para un proceso ampliamente estacionario con media cero, la función muestra qué tan correlacionadas estadísticamente están las variables aleatorias del proceso, separadas por segundos. En otras palabras, proporciona información sobre la respuesta en frecuencia asociada a un proceso aleatorio. Si cambia lentamente a medida que aumenta de cero a algún valor, muestra que en promedio los valores de la muestra X(t), tomados en momentos de tiempo y , son prácticamente iguales. Por lo tanto, tenemos derecho a esperar que en la representación de frecuencia X(t) Predominarán las bajas frecuencias. Por otro lado, si disminuye rápidamente a medida que θ aumenta, esperaríamos que X(t) variará rápidamente con el tiempo y, por lo tanto, implicará predominantemente frecuencias altas.

La función de autocorrelación de un proceso estacionario en sentido amplio que toma valores reales tiene las siguientes propiedades.

1. simetría con respecto a cero

2. para todos el valor máximo es cero

3. la autocorrelación y la densidad espectral de potencia son transformadas de Fourier entre sí

4. el valor en cero es igual a la potencia promedio de la señal

1.5.3. Promedio de tiempo y ergodicidad.

Para calcular y promediar un conjunto, necesitamos promediarlos sobre todas las funciones muestrales del proceso y, por lo tanto, necesitaremos información completa sobre la distribución mutua de las funciones de densidad de probabilidad en la primera y segunda aproximaciones. En general, dicha información no suele estar disponible.

Si un proceso aleatorio pertenece a una clase especial llamada clase de procesos ergódicos, su promedio temporal es igual al promedio conjunto y las propiedades estadísticas del proceso se pueden determinar promediando en el tiempo una función muestral del proceso. Para que un proceso aleatorio sea ergódico, debe ser estacionario en sentido estricto (no es necesario lo contrario). Sin embargo, para los sistemas de comunicación, donde la estacionariedad en sentido amplio es suficiente para nosotros, sólo nos interesan el promedio y la función de autocorrelación.

Se dice que un proceso aleatorio es ergódico con respecto a la media si

(1.35)

y ergódico con respecto a la función de autocorrelación si

(1.36)

Probar la ergodicidad de un proceso aleatorio suele ser bastante difícil. En la práctica, por regla general, se utiliza una suposición intuitiva sobre la conveniencia de reemplazar los promedios conjuntos por promedios temporales. Al analizar la mayoría de las señales en los canales de comunicación (en ausencia de efectos de impulso), es razonable suponer que las señales aleatorias son ergódicas con respecto a la función de autocorrelación. Dado que para los procesos ergódicos los promedios de tiempo son iguales a los promedios del conjunto, los parámetros eléctricos fundamentales como la amplitud de CC, el valor eficaz y la potencia promedio pueden relacionarse con los momentos del proceso aleatorio ergódico.

1. El valor es igual al componente constante de la señal.

2. El valor es igual a la potencia normalizada del componente directo.

3. Momento de segundo orden X(t), , es igual a la potencia normalizada promedio total.

4. El valor es igual al valor cuadrático medio de la señal expresada en términos de corriente o voltaje.

5. La dispersión es igual a la potencia promedio normalizada de la señal alterna.

6. Si la media del proceso es cero (es decir), entonces y la varianza es igual al valor cuadrático medio o (otra formulación) la varianza representa la potencia total en la carga normalizada.

7. La desviación estándar es el valor cuadrático medio de una señal alterna.

8. Si , entonces es el valor cuadrático medio de la señal.

1.5.4. Densidad espectral de potencia y autocorrelación de un proceso aleatorio.

Proceso aleatorio X(t) puede denominarse una señal periódica que tiene una densidad espectral de potencia como se indica en la ecuación (1.20). La función es especialmente útil en sistemas de comunicaciones porque describe la distribución de la potencia de la señal en un rango de frecuencia. La densidad espectral de potencia le permite estimar la potencia de la señal que se transmitirá a través de una red con características de frecuencia conocidas. Las principales propiedades de las funciones de densidad espectral de potencia se pueden formular de la siguiente manera.

1. siempre toma valores válidos

2. Para X(t), tomando valores reales

3. la autocorrelación y la densidad espectral de potencia son transformadas de Fourier entre sí

4. relación entre la potencia promedio normalizada y la densidad espectral de potencia

En la Fig. 1.6 dado representación visual función de autocorrelación y función de densidad espectral de potencia. ¿Qué significa el término "correlación"? Cuando nos interesa la correlación de dos fenómenos, nos preguntamos qué tan estrechamente relacionados están en comportamiento o apariencia y en qué medida coinciden. En matemáticas, la función de autocorrelación de una señal (en el dominio del tiempo) describe la correspondencia de una señal consigo misma desplazada durante algún período de tiempo. Se considera que una copia exacta ha sido creada y localizada en menos infinito. Luego movemos secuencialmente la copia en la dirección positiva del eje de tiempo y hacer una pregunta, cómo se corresponden (la versión original y la copia) entre sí. Luego movemos la copia un paso más en la dirección positiva y preguntamos cuánto coinciden ahora, etc. La correlación entre dos señales se traza en función del tiempo, denotada; en este caso, el tiempo puede considerarse como un parámetro de exploración.

En la Fig. 1.6, anuncio La situación descrita anteriormente se describe en algunos momentos del tiempo. Arroz. 1.6, A ilustra una señal única de un proceso aleatorio ampliamente estacionario X(t). La señal es una secuencia binaria aleatoria con pulsos positivos y negativos (bipolares) de amplitud unitaria. Los impulsos positivos y negativos aparecen con igual probabilidad. La duración de cada pulso (dígito binario) es igual a t segundos, y el promedio, o el valor del componente constante de la secuencia aleatoria, es cero. En la Fig. 1.6, b Se muestra la misma secuencia, desplazada en el tiempo en segundos. De acuerdo a notación aceptada, esta secuencia se denota . Supongamos que el proceso X(t) es ergódico con respecto a la función de autocorrelación, por lo que podemos usar el promedio de tiempo en lugar del promedio de conjunto para encontrarlo. El valor se obtiene multiplicando dos secuencias. X(t) y luego encontrar el promedio usando la ecuación (1.36), que es válida para procesos ergódicos sólo en el límite. Sin embargo, la integración sobre un número entero de períodos puede darnos una estimación. Tenga en cuenta lo que se puede obtener cambiando X(t) tanto en sentido positivo como negativo. Caso similar ilustrado en la Fig. 1.6, V, en el que se utilizó la secuencia de muestra original (Fig. 1.6, A) y su copia desplazada (Fig. 1.6, b). Las áreas sombreadas bajo la curva del producto contribuyen positivamente al producto, mientras que las áreas grises contribuyen negativamente. La integración sobre el tiempo de transmisión del pulso da un punto en la curva. La secuencia puede cambiar aún más y cada uno de esos cambios producirá un punto en la función de autocorrelación general que se muestra en la Fig. 1.6, GRAMO. En otras palabras, cada secuencia aleatoria de pulsos bipolares corresponde a un punto de autocorrelación en la curva general que se muestra en la Fig. 1.6, GRAMO. El máximo de la función está en el punto (el mejor ajuste ocurre cuando , es igual a cero, ya que para todos ) y la función disminuye a medida que . En la Fig. 1.6, GRAMO Se muestran los puntos correspondientes a y.

Expresión analítica para la función de autocorrelación que se muestra en la Fig. 1.6, GRAMO, tiene la siguiente forma.

(1.37)

Tenga en cuenta que la función de autocorrelación nos proporciona información de frecuencia; nos dice algo sobre el ancho de banda de la señal. Al mismo tiempo, la autocorrelación es una función temporal; en la fórmula (1.37) no hay términos que dependan de la frecuencia. Entonces, ¿cómo nos da información sobre el ancho de banda de la señal?

Fig.1.6. Autocorrelación y densidad espectral de potencia.

Fig.1.6. Autocorrelación y densidad espectral de potencia (fin)

Supongamos que la señal se mueve muy lentamente (la señal tiene un ancho de banda pequeño). Si desplazamos una copia de la señal a lo largo del eje, estableciendo en cada etapa problema de compensación, en la medida en que la copia y el original se correspondan entre sí, la correspondencia será bastante fuerte durante mucho tiempo. En otras palabras, la función de autocorrelación triangular (Fig. 1.6, GRAMO y fórmula 1.37) disminuirá lentamente al aumentar . Supongamos ahora que la señal cambia lo suficientemente rápido (es decir, tenemos un ancho de banda grande). En este caso, incluso un pequeño cambio hará que la correlación sea cero y que la función de autocorrelación tenga una forma muy estrecha. Por lo tanto, comparar funciones de autocorrelación por forma nos brinda cierta información sobre el ancho de banda de la señal. ¿La función disminuye gradualmente? En este caso tenemos una señal de banda estrecha. ¿La forma de la función se parece a un pico estrecho? Entonces la señal tiene una banda ancha.

La función de autocorrelación permite expresar explícitamente la densidad espectral de potencia de una señal aleatoria. Dado que la densidad espectral de potencia y la función de autocorrelación son transformadas de Fourier entre sí, la densidad espectral de potencia, de una secuencia aleatoria de pulsos bipolares se puede encontrar como la transformada de Fourier de la función, cuya expresión analítica se da en la ecuación ( 1.37). Para esto puedes usar la mesa. A.1. Darse cuenta de

(1.38)

La vista general de la función se muestra en la Fig. 1.6, d.

Tenga en cuenta que el área bajo la curva de densidad espectral de potencia representa la potencia promedio de la señal. Una medida conveniente del ancho de banda es el ancho del lóbulo espectral principal (ver Sección 1.7.2). En la Fig. 1.6, d Se muestra que el ancho de banda de la señal está relacionado con la duración inversa del símbolo o el ancho del pulso. Arroz. 1.6, e-k repetir formalmente la Fig. 1.6, infierno, excepto que en las figuras siguientes la duración del pulso es más corta. Tenga en cuenta que para pulsos más cortos la función es más estrecha (Fig. 1.6, Y) que para los más largos (Fig. 1.6, GRAMO). En la Fig. 1.6, Y; en otras palabras, en el caso de una duración de pulso más corta, un desplazamiento de , es suficiente para crear una coincidencia nula o perder completamente la correlación entre las secuencias de desplazamiento. Dado que en la Fig. 1.6, mi duración del pulso t menos (mayor velocidad de transmisión de impulsos) que en la Fig. 1.6, A, ocupación de banda en la Fig. 1.6, - esta es la duración mayor ocupación del ancho de banda para la frecuencia de pulso más baja que se muestra en la Fig. 1.6, d.

1.5.5. Ruido en los sistemas de comunicación.

El término "ruido" se refiere a señales eléctricas no deseadas que siempre están presentes en los sistemas eléctricos. La presencia de ruido superpuesto a la señal “sombra” o enmascara la señal; esto limita la capacidad del receptor para tomar decisiones precisas sobre el significado de los símbolos y, por lo tanto, limita la velocidad a la que se puede transmitir la información. La naturaleza del ruido es diferente e incluye fuentes tanto naturales como artificiales. El ruido artificial es el ruido del encendido por chispa, el ruido de impulso de conmutación y el ruido de otras fuentes relacionadas de radiación electromagnética. Los ruidos naturales provienen de la atmósfera, el sol y otras fuentes galácticas.

Un buen diseño de ingeniería puede eliminar la mayor parte del ruido o sus efectos no deseados mediante filtrado, blindaje, selección de modulación y ubicación óptima del receptor. Por ejemplo, las mediciones sensibles de radioastronomía suelen realizarse en lugares remotos desérticos, lejos de fuentes naturales de ruido. Sin embargo, existe un ruido natural, llamado ruido térmico, que no se puede eliminar. El ruido térmico es causado por el movimiento térmico de los electrones en todos los componentes disipativos: resistencias, conductores, etc. Los mismos electrones responsables de la conductividad eléctrica son la causa del ruido térmico.

El ruido térmico puede describirse como un proceso aleatorio gaussiano con media cero. proceso gaussiano Nuevo Testamento) es una función aleatoria, cuyo valor en un momento arbitrario en el tiempo t caracterizado estadísticamente por una función de densidad de probabilidad gaussiana:

, (1.40)

donde esta la varianza norte. La función de densidad gaussiana normalizada de un proceso de media cero se obtiene bajo el supuesto de que. En la figura 2 se muestra una función de densidad de probabilidad normalizada esquemática. 1.7.

Aquí - señal aleatoria, A- señal en el canal de comunicación, y norte es una variable aleatoria que expresa ruido gaussiano. Entonces la función de densidad de probabilidad se expresa como

, (1.41)

donde, como arriba, es la dispersión norte.

Fig.1.7. Función de densidad de probabilidad gaussiana normalizada ()

La distribución gaussiana se utiliza a menudo como modelo de ruido en un sistema porque existe un teorema de frontera central que establece que, en condiciones muy generales, la distribución de probabilidad de la suma j las variables aleatorias estadísticamente independientes obedecen a una distribución gaussiana, y la forma funciones individuales La distribución no importa. Por lo tanto, incluso si los mecanismos de ruido individuales tienen una distribución no gaussiana, el conjunto de muchos de esos mecanismos tenderá a tener una distribución gaussiana.

1.5.5.1. ruido blanco

La principal característica espectral del ruido térmico es que su densidad espectral de potencia es la misma para todas las frecuencias de interés para la mayoría de los sistemas de comunicaciones; en otras palabras, la fuente de ruido térmico emite en todas las frecuencias con igual poder por unidad de ancho de banda, desde el componente constante hasta una frecuencia del orden de Hz. Por eso, modelo sencillo El ruido térmico supone que su densidad espectral de potencia es uniforme en todas las frecuencias, como se muestra en la Fig. 1.8, A, y está escrito de la siguiente forma.

(1.42)

Aquí, se incluye un factor de 2 para mostrar que es la densidad espectral de potencia bidireccional. Cuando la potencia del ruido tiene una densidad espectral tan uniforme, lo llamamos ruido blanco. El adjetivo "blanco" se utiliza en el mismo sentido que para la luz blanca, que contiene proporciones iguales de todas las frecuencias del rango visible de radiación electromagnética.

Fig.1.8. Ruido blanco: a) densidad espectral de potencia;

b) función de autocorrelación

La función de autocorrelación del ruido blanco viene dada por la transformada inversa de Fourier de la densidad espectral de potencia del ruido (véase la Tabla A.1) y se escribe como sigue.

(1.43)

Por lo tanto, la autocorrelación del ruido blanco es una función delta ponderada por un factor y ubicada en el punto , como se muestra en la Fig. 1.8, b. Tenga en cuenta que es igual a cero para , es decir Dos muestras diferentes de ruido blanco no se correlacionan, por muy cercanas que estén.

La potencia promedio del ruido blanco es infinita porque el ancho de banda del ruido blanco es infinito. Esto se puede ver obteniendo la siguiente expresión a partir de las ecuaciones (1.19) y (1.42).

(1.44)

Aunque el ruido blanco es una abstracción muy útil, ningún proceso de ruido puede ser realmente blanco; sin embargo, el ruido que aparece en muchos sistemas reales presumiblemente puede considerarse blanco. Podemos observar ese ruido sólo después de que pasa a través de un sistema real que tiene un ancho de banda finito. Por lo tanto, siempre que el ancho de banda del ruido sea sustancialmente mayor que el ancho de banda utilizado por el sistema, se puede considerar que el ruido tiene un ancho de banda infinito.

La función delta en la ecuación (1.43) significa que la señal de ruido Nuevo Testamento) no tiene ninguna correlación con su propia versión sesgada para cualquier . La ecuación (1.43) muestra que dos muestras cualesquiera de un proceso de ruido blanco no están correlacionadas. Dado que el ruido térmico es un proceso gaussiano y sus muestras no están correlacionadas, las muestras de ruido también son independientes. Por tanto, el efecto de un canal de ruido blanco gaussiano aditivo en el proceso de detección es que el ruido afecta a cada símbolo transmitido de forma independiente. Un canal de este tipo se denomina canal sin memoria. El término "aditivo" significa que el ruido simplemente se superpone o se suma a la señal; no existen mecanismos multiplicativos.

Debido a que el ruido térmico está presente en todos los sistemas de comunicación y es una fuente importante de ruido para la mayoría de los sistemas, las características del ruido térmico (aditiva, blanca y gaussiana) a menudo se utilizan para modelar el ruido en los sistemas de comunicación. Debido a que el ruido gaussiano de media cero se caracteriza completamente por su varianza, este modelo es particularmente fácil de usar en la detección de señales y el diseño de receptores óptimos. En este libro asumiremos (a menos que se indique lo contrario) que el sistema está sujeto a distorsión por ruido blanco gaussiano aditivo con media cero, aunque a veces esta simplificación será demasiado fuerte.

1.6. Transmisión de señales mediante sistemas lineales.

Ahora que hemos desarrollado un conjunto de modelos para señales y ruido, veamos las características de los sistemas y su impacto en las señales y el ruido. Dado que un sistema se puede caracterizar igualmente bien en el dominio de la frecuencia y del tiempo, en ambos casos se han desarrollado métodos para analizar la respuesta de un sistema lineal a una señal de entrada arbitraria. La señal aplicada a la entrada del sistema (figura 1.9) se puede describir como una señal de tiempo, o mediante su transformada de Fourier,. El uso del análisis de temporización produce una salida de temporización y, en el proceso, se determinará la función, respuesta al impulso o respuesta al impulso de la red. Al considerar la entrada en el dominio de la frecuencia, debemos definir una respuesta de frecuencia, o función de transferencia, para el sistema, que determinará la salida de frecuencia. Se supone que el sistema es lineal e invariante en el tiempo. También se supone que el sistema no tiene energía oculta en el momento en que se aplica la señal de entrada.

Fig.1.9. Sistema lineal y sus parámetros clave.

1.6.1. Respuesta impulsiva

El sistema o red lineal invariante en el tiempo que se muestra en la Fig. 1.9, se describe (en el dominio del tiempo) por la respuesta al impulso, que es la respuesta del sistema cuando se aplica un solo pulso a su entrada.

Consideremos el término "respuesta impulsiva", que es muy adecuado para de este evento. Describir las características de un sistema a través de su respuesta impulsiva tiene una interpretación física directa. Aplicamos un solo pulso a la entrada del sistema (una señal irreal que tiene amplitud infinita, ancho cero y área unitaria), como se muestra en la Fig. 1.10, A. La entrega de tal impulso al sistema puede considerarse como un "destello". ¿Cómo reaccionará (“responderá”) el sistema ante tal uso de fuerza (impulso)? La señal de salida es la respuesta al impulso del sistema. (Una posible forma de esta respuesta se muestra en la figura 1.10. b.)

La respuesta de la red a una señal arbitraria es una convolución con , que se escribe de la siguiente manera.

(1.46)

Fig.1.10. Ilustración del concepto de “respuesta al impulso”: a) la señal de entrada es una función de impulso unitario; b) señal de salida - respuesta impulsiva del sistema

Aquí el signo “*” indica la operación de convolución (ver sección A.5). Se supone que el sistema es causal, lo que significa que no hay señal en la salida hasta el momento en que la señal se aplica a la entrada. Por lo tanto, se puede considerar que el límite inferior de integración es cero y la producción se puede expresar de manera algo diferente.

(1.47,a)

o en la forma

(1.47,b)

Las expresiones de las ecuaciones (1.46) y (1.47) se denominan integrales de convolución. La convolución es un aparato matemático fundamental que juega papel importante en la comprensión de todos los sistemas de comunicación. Si el lector no está familiarizado con esta operación, debe consultar la sección A.5, donde se da la derivación de las ecuaciones (1.46) y (1.47).

1.6.2. Función de transferencia de frecuencia

La señal de salida de frecuencia se obtiene aplicando la transformada de Fourier a ambos lados de la ecuación (1.46). Dado que la convolución en el dominio del tiempo se convierte en multiplicación en el dominio de la frecuencia (y viceversa), obtenemos lo siguiente de la ecuación (1.46).

(Esto implica, por supuesto, que para todos.) Aquí ,La transformada de Fourier de la respuesta al impulso, llamada función de transferencia de frecuencia, respuesta de frecuencia o respuesta de frecuencia de la red. En general, la función es compleja y se puede escribir como

, (1.50)

¿Dónde está el módulo de respuesta? La fase de respuesta se define de la siguiente manera.

(1.51)

(y denota las partes real e imaginaria del argumento).

La función de transferencia de frecuencia de una red lineal invariante en el tiempo se puede medir fácilmente en condiciones de laboratorio- en red con un generador de oscilaciones armónicas en la entrada y un osciloscopio en la salida. Si la señal de entrada se expresa como

,

entonces la salida se puede escribir de la siguiente manera.

La frecuencia de entrada se desplaza al valor que nos interesa; así, las mediciones en la entrada y salida nos permiten determinar el tipo.

1.6.2.1. Procesos aleatorios y sistemas lineales.

Si un proceso aleatorio forma la entrada de un sistema lineal invariante en el tiempo, entonces a la salida de este sistema también obtendremos un proceso aleatorio. En otras palabras, cada función de muestra del proceso de entrada proporciona una función de muestra del proceso de salida. La densidad espectral de potencia de entrada y la densidad espectral de potencia de salida se relacionan de la siguiente manera.

(1.53)

La ecuación (1.53) proporciona una forma sencilla de encontrar la densidad espectral de potencia de salida de un sistema lineal invariante en el tiempo cuando se alimenta de un proceso aleatorio.

En los capítulos 3 y 4 veremos la detección de señales en ruido gaussiano. La propiedad básica de los procesos gaussianos se aplicará a un sistema lineal. Se demostrará que si un proceso gaussiano se alimenta a un filtro lineal invariante en el tiempo, entonces el proceso aleatorio que se alimenta a la salida también es gaussiano.

1.6.3. Transmisión sin distorsiones

¿Qué es necesario para que una red se comporte como un canal de transmisión ideal? La señal de salida de un canal de comunicación ideal puede ir por detrás de la señal de entrada; Además, estas señales pueden tener diferentes amplitudes (un simple cambio de escala), pero como todo lo demás, la señal no debe distorsionarse, es decir. debe tener la misma forma que la señal de entrada. Por lo tanto, para una transmisión ideal sin distorsiones, podemos describir la señal de salida como

, (1.54)

donde y son constantes. Aplicando la transformada de Fourier a ambos lados (ver sección A.3.1), tenemos lo siguiente.

(1.55)

Sustituyendo la expresión (1.55) en la ecuación (1.49), vemos que la función de transferencia requerida del sistema para transmisión sin distorsión tiene la siguiente forma.

(1.56)

Por lo tanto, para obtener una transmisión ideal sin distorsión, la respuesta general del sistema debe tener una magnitud constante y el cambio de fase debe ser lineal en frecuencia. No basta con que el sistema amplifique o atenúe todos los componentes de frecuencia por igual. Todos los armónicos de la señal deben llegar a la salida con el mismo retraso para que puedan ser sumados. Dado que el retraso está relacionado con el cambio de fase y la frecuencia cíclica mediante la relación

, (1.57,a)

Es obvio que para que el retardo de todos los componentes sea el mismo, el cambio de fase debe ser proporcional a la frecuencia. Para medir la distorsión de la señal causada por el retraso, a menudo se utiliza una característica llamada retraso de grupo; se define de la siguiente manera.

(1.57,b)

Por lo tanto, para una transmisión sin distorsión tenemos dos requisitos equivalentes: la fase debe ser lineal en frecuencia o el retardo de grupo debe ser igual a una constante. En la práctica, la señal se distorsionará a su paso por algunas partes del sistema. Para eliminar esta distorsión, se pueden introducir en el sistema circuitos de corrección (ecualización) de fase o amplitud. En general, la distorsión es características generales entrada/salida del sistema, que determina su rendimiento.

1.6.3.1. filtro ideal

No es realista construir una red ideal descrita por la ecuación (1.56). El problema es que la ecuación (1.56) supone un ancho de banda infinito, estando determinado el ancho de banda del sistema por el intervalo de frecuencias positivas sobre las cuales el módulo tiene una magnitud determinada. (En general, existen varias medidas de ancho de banda; las más comunes se enumeran en la Sección 1.7.) Como aproximación a una red ideal con ancho de banda infinito, elegimos una red truncada que pasa sin distorsión todos los armónicos con frecuencias entre y donde está el frecuencia de corte inferior, y es la superior, como se muestra en la fig. 1.11. Todas estas redes se denominan filtros ideales. Fuera de un rango llamado banda de paso, se supone que la amplitud de respuesta de un filtro ideal es cero. El ancho de banda efectivo está determinado por el ancho de banda del filtro y es Hz.

Si y , el filtro se llama transmisor (Fig. 1.11, A). Si tiene un valor finito, se llama filtro de paso bajo (Fig. 1.11, b). Si y tiene un valor distinto de cero, se llama filtro de paso alto (Fig. 1.11, V).

Fig.1.11. Función de transferencia de filtros ideales: a) filtro de transmisión ideal; b) filtro de paso bajo ideal; c) filtro de paso bajo ideal

Usando la ecuación (1.59) y suponiendo un filtro de paso bajo ideal con el ancho de banda en Hz que se muestra en la Fig. 1.11, b, podemos escribir la función de transferencia de la siguiente manera.

(1.58)

La respuesta al impulso de un filtro de paso bajo ideal que se muestra en la Fig. 1.12, se expresa mediante la siguiente fórmula.

Fig.1.12. Respuesta de impulso de un filtro de paso bajo ideal

donde la función se define en la ecuación (1.39). La respuesta al impulso que se muestra en la Fig. 1.12, no es causal; esto significa que en el momento en que se aplica la señal a la entrada (), hay una respuesta distinta de cero en la salida del filtro. Por lo tanto, debería ser obvio que el filtro ideal descrito por la ecuación (1.58) no se cumple en la realidad.

Ejemplo 1.2. Pasar ruido blanco a través de un filtro ideal

Ruido blanco con densidad espectral de potencia. , como se muestra en la Figura 1.8, A, se alimenta a la entrada del filtro de paso bajo ideal que se muestra en la Fig. 1.11, b. Determine la densidad espectral de potencia y la función de autocorrelación de la señal de salida.

Solución

La función de autocorrelación es el resultado de aplicar conversión inversa Fourier para potenciar la densidad espectral. La función de autocorrelación está determinada por la siguiente expresión (ver Tabla A.1).

Comparando el resultado obtenido con la fórmula (1.62), vemos que tiene la misma forma que la respuesta impulsiva de un filtro de paso bajo ideal que se muestra en la Fig. 1.12. En este ejemplo, un filtro de paso bajo ideal transforma la función de autocorrelación de ruido blanco (definida mediante la función delta) en una función. Después del filtrado, ya no habrá ruido blanco en el sistema. La señal de ruido de salida tendrá correlación cero con sus propias copias compensadas solo cuando esté compensada por , donde es cualquier número entero distinto de cero.

1.6.3.2. Filtros implementables

El filtro de paso bajo más simple que se puede implementar consta de una resistencia (R) y una capacitancia (C), como se muestra en la figura. 1.13, A; este filtro se llama filtro RC y su función de transferencia se puede expresar de la siguiente manera.

, (1.63)

Dónde . La característica de amplitud y la característica de fase se muestran en la Fig. 1.13, b, V. El ancho de banda del filtro de paso bajo se determina en el punto de media potencia; este punto representa la frecuencia a la que la potencia de la señal de salida es igual a la mitad del valor máximo, o la frecuencia a la que la amplitud del voltaje de salida es igual al valor máximo.

En general, el punto de media potencia se expresa en decibeles (dB) como el punto -3 dB, o el punto 3 dB por debajo del valor máximo. Por definición, el valor en decibelios está determinado por la relación de potencias y.

(1.64,a)

Aquí y son voltajes y y son resistencias. En los sistemas de comunicación, la potencia nominal se utiliza normalmente para el análisis; en este caso, las resistencias se consideran iguales a 1 ohmio, entonces

Fig.1.13. Filtro RC y su función de transferencia: a) Filtro RC; b) respuesta de amplitud del filtro RC; c) respuesta de fase del filtro RC

(1.64,b)

La respuesta de amplitud se puede expresar en decibelios como

, (1,64, pulgadas)

donde y son los voltajes en la entrada y la salida, y se supone que las resistencias en la entrada y la salida son iguales.

A partir de la ecuación (1.63), es fácil verificar que el punto medio de potencia de un filtro de paso bajo RC es rad/s o Hz. Por tanto, el ancho de banda en hercios es. El factor de forma del filtro es una medida de qué tan bien se aproxima un filtro real a uno ideal. Generalmente se define como la relación entre los anchos de banda de los filtros de -60 dB y -6 dB. Se puede obtener un factor de forma bastante pequeño (alrededor de 2) en un filtro de transmisión con un corte muy pronunciado. A modo de comparación, el factor de forma de un filtro de paso bajo RC simple es de alrededor de 600.

Existen varias aproximaciones útiles a las características de un filtro de paso bajo ideal. Uno de ellos lo proporciona el filtro Butterworth, que se aproxima a un filtro de paso bajo ideal mediante la función

, (1.65)

donde es la frecuencia de corte superior (-3 dB) y es el orden del filtro. Cuanto mayor sea el orden, mayor será la complejidad y el costo de implementar el filtro. En la Fig. La Figura 1.14 muestra gráficos de amplitud para varios valores. Tenga en cuenta que a medida que crece, las características de amplitud se acercan a las de un filtro ideal. Los filtros Butterworth son populares porque son la mejor aproximación al caso ideal en términos de maximizar la planitud de la banda de paso del filtro.

Para completar, analizamos brevemente los conceptos de espectro y densidad espectral a continuación. La aplicación de estos importantes conceptos se describe con más detalle en. No los utilizamos para el análisis de series temporales en este libro, por lo que puede omitir esta sección en su primera lectura.

Espectro de muestra. Al definir el periodograma (2.2.5), se supone que las frecuencias son armónicos de la frecuencia fundamental. Al introducir un espectro, relajamos esta suposición y permitimos que la frecuencia varíe continuamente en el rango de 0-0,5 Hz. La definición de periodograma se puede modificar de la siguiente manera:

, , (2.2.7)

donde se llama espectro de muestra. Al igual que un periodograma, se puede utilizar para detectar y estimar las amplitudes de la componente sinusoidal de una frecuencia desconocida oculta en el ruido y, de hecho, es incluso más conveniente a menos que se sepa que la frecuencia está relacionada armónicamente con la longitud de la serie, es decir, Además, es el punto de partida de la teoría. análisis espectral, utilizando la importante relación que figura en el Apéndice A2.1. Esta relación establece la conexión entre el análisis del espectro de muestras y las estimaciones de la función de autocovarianza:

. (2.2.8)

Por tanto, el espectro de la muestra es la transformada del coseno de Fourier de la función de autocovarianza de la muestra.

Rango. El periodograma y el espectro de muestra son conceptos convenientes para analizar series temporales formadas por una mezcla de ondas sinusoidales y coseno con frecuencias constantes ocultas en el ruido. Sin embargo, las series temporales estacionarias del tipo descrito en la Sección. 2.1, se caracterizan por cambios aleatorios de frecuencia, amplitud y fase. Para tales series, el espectro de la muestra fluctúa mucho y no permite ninguna interpretación razonable.

Sin embargo, supongamos que el espectro de muestra se calculó para una serie de tiempo a partir de observaciones que es una realización de un proceso normal estacionario. Como se mencionó anteriormente, dicho proceso no tiene componentes deterministas de seno o coseno, pero podemos realizar formalmente un análisis de Fourier y obtener valores de , para cualquier frecuencia. Si un proceso estocástico genera observaciones repetidas, podemos recopilar una población de valores y. Luego podemos encontrar el valor promedio sobre realizaciones repetidas de longitud, es decir

. (2.2.9)

Para valores grandes, se puede demostrar (ver, por ejemplo) que el valor promedio de la autocovarianza en implementaciones repetidas tiende a la autocovarianza teórica, es decir

Pasando al límite en (2.2.9) para , definimos el espectro de potencia como

, . (2.2.10)

Tenga en cuenta que desde

luego, para que el espectro converja, debe disminuir con el crecimiento tan rápidamente que asegure la convergencia de la serie (2.2.11). Dado que el espectro de potencia es la transformada coseno de Fourier de la función de autocovarianza, conocer la función de autocovarianza es matemáticamente equivalente a conocer el espectro de potencia y viceversa. De ahora en adelante nos referiremos simplemente al espectro de potencia como espectro.

Integrando (2.2.10) en el rango de 0 a 1/2, encontremos la varianza proceso

. (2.2.12)

Por tanto, así como un periodograma muestra cómo se distribuye la dispersión (2.2.6) de una serie formada por una mezcla de ondas seno y coseno entre los distintos componentes armónicos, un espectro muestra cómo se distribuye la dispersión de un proceso estocástico sobre un espectro continuo. rango de frecuencias. Puede interpretarse como un valor aproximado de la variación del proceso en el rango de frecuencia de a .

Espectro normalizado. A veces es más conveniente definir el espectro (2.2.10) utilizando autocorrelaciones en lugar de autocovarianzas. Función resultante

, (2.2.13). Sin embargo, se puede demostrar (ver) que el espectro de muestra de una serie temporal estacionaria fluctúa fuertemente alrededor del espectro teórico. La explicación intuitiva para este hecho es que el espectro muestreado corresponde al uso de un intervalo demasiado estrecho en el dominio de la frecuencia. Esto es análogo a utilizar un intervalo de agrupamiento demasiado estrecho para un histograma al estimar una distribución de probabilidad normal utilizando un estimador modificado o suavizado.

, (2.2.14)

donde - pesos especialmente seleccionados, llamados ventana de correlación, pueden aumentar el "ancho de banda" de la estimación y obtener una estimación suavizada del espectro.

En la Fig. La Figura 2.8 muestra una muestra de evaluación del espectro de datos de lotes de productos. Se puede observar que la dispersión de la serie se concentra principalmente en altas frecuencias. Esto es causado por rápidas oscilaciones de la serie original mostrada en la Fig. 2.1.

Consideremos la llamada forma energética de la integral de Fourier. En el Capítulo 5, se dieron las fórmulas (7.15) y (7.16), que dan la transición de la función de tiempo a la imagen de Fourier y viceversa. Si se considera alguna función aleatoria del tiempo x (s), entonces estas fórmulas se pueden escribir en la forma

e integrarnos sobre todo

reemplazar con la expresión (11.54):

La cantidad entre corchetes (11.57), como es fácil ver, es la función original del tiempo (11.55). Por tanto, el resultado es la llamada fórmula de Rayleigh (teorema de Parseval), que corresponde a la forma energética de la integral de Fourier:

El lado derecho de (11.58) y (11.39) representa una cantidad proporcional a la energía del proceso considerado. Entonces, por ejemplo, si consideramos una corriente que fluye a través de una determinada resistencia con una resistencia K, entonces la energía liberada en esta resistencia con el tiempo será

Las fórmulas (11.58) y (11.59) expresan la forma energética de la integral de Fourier.

Sin embargo, estas fórmulas son inconvenientes porque en la mayoría de los procesos la energía también tiende a infinito en un intervalo de tiempo infinito. Por lo tanto, es más conveniente tratar no con la energía, sino con la potencia promedio del proceso, que se obtendrá si la energía se divide por el intervalo de observación. Entonces la fórmula (11.58) se puede representar como

Presentando la designación

se llama densidad espectral. Importante

A mi manera significado fisico La densidad espectral es un valor que es proporcional a la potencia promedio del proceso en el rango de frecuencia de co a co + d?co.

En algunos casos, la densidad espectral se considera sólo para frecuencias positivas, duplicándola, lo que se puede hacer ya que la densidad espectral es función par de la frecuencia. Entonces, por ejemplo, la fórmula (11.62) debe escribirse en la forma

- densidad espectral para frecuencias positivas.

ya que en este caso las fórmulas se vuelven más simétricas.

Una circunstancia muy importante es que la densidad espectral y la función de correlación de los procesos aleatorios son transformadas mutuas de Fourier, es decir, están relacionadas por dependencias integrales del tipo (11.54) y (11.55). Esta propiedad se da sin prueba.

Así, se pueden escribir las siguientes fórmulas:

Dado que la densidad espectral y la función de correlación son incluso funciones reales, las fórmulas (11.65) y (11.66) a veces se presentan en una forma más simple;

)

Esto se desprende del hecho de que se cumplen las siguientes igualdades:

y las partes imaginarias se pueden descartar después de sustituir en (11.65) y (11.66), ya que hay funciones reales a la izquierda.

La razón es que cuanto más estrecho es el gráfico de densidad espectral (figura 11.16a), es decir, cuanto más bajas se representan las frecuencias en la densidad espectral, más lento cambia el valor de x con el tiempo. Por el contrario, cuanto más amplio sea el gráfico de densidad espectral (Fig. 11.16, b), es decir, cuanto más altas estén representadas las frecuencias en la densidad espectral, más fina será la estructura de la función x(r) y más rápidos se producirán cambios en el tiempo.

Como puede verse a partir de esta consideración, la conexión entre el tipo de densidad espectral y el tipo de función de tiempo es inversa en comparación con la conexión entre la función de correlación y el proceso mismo (Fig. 11.14). De ello se deduce que una gráfica más amplia de la densidad espectral debería corresponder a una gráfica más estrecha de la función de correlación y viceversa.

Y 8 (co). Estas funciones, a diferencia de las funciones de impulso analizadas en el capítulo 4, son pares. Esto significa que la función 8(t) está ubicada simétricamente con respecto al origen y se puede definir de la siguiente manera;

Una definición similar se aplica a la función 8 (co). A veces se toma en consideración la densidad espectral normalizada, que es la imagen de Fourier de la función de correlación normalizada (11.52):

y por lo tanto,

donde O es la dispersión.

Las densidades espectrales cruzadas también son una medida de la relación entre dos variables aleatorias. En ausencia de comunicación, las densidades espectrales mutuas son iguales a cero.

Veamos algunos ejemplos.

Esta función se muestra en la Fig. 11.17, a. La imagen de Fourier correspondiente basada en la tabla. 11.3 será

El espectro del proceso consta de un único pico del tipo de función de impulso, ubicado en el origen de las coordenadas (Fig. 11.17, b).

Esto significa que toda la potencia del proceso en cuestión se concentra en la frecuencia de la bala, como era de esperar.

Esta función se muestra en la Fig. 11.18, a, De acuerdo con la tabla. 11.3 la densidad espectral será

3. Para una función periódica ampliable en serie de Fourier

Además de la parte periódica contendrá un componente no periódico, entonces el espectro de esta función contendrá, junto con las líneas individuales del tipo de función de impulso, también una parte continua (figura 11.20). Los picos individuales en el gráfico de densidad espectral indican la presencia de no-riodicidades ocultas en la función en estudio.

no contiene parte periódica, tendrá un espectro continuo sin picos pronunciados.

Consideremos algunos procesos aleatorios estacionarios que son importantes en el estudio de sistemas de control. Consideraremos solo centrado

Al mismo tiempo, el cuadrado promedio variable aleatoria será igual a la varianza:

tener en cuenta el sesgo constante en el sistema de control es elemental.

(Figura 11.21, a):

Un ejemplo de tal proceso es el ruido térmico de una resistencia, que da el nivel de densidad espectral del voltaje caótico a través de esta resistencia.

Temperatura absoluta.

Con base en (11.68), la densidad espectral (11.71) corresponde a la función de correlación

no existe correlación entre los valores anteriores y posteriores de la variable aleatoria x.

y por lo tanto un poder infinitamente mayor.

Para obtener un proceso físicamente real, conviene introducir el concepto de ruido blanco con densidad espectral limitada (figura 11.21, b):

Ancho de banda para densidad espectral.

Este proceso corresponde a la función de correlación.

El valor cuadrático medio de una variable aleatoria es proporcional a la raíz cuadrada de la banda de frecuencia:

A menudo es más conveniente aproximar la dependencia (11.73) con una curva suave. Para ello se puede utilizar, por ejemplo, la expresión

Coeficiente que determina el ancho de banda de frecuencia.

El proceso se acerca ruido blanco, Entonces

En cuanto a estas frecuencias

La integración (11.77) sobre todas las frecuencias permite determinar la dispersión:

Por tanto, la densidad espectral (11.77) se puede escribir de otra forma:

Función de correlación para este proceso.

La función de correlación también se muestra en la Fig. 21.11, a las.

La transición de un valor a otro se produce instantáneamente. Los intervalos de tiempo obedecen a la ley de distribución de Poisson (11.4).

Un gráfico de este tipo se obtiene, por ejemplo, como primera aproximación al seguir con un radar un objetivo en movimiento. Un valor de velocidad constante corresponde a que el objetivo se mueva en línea recta. Un cambio en el signo o magnitud de la velocidad corresponde a la maniobra objetivo.

Será el valor medio del intervalo de tiempo durante el cual la velocidad angular permanece constante. En relación al radar, este valor será el tiempo medio de movimiento del objetivo en línea recta.

Para determinar la función de correlación, es necesario encontrar el valor promedio del producto.

A la hora de encontrar este trabajo, se pueden dar dos casos.

pertenecen al mismo intervalo. Entonces el valor promedio del producto de las velocidades angulares será igual al cuadrado medio de la velocidad angular o dispersión:

pertenecen a diferentes intervalos. Entonces el valor medio del producto de velocidades será igual a la bala:

ya que los productos con signos positivos y negativos serán igualmente probables. La función de correlación será igual a

La probabilidad de encontrarlos en diferentes intervalos.

Probabilidad de ausencia

Por un intervalo de tiempo

ya que estos eventos son independientes.

Como resultado, para un intervalo finito At obtenemos

El signo del módulo para m viene dado porque la expresión (11.80) debe corresponder a incluso función. La expresión de la función de correlación coincide con (11.79). Por tanto, la densidad espectral del proceso considerado debe coincidir con (11.78):

Tenga en cuenta que, a diferencia de (11.78), la fórmula de densidad espectral (11.81) se escribe para la velocidad angular del proceso (figura 11.22). Si pasamos de velocidad angular a ángulo, obtenemos un proceso aleatorio no estacionario con dispersión que tiende al infinito. Sin embargo, en la mayoría de los casos, el servosistema, en cuya entrada opera este proceso, tiene un estatismo de primer orden y superior. Por tanto, el primer coeficiente de error c0 del sistema de seguimiento es cero y su error estará determinado únicamente por la velocidad de entrada y las derivadas de órdenes superiores, respecto de las cuales el proceso es estacionario. Esto hace posible utilizar la densidad espectral (11.81) al calcular error dinámico sistema de rastreo.

3. Cabeceo irregular. Algunos objetos, como barcos, aviones y otros, al estar bajo la influencia de perturbaciones irregulares (ondas irregulares, perturbaciones atmosféricas, etc.), se mueven pero ley aleatoria Dado que los propios objetos tienen una determinada frecuencia de vibración característica, tienen la propiedad de enfatizar aquellas frecuencias de perturbación que están cercanas a su propia frecuencia de vibración. El movimiento aleatorio resultante del objeto se llama movimiento irregular, a diferencia del movimiento regular, que es un movimiento periódico.

En la figura 2 se muestra una gráfica típica de movimiento irregular. 23.11. Del examen de este gráfico queda claro que, a pesar de la naturaleza aleatoria, este

el movimiento es bastante cercano al periódico.

En la práctica, la función de correlación del movimiento irregular a menudo se aproxima mediante la expresión

Dispersión.

generalmente se encuentran procesando datos experimentales (pruebas a gran escala).

La función de correlación (11.82) corresponde a la densidad espectral (ver Tabla 11.3)

El inconveniente de la aproximación (11.82) es que esta fórmula puede describir el comportamiento de cualquier cantidad de movimiento irregular (ángulo, velocidad angular o aceleración angular), En este caso, el valor O corresponderá a la dispersión del ángulo, velocidad o aceleración.

Si, por ejemplo, escribimos la fórmula (11.82) para un ángulo, entonces este proceso corresponderá a una piedra irregular con una dispersión para velocidades angulares que tienden al infinito, es decir, será un proceso físicamente irreal.

Una fórmula más conveniente para aproximar el ángulo de cabeceo

Sin embargo, esta aproximación también corresponde a un proceso físicamente irreal, ya que la dispersión de la aceleración angular tiende al infinito.

Para obtener una dispersión finita de la aceleración angular, se necesita aún más fórmulas complejas aproximaciones que no se dan aquí.

En la figura 1 se muestran curvas típicas para la función de correlación y la densidad espectral del movimiento irregular. 24.11.



¿Te gustó el artículo? ¡Compartir con tus amigos!