¿Cuál es la densidad espectral de un proceso aleatorio? Densidad espectral de la señal

1. Señales y espectros. Bases teóricas comunicaciones digitales

1. Señales y espectros

1.1. Procesamiento de señales en comunicaciones digitales.

1.1.1. ¿Por qué "digital"?

¿Por qué los sistemas de comunicaciones militares y comerciales utilizan "dígitos"? Hay muchas razones. La principal ventaja de este enfoque es la facilidad de reconstrucción de señales digitales en comparación con las analógicas. Veamos la figura. 1.1, que muestra un pulso digital binario ideal que se propaga a lo largo de un canal de datos. La forma de onda se ve afectada por dos mecanismos principales: (1) dado que todos los canales y líneas de transmisión tienen una respuesta de frecuencia no ideal, el pulso ideal se distorsiona; y (2) el ruido eléctrico no deseado u otra interferencia externa distorsiona aún más la forma del pulso. Cuanto más largo es el canal, más distorsionan estos mecanismos el pulso (fig. 1.1). En el punto en el que el pulso transmitido aún se puede determinar de manera confiable (antes de que se degrade a un estado ambiguo), el pulso se amplifica mediante un amplificador digital, restaurando su forma ideal original. El impulso “renace” o se restaura. Los repetidores regenerativos ubicados en el canal de comunicación a cierta distancia entre sí son responsables de la restauración de la señal.

Los canales digitales son menos susceptibles a la distorsión y la interferencia que los canales analógicos. Debido a que los canales digitales binarios producen una señal significativa sólo cuando operan en uno de dos estados (encendido o apagado), la perturbación debe ser lo suficientemente grande como para mover el punto de operación del canal de un estado al otro. Tener sólo dos estados facilita la reconstrucción de la señal y, por tanto, evita que se acumulen ruidos u otras perturbaciones durante la transmisión. Las señales analógicas, por el contrario, no son señales de dos estados; pueden aceptar un número infinito formas En los canales analógicos, incluso una pequeña perturbación puede distorsionar la señal hasta quedar irreconocible. Después de la distorsión Señal analoga la perturbación no puede eliminarse mediante amplificación. Dado que la acumulación de ruido está intrínsecamente ligada a las señales analógicas, no se pueden reproducir perfectamente. Con la tecnología digital, una tasa de error muy baja más el uso de procedimientos de detección y corrección de errores hacen posible una alta precisión de la señal. Sólo queda señalar que con las tecnologías analógicas tales procedimientos no están disponibles.

Fig.1.1. Distorsión y restauración de impulsos.

Hay otros beneficios importantes de la comunicación digital. Los canales digitales son más fiables y pueden producirse a costes más bajos que los canales analógicos. Además, digitales software permite más implementación más flexible que la analógica (por ejemplo, microprocesadores, conmutación digital y circuitos integrados a gran escala (LSI)). Usar señales digitales y multiplexación por división de tiempo (TDM) es más simple que usar señales analógicas y multiplexación por división de frecuencia (FDM). Al transmitir y conmutar, diferentes tipos de señales digitales (datos, telégrafo, teléfono, televisión) pueden considerarse idénticas: al fin y al cabo, un bit es un bit. Además, para facilitar la conmutación y el procesamiento, los mensajes digitales se pueden agrupar en unidades autónomas llamadas paquetes. Las tecnologías digitales naturalmente incorporan características que protegen contra interferencias y interferencias de señales, o brindan cifrado o privacidad. (En los capítulos 12 y 14 se analizan tecnologías similares.) Además, el intercambio de datos se produce principalmente entre dos computadoras o entre una computadora y un dispositivo o terminal digital. Estos dispositivos terminales digitales funcionan mejor (¡y son más naturales!) mediante canales de comunicación digitales.

¿Cuánto pagamos por los beneficios de los sistemas de comunicación digitales? Los sistemas digitales requieren un procesamiento más intensivo que los sistemas analógicos. Además, para los sistemas digitales es necesario destinar una parte importante de los recursos para la sincronización a varios niveles(ver capítulo 10). Los sistemas analógicos, por el contrario, son más fáciles de sincronizar. Otra desventaja de los sistemas de comunicación digitales es que la degradación de la calidad es un umbral. Si la relación señal-ruido cae por debajo de cierto umbral, la calidad del servicio puede cambiar repentinamente de muy buena a muy mala. En los sistemas analógicos, el deterioro de la calidad se produce de forma más fluida.

1.1.2. Diagrama de caja típico y transformaciones básicas.

Diagrama de bloques funcional mostrado en la Fig. 1.2 ilustra los pasos de propagación y procesamiento de señales en un sistema de comunicaciones digitales (DCS) típico. Los bloques superiores (formato, codificación de fuente, cifrado, codificación de canal, multiplexación, modulación de pulso, modulación de paso de banda, espectro ensanchado y acceso múltiple) reflejan las transformaciones de la señal en el camino desde la fuente al transmisor. Los bloques inferiores del diagrama son transformaciones de señales en el camino desde el receptor al destinatario de la información y, de hecho, son opuestos a los bloques superiores. Los bloques de modulación y demodulación/detección se denominan colectivamente módem. El término "módem" a menudo combina varias etapas de procesamiento de señales, como se muestra en la Fig. 1.2; en este caso, se puede considerar al módem como el “cerebro” del sistema. El transmisor y el receptor pueden considerarse como los "músculos" del sistema. Para aplicaciones inalámbricas, el transmisor consta de un circuito de refuerzo de radiofrecuencia (RF), un amplificador de potencia y una antena, y el receptor consta de una antena y un amplificador de bajo ruido (LNA). La reducción de frecuencia inversa se realiza a la salida del receptor y/o demodulador.

En la Fig. La Figura 1.2 ilustra la correspondencia entre los bloques de las partes superior (transmisora) e inferior (receptora) del sistema. Los pasos de procesamiento de la señal que tienen lugar en el transmisor son predominantemente inversos a los del receptor. En la Fig. 1.2 la información original se convierte en dígitos binarios (bits); Luego, los bits se agrupan en mensajes digitales o símbolos de mensajes. Cada uno de estos símbolos (dónde) puede considerarse como un elemento de un alfabeto finito que contiene METRO elementos. Por lo tanto, para METRO=2 El símbolo del mensaje es binario (es decir, consta de un bit). Aunque los caracteres binarios se pueden clasificar como METRO-ario (con M=2), normalmente el nombre " METRO-ary" se utiliza para casos METRO>2; Esto significa que dichos símbolos constan de una secuencia de dos o más bits. (Compare este alfabeto finito de los sistemas DCS con el que tenemos en los sistemas analógicos, donde la señal del mensaje es un elemento de un conjunto infinito de señales posibles). Para los sistemas que utilizan codificación de canales (códigos de corrección de errores), la secuencia de símbolos del mensaje se convierte en una secuencia de símbolos de canal (símbolos de código), y cada símbolo de canal está designado. Dado que los símbolos de mensaje o símbolos de canal pueden consistir en un solo bit o un grupo de bits, una secuencia de dichos símbolos se denomina flujo de bits (Figura 1.2).

Consideremos los bloques clave de procesamiento de señales que se muestran en la Fig. 1.2; Los únicos pasos necesarios para los sistemas DCS son el formateo, la modulación, la demodulación/detección y la sincronización.

El formateo convierte la información fuente en bits, asegurando así que las funciones de procesamiento de información y señales sean compatibles con el sistema DCS. Desde este punto de la figura hasta el bloque de modulación de pulsos, la información permanece en forma de un flujo de bits.

Arroz. 1.2. Diagrama de bloques de un sistema de comunicaciones digitales típico.

La modulación es el proceso mediante el cual los símbolos de mensaje o símbolos de canal (si se utiliza codificación de canal) se convierten en señales compatibles con los requisitos impuestos por el canal de datos. La modulación de pulsos es otro paso necesario porque cada símbolo que debe transmitirse primero debe convertirse de una representación binaria (niveles de voltaje que representan ceros y unos binarios) a una forma de señal de banda estrecha. El término "banda base" define una señal cuyo espectro comienza en (o cerca de) un componente de CC y termina en algún valor finito (normalmente no más de unos pocos megahercios). El bloque de modulación de código de impulsos normalmente incluye filtrado para minimizar el ancho de banda de transmisión. Cuando se aplica modulación de pulso a símbolos binarios, la señal binaria resultante se denomina señal codificada PCM (modulación de código de pulso). Existen varios tipos de señales PCM (descritas en el Capítulo 2); en aplicaciones comunicación telefónica Estas señales a menudo se denominan códigos de canal. Cuando se aplica modulación de pulso a caracteres no binarios, la señal resultante se llama METRO-Aria modulada por pulsos. Hay varios tipos de señales de este tipo, que también se describen en el Capítulo 2, donde la atención se centra en la modulación de amplitud de pulso (PAM). Después de la modulación de pulso, cada símbolo de mensaje o símbolo de canal toma la forma de una señal de paso de banda, donde. En cualquier implementación electrónica, el flujo de bits que precede a la modulación de pulsos está representado por niveles de voltaje. Cabe preguntarse por qué hay un bloque separado para la modulación de pulsos, cuando en realidad los niveles de voltaje para ceros y unos binarios ya pueden considerarse pulsos rectangulares ideales, cada uno de los cuales tiene una duración igual al tiempo de transmisión de un bit. Hay dos diferencias importantes entre niveles de voltaje similares y las señales de paso de banda utilizadas para la modulación. En primer lugar, el bloque de modulación de pulsos permite el uso de binario y METRO-señales arias. La sección 2.8.2 describe varios parámetros útiles para estos tipos de señales. En segundo lugar, el filtrado realizado en la unidad de modulación de impulsos genera impulsos cuya duración es mayor que el tiempo de transmisión de un bit. La filtración permite el uso de pulsos más largos; por tanto, los impulsos se distribuyen en intervalos de tiempo de transmisión de bits adyacentes. Este proceso a veces se denomina configuración del pulso; se utiliza para mantener el ancho de banda de transmisión dentro de alguna región deseada del espectro.

Para aplicaciones que involucran transmisión de radiofrecuencia, lo siguiente etapa importante es modulación de paso de banda; siempre es necesario cuando el medio de transmisión no soporta la propagación de señales en forma de pulsos. En tales casos, el medio requiere una señal de paso de banda, donde. El término "paso de banda" se utiliza para reflejar que la onda portadora desplaza una señal de banda estrecha a una frecuencia mucho más alta que sus componentes espectrales. A medida que una señal se propaga a través de un canal, se ve afectada por las características del canal, que pueden expresarse en términos de respuesta al impulso (consulte la Sección 1.6.1). Además, en varios puntos a lo largo del camino de la señal, el ruido aleatorio adicional corrompe la señal recibida, por lo que la recepción debe expresarse en términos de una versión corrupta de la señal proveniente del transmisor. La señal recibida se puede expresar de la siguiente manera:

donde el signo "*" representa la operación de convolución (ver Apéndice A) y es el proceso de ruido (ver Sección 1.5.5).

En la dirección inversa, el extremo frontal del receptor y/o el demodulador reducen la frecuencia de cada señal de paso de banda. En preparación para la detección, el demodulador reconstruye la envolvente óptima de la señal de banda estrecha. Por lo general, se asocian varios filtros con el receptor y el demodulador; el filtrado se realiza para eliminar componentes de alta frecuencia no deseados (en el proceso de convertir una señal de paso de banda en una señal de banda estrecha) y dar forma al pulso. La ecualización se puede describir como un tipo de filtrado utilizado en el demodulador (o después del demodulador) para eliminar cualquier efecto de degradación de la señal que el canal pueda haber causado. La ecualización es necesaria cuando la respuesta al impulso de un canal es tan pobre que la señal recibida queda muy distorsionada. Se implementa un ecualizador (dispositivo de nivelación) para compensar (es decir, eliminar o atenuar) toda la distorsión de la señal causada por una característica no ideal. Finalmente, la etapa de muestreo convierte el pulso generado en una muestra para recuperar (aproximadamente) el símbolo del canal o el símbolo del mensaje (si no se utiliza codificación de canal). Algunos autores utilizan los términos demodulación y detección indistintamente. En este libro, la demodulación se refiere a la reconstrucción de una señal (pulso de ancho de banda) y la detección se refiere a tomar una decisión con respecto al valor digital de esta señal.

Las etapas restantes del procesamiento de señales en el módem son opcionales y están destinadas a satisfacer necesidades específicas del sistema. La codificación fuente es la conversión de una señal analógica en digital (para fuentes analógicas) y la eliminación de información redundante (innecesaria). Tenga en cuenta que un sistema DCS típico puede utilizar codificación de origen (para digitalizar y comprimir la información original) o una conversión de formato más simple (solo para digitalización). El sistema no puede aplicar simultáneamente tanto la codificación fuente como el formateo, ya que la primera ya incluye la etapa necesaria de digitalización de la información. El cifrado, que se utiliza para garantizar la privacidad de las comunicaciones, evita que un usuario no autorizado comprenda el mensaje e introduzca mensajes falsos en el sistema. La codificación de canal a una velocidad de datos determinada puede reducir la probabilidad de error de PE o reducir la relación señal-ruido requerida para obtener la probabilidad deseada de PE aumentando el ancho de banda de transmisión o complicando el decodificador. Los procedimientos de multiplexación y acceso múltiple combinan señales que pueden tener diferentes características o pueden provenir de diferentes fuentes, para que puedan compartir parte de los recursos de comunicación (por ejemplo, espectro, tiempo). La dispersión de frecuencia puede proporcionar una señal que es relativamente inmune a la interferencia (tanto natural como intencional) y puede usarse para aumentar la privacidad de las partes que se comunican. También es una tecnología valiosa que se utiliza para el acceso múltiple.

Los bloques de procesamiento de señales que se muestran en la Fig. 1.2 representa un diagrama típico de un sistema de comunicación digital; sin embargo, estos bloques a veces se implementan en un orden ligeramente diferente. Por ejemplo, la multiplexación puede ocurrir antes de la codificación o modulación del canal, o - en un proceso de modulación de dos etapas (subportadora y portadora) - puede ocurrir entre dos etapas de modulación. De manera similar, la unidad de expansión de frecuencia se puede ubicar en varios lugares en la fila superior de la Fig. 1.2; su ubicación exacta depende de la tecnología específica utilizada. La sincronización y su elemento clave, la señal de reloj, están involucrados en todas las etapas del procesamiento de señales en un sistema DCS. Por simplicidad, el bloque de sincronización de la Fig. 1.2 se muestra sin hacer referencia a nada, aunque en realidad participa en la regulación de operaciones en casi todos los bloques que se muestran en la figura.

En la Fig. La Figura 1.3 muestra las funciones básicas del procesamiento de señales (que pueden considerarse como acondicionamiento de señales), divididas en los siguientes nueve grupos.

Fig.1.3. Grandes transformaciones de las comunicaciones digitales

1. Formatear y codificar la fuente

2. Transmisión de señal de banda estrecha

3. Señalización de paso de banda

4. Alineación

5. Codificación de canales

6. Sello y acceso múltiple

7. Ampliación del espectro

8. Cifrado

9. Sincronización

En la Fig. La transmisión de señal de banda estrecha de 1.3 bloques contiene una lista de alternativas binarias cuando se utiliza modulación PCM o códigos lineales. Este bloque también identifica una categoría no binaria de señales llamada METRO-Modulación de pulso aria. Otra transformación en la Fig. 1.3, denominado Señalización de paso de banda, se divide en dos bloques principales, coherente e incoherente. La demodulación suele realizarse utilizando señales de referencia. Cuando se utilizan señales conocidas como medida de todos los parámetros de la señal (especialmente la fase), el proceso de demodulación se denomina coherente; cuando no se utiliza la información de fase, se dice que el proceso es incoherente.

La codificación de canales se refiere a técnicas utilizadas para mejorar las señales digitales, haciéndolas menos vulnerables a factores de degradación como el ruido, el desvanecimiento y la supresión de la señal. En la Fig. La codificación de 1.3 canales se divide en dos bloques, un bloque de codificación de forma de onda y un bloque de secuencia estructurada. La codificación de formas de onda implica el uso de nuevas señales que introducen un rendimiento de detección mejorado con respecto a la señal original. Las secuencias estructuradas implican el uso de bits adicionales para determinar si existe un error debido al ruido en el canal. Una de esas tecnologías, la solicitud de repetición automática (ARQ), simplemente reconoce que se ha producido un error y solicita al remitente que retransmita el mensaje; Otra tecnología, conocida como corrección de errores directa (FEC), permite corregir los errores automáticamente (con ciertas limitaciones). Al analizar secuencias estructuradas, analizaremos tres métodos comunes: codificación en bloque, convolucional y turbo.

En las comunicaciones digitales, la sincronización implica el cálculo tanto del tiempo como de la frecuencia. Como se muestra en la Fig. 1.3, la sincronización se realiza en cinco niveles. Las frecuencias de referencia de los sistemas coherentes deben estar sincronizadas con la portadora (y posiblemente con la subportadora) en frecuencia y fase. Para sistemas incoherentes, la sincronización de fases no es necesaria. El proceso básico de sincronización de tiempo es la sincronización de caracteres (o sincronización de bits para caracteres binarios). El demodulador y el detector deben saber cuándo iniciar y detener el proceso de detección de símbolos y bits; El error de sincronización conduce a una reducción de la eficiencia de detección. El siguiente nivel de sincronización de tiempo, la sincronización de cuadros, permite reorganizar los mensajes. Y Nivel pasado La sincronización de red le permite coordinar acciones con otros usuarios para utilizar los recursos de manera eficiente.

1.1.3. Terminología básica en el campo de las comunicaciones digitales.

A continuación se muestran algunos términos básicos que se utilizan con frecuencia en el campo de las comunicaciones digitales.

Una fuente de información(Fuente de información). Un dispositivo que transmite información a través del sistema DCS. La fuente de información puede ser analógica o discreta. La salida de una fuente analógica puede tomar cualquier valor de un rango continuo de amplitudes, mientras que la salida de una fuente de información discreta puede tomar valores de un conjunto finito de amplitudes. Las fuentes de información analógicas se convierten en digitales mediante muestreo o cuantificación. Métodos de muestreo y cuantificación llamados formato y codificación de fuente (Fig. 1.3).

Mensaje de texto(mensaje de texto). Secuencia de caracteres (Fig. 1.4, A). En la transmisión de datos digitales, un mensaje es una secuencia de números o símbolos que pertenecen a un conjunto finito de caracteres o alfabeto.

Firmar(Personaje). Un elemento del alfabeto o conjunto de caracteres (Fig. 1.4, b). Los caracteres se pueden asignar a una secuencia de dígitos binarios. Hay varios códigos estandarizados que se utilizan para la codificación de caracteres, incluido el código ASCII (Código estándar estadounidense para el intercambio de información), el código EBCDIC (Código de intercambio decimal codificado en binario extendido), el código Hollerith, el código Hollerith, el código Baudot, el código Murray y el código Morse.

Fig.1.4. Ilustración de términos: a) mensajes de texto; b) símbolos;

c) flujo de bits (código ASCII de 7 bits); d) símbolos, ;

e) señal digital de paso de banda

Dígito binario(dígito binario) (bit) (bit). La unidad fundamental de información para todos los sistemas digitales. El término "bit" también se utiliza como unidad de volumen de información, que se describe en el Capítulo 9.

flujo de bits(flujo de bits). Una secuencia de dígitos binarios (ceros y unos). El flujo de bits a menudo se denomina señal de banda base; esto implica que sus componentes espectrales varían desde (o alrededor de) el componente de CC hasta algún valor finito, que generalmente no excede unos pocos megahercios. En la Fig. 1.4, el mensaje CÓMO se representa mediante código ASCII de siete bits y el flujo de bits se muestra en forma de pulsos de dos niveles. La secuencia de pulsos se representa utilizando señales muy estilizadas (perfectamente rectangulares) con espacios entre pulsos adyacentes. En un sistema real, los pulsos nunca se verían así, ya que tales espacios son absolutamente inútiles. Para una velocidad de datos determinada, las brechas aumentarán el ancho de banda requerido para la transmisión; o, para un ancho de banda determinado, aumentarán el retraso de tiempo necesario para recibir el mensaje.

Símbolo(símbolo) (mensaje digital). Un símbolo es un grupo de k bits considerados en su conjunto. En lo que sigue llamaremos a este bloque símbolo de mensaje () de un conjunto finito de símbolos o alfabeto (Fig. 1.4, d.) Tamaño del alfabeto METRO es igual a , donde k- número de bits en un símbolo. En la transmisión de banda estrecha, cada símbolo estará representado por uno de un conjunto de señales de pulso de banda estrecha. . A veces, cuando se transmite una secuencia de dichos pulsos, se utiliza la unidad baudios (baud) para expresar la velocidad de transmisión del pulso (velocidad de símbolo). Para una transmisión típica de paso de banda, cada pulso estará representado por una de un conjunto de señales de pulso de paso de banda. . Así, para los sistemas inalámbricos, el símbolo se envía transmitiendo una señal digital para t segundos El siguiente carácter se envía durante el siguiente intervalo de tiempo, t. El hecho de que el conjunto de símbolos transmitidos por el sistema DCS sea finito es la principal diferencia entre estos sistemas y los sistemas de comunicación analógicos. El receptor DCS sólo necesita determinar cuál de los METRO se transmitieron posibles señales; mientras que un receptor analógico debe determinar con precisión el valor perteneciente a un rango continuo de señales.

Señal digital(forma de onda digital). Descrito por un nivel de voltaje o corriente, una señal (un pulso para banda estrecha o una onda sinusoidal para paso de banda) que representa un carácter digital. Las características de la señal (para pulsos - amplitud, duración y ubicación, o para una onda sinusoidal - amplitud, frecuencia y fase) permiten identificarla como uno de los símbolos del alfabeto finito. En la Fig. 1.4, d Se da un ejemplo de una señal digital de paso de banda. Aunque la señal es una onda sinusoidal y por tanto tiene apariencia analógica, se sigue llamando digital porque codifica información digital. En esta imagen valor digital indicado por transmisión durante cada intervalo de tiempo t señal de una determinada frecuencia.

Tasa de transferencia de datos(velocidad de datos). k Este valor en bits por segundo (bps) viene dado por (bps) donde t los bits definen un carácter del alfabeto simbólico, y - esta es la duración A

-símbolo de bit.

1.1.4. Criterios de rendimiento digitales y analógicos.

La diferencia fundamental entre los sistemas de comunicación analógicos y digitales está relacionada con la forma en que se evalúa su desempeño. Las señales del sistema analógico son un continuo, por lo que el receptor debe tratar con un número infinito de señales posibles. La medida del rendimiento de los sistemas de comunicación analógicos es la precisión, como la relación señal-ruido, el porcentaje de distorsión o el error cuadrático medio esperado entre las señales transmitidas y recibidas.

A diferencia de los sistemas de comunicación analógicos, los digitales transmiten señales que representan números. Estos dígitos forman un conjunto finito o alfabeto, y este conjunto es conocido a priori por el receptor. El criterio para la calidad de los sistemas de comunicación digital es la probabilidad de detección incorrecta de un dígito o la probabilidad de error ().

1.2. Clasificación de señal

1.2.1. Señales deterministas y aleatorias.

1.2.2. Señales periódicas y no periódicas.

Se dice que una señal es periódica en el tiempo si existe una constante tal que

para (1.2)

donde a través t Se indica el tiempo. Valor más bajo, el cumplimiento de esta condición se denomina período de señal. El período determina la duración de un ciclo completo de la función. Una señal para la cual no existe ningún valor que satisfaga la ecuación (1.2) se denomina no periódica.

1.2.3. Señales analógicas y discretas.

La señal analógica es una función continua del tiempo, es decir exclusivamente determinado para todos t. Una señal eléctrica analógica se produce cuando algún dispositivo convierte una señal física (como el habla) en una señal eléctrica. Para comparacion, señal discreta es una señal que existe en intervalos de tiempo discretos; se caracteriza por una secuencia de números definidos para cada momento en el tiempo, Connecticut, Dónde k es un número entero y t- período de tiempo fijo.

1.2.4. Señales expresadas en términos de energía o potencia.

Una señal eléctrica se puede considerar como un cambio de voltaje o corriente con potencia instantánea aplicada a una resistencia. R:

En los sistemas de comunicación, la potencia suele estar normalizada (se supone que la resistencia R equivale a 1 Ohm, aunque en un canal real puede ser cualquier cosa). Si es necesario determinar el valor de potencia real, se obtiene “desnormalizando” el valor normalizado. En el caso normalizado, las ecuaciones (1.3,a) y (1.3,6) tienen la misma forma. Por lo tanto, independientemente de si la señal se representa en términos de voltaje o corriente, la forma normalizada nos permite expresar la potencia instantánea como

¿Dónde está el voltaje o la corriente? La disipación de energía durante un período de tiempo () de una señal real con potencia instantánea obtenida mediante la ecuación (1.4) se puede escribir de la siguiente manera.

(1.5)

La potencia promedio disipada por la señal durante este intervalo es la siguiente.

(1.6)

El desempeño de un sistema de comunicación depende de la energía de la señal recibida; Las señales con mayor energía se detectan de forma más fiable (con menos errores): el trabajo de detección lo realiza la energía recibida. Por otro lado, la potencia es la velocidad a la que se suministra energía. Este punto es importante por varias razones. La potencia determina el voltaje que se debe aplicar al transmisor y la intensidad de los campos electromagnéticos que se deben considerar en los sistemas de radio (es decir, los campos en las guías de ondas que conectan el transmisor a la antena y los campos alrededor de los elementos radiantes de la antena). .

Al analizar señales de comunicaciones, a menudo es deseable trabajar con energía de señal. La llamaremos señal de energía si y solo si tiene energía finita distinta de cero (), donde

(1.7)

En una situación real, siempre transmitimos señales con energía finita (). Sin embargo, para describir señales periódicas, que por definición (ecuación (1.2)) siempre existen y, por tanto, tienen energía infinita, y para trabajar con señales aleatorias, que además tienen energía ilimitada, conviene definir una clase de señales expresadas en términos de poder. Entonces, es conveniente representar una señal usando potencia si es periódica y en cualquier momento tiene potencia finita distinta de cero (), donde

(1.8)

Una determinada señal se puede clasificar como energética o periódica. Una señal energética tiene energía finita pero potencia promedio cero, mientras que una señal periódica tiene potencia promedio cero pero energía infinita. Una señal en un sistema se puede expresar en términos de su energía o valores periódicos. Como regla general, las señales periódicas y aleatorias se expresan en términos de potencia, y las señales deterministas y no periódicas se expresan en términos de energía.

La energía y la intensidad de la señal son dos parámetros importantes en la descripción del sistema de comunicación. Clasificar una señal como energética o periódica es un modelo conveniente que facilita el tratamiento matemático de diversas señales y ruido. La Sección 3.1.5 desarrolla estas ideas en el contexto de los sistemas de comunicación digital.

1.2.5. Función de impulso unitario

Una función útil en la teoría de la comunicación es el impulso unitario o función delta de Dirac. Una función de impulso es una abstracción, un impulso con amplitud infinitamente grande, ancho cero y peso unitario (el área bajo el impulso), concentrado en el punto en el que el valor de su argumento es cero. Un impulso unitario viene dado por las siguientes relaciones.

Ilimitado en el punto (1.11)

(1.12)

Un único impulso no es una función en el sentido habitual de la palabra. Si se incluye en alguna operación, conviene considerarlo un pulso de amplitud finita, unidad de área y duración distinta de cero, tras lo cual es necesario considerar el límite a medida que la duración del pulso tiende a cero. Gráficamente se puede representar como un pico ubicado en el punto , cuya altura es igual a la integral del mismo o su área. Así, con constante A representa una función de impulso cuya área (o peso) es A, y el valor es cero en todas partes, excepto en el punto.

La ecuación (1.12) se conoce como propiedad de tamizado (o cuantificación) de la función de impulso unitario; la integral de un impulso unitario y una función arbitraria da una muestra de la función en el punto.

1.3. Densidad espectral

La densidad espectral de las características de la señal es la distribución de la energía o potencia de la señal en un rango de frecuencia. Este concepto adquiere especial importancia cuando se considera el filtrado en sistemas de comunicación. Debemos poder estimar la señal y el ruido en la salida del filtro. Esta evaluación utiliza densidad espectral de energía (ESD) o densidad espectral de potencia (PSD).

1.3.1. Densidad de energía espectral

La energía total de la señal de energía real definida en el intervalo se describe mediante la ecuación (1.7). Utilizando el teorema de Parseval, podemos relacionar la energía de dicha señal, expresada en el dominio del tiempo, con la energía expresada en el dominio de la frecuencia:

, (1.13)

¿Dónde está la transformada de Fourier de una señal no periódica? (Puede encontrar un resumen del análisis de Fourier en el Apéndice A.) Denotemos por el espectro de amplitud rectangular definido como

(1.14)

La cantidad es la densidad espectral de energía (ESD) de la señal. Por lo tanto, a partir de la ecuación (1.13), la energía total se puede expresar integrando la densidad espectral sobre la frecuencia.

(1.15)

Esta ecuación muestra que la energía de la señal es igual al área bajo el gráfico en el dominio de la frecuencia. La densidad de energía espectral describe la energía de la señal por unidad de ancho de banda y se mide en J/Hz. Los componentes de frecuencia positivos y negativos dan contribuciones de energía iguales, por lo tanto, para una señal real, la cantidad es una función par de la frecuencia. Por lo tanto, la densidad de energía espectral es simétrica en frecuencia con respecto al origen, y la energía total de la señal se puede expresar de la siguiente manera.

(1.16)

1.3.2. Densidad espectral de potencia

La potencia promedio de la señal real en representación periódica está determinada por la ecuación (1.8). Si es una señal periódica con punto, se clasifica como una señal en representación periódica. La expresión de la potencia promedio de una señal periódica viene dada por la fórmula (1.6), donde el promedio temporal se toma durante un período.

(1.17a)

El teorema de Parseval para una señal periódica real tiene la forma

, (1.17,b)

donde los términos son los coeficientes complejos de la serie de Fourier para una señal periódica (ver Apéndice A).

Para utilizar la ecuación (1.17.6), solo necesitas conocer el valor de los coeficientes. La densidad espectral de potencia (PSD) de una señal periódica, que es una función real, par y no negativa de la frecuencia y proporciona la distribución de potencia de la señal en un rango de frecuencia, se define de la siguiente manera.

(1.18)

La ecuación (1.18) define la densidad espectral de potencia de una señal periódica como una secuencia de funciones delta ponderadas. Por lo tanto, la PSD de una señal periódica es función discreta frecuencias. Utilizando la PSD definida en la ecuación (1.18), se puede escribir la potencia normalizada promedio de la señal real.

(1.19)

La ecuación (1.18) describe la PSD de señales periódicas únicamente. Si es una señal no periódica, no puede expresarse en términos de una serie de Fourier; si es una señal no periódica en representación periódica (que tiene energía infinita), es posible que no tenga una transformada de Fourier. Sin embargo, todavía podemos expresar la densidad espectral de potencia de tales señales en el límite. Si forma una versión truncada de una señal no periódica en una representación periódica, tomando para ello solo sus valores del intervalo (), tendrá energía finita y la correspondiente transformada de Fourier. Se puede demostrar que la densidad espectral de potencia de una señal no periódica se define como un límite.

(1.20)

Ejemplo 1.1. Potencia media normalizada

a) Encuentre la potencia de señal normalizada promedio utilizando el promedio de tiempo.

b) Complete el paso a sumando los coeficientes espectrales.

Solución

a) Usando la ecuación (1.17,a), tenemos lo siguiente.

b) Usando las ecuaciones (1.18) y (1.19), obtenemos lo siguiente.

(ver Apéndice A)

1.4. Autocorrelación

1.4.1. Autocorrelación de la señal de energía.

La correlación es un proceso de emparejamiento; La autocorrelación es la comparación de una señal con su propia versión retardada. La función de autocorrelación de la señal de energía real se define de la siguiente manera.

para (1.21)

La función de autocorrelación da una medida de la similitud de una señal con su propia copia, desplazada en unidades de tiempo. La variable actúa como parámetro de escaneo o búsqueda. - esto no es una función del tiempo; es simplemente una función de la diferencia de tiempo entre la señal y su copia desplazada.

La función de autocorrelación de una señal de energía real tiene las siguientes propiedades.

1.

3. la autocorrelación y la ESD son transformadas de Fourier entre sí, lo que se indica con una flecha de dos puntas

4. el valor en cero es igual a la energía de la señal

Al cumplir con los párrafos. 1-3 es una función de autocorrelación. La condición 4 es una consecuencia de la condición 3, por lo que no es necesario incluirla en el conjunto principal para probar una función de autocorrelación.

1.4.2. Autocorrelación de una señal periódica.

La autocorrelación de una señal periódica real se define de la siguiente manera.

para (1.22)

Si la señal es periódica con un período, el promedio de tiempo en la ecuación (1.22) se puede tomar durante un período y la autocorrelación se puede expresar de la siguiente manera.

para (1.23)

Autocorrelación de una señal periódica que recibe. valores reales, tiene propiedades similares a las de una señal de energía.

1. simetría con respecto a cero

2. para todos el valor máximo es cero

3. la autocorrelación y la ESD son transformadas de Fourier entre sí

4.

1.5. Señales aleatorias

La tarea principal de un sistema de comunicación es transmitir información a través de un canal de comunicación. Todas las señales de mensajes útiles aparecen aleatoriamente, es decir. el receptor no sabe de antemano cuál de los posibles símbolos de mensaje se transmitirá. Además, diversos procesos eléctricos generan ruido que acompaña a las señales de información. Por tanto, necesitamos una forma eficaz de describir señales aleatorias.

1.5.1. Variables aleatorias

Deja que la variable aleatoria JA) representa la relación funcional entre un evento aleatorio A y un número real. Para facilitar la notación, denotemos la variable aleatoria por X, y su dependencia funcional de A lo consideraremos explícito. Una variable aleatoria puede ser discreta o continua. Distribución de una variable aleatoria X se encuentra mediante la expresión:

, (1.24)

¿Dónde está la probabilidad de que se acepte el valor? variable aleatoria X menos Número Real X o igual a él. La función de distribución tiene las siguientes propiedades.

2. Si

Otra función útil relacionada con la variable aleatoria. X, es la densidad de probabilidad, que se escribe de la siguiente manera.

(1.25,a)

Al igual que con la función de distribución, la densidad de probabilidad es función del número real X. El nombre "función de densidad" proviene del hecho de que la probabilidad de un evento es igual a lo siguiente.

Usando la ecuación (1.25.6), podemos escribir aproximadamente la probabilidad de que una variable aleatoria X tiene un valor que pertenece a un intervalo muy pequeño entre y .

Así, en el límite as , tendiendo a cero, podemos escribir lo siguiente.

La densidad de probabilidad tiene las siguientes propiedades.

2. .

Por tanto, la densidad de probabilidad siempre es no negativa y tiene una unidad de área. En el texto del libro usaremos la notación para indicar la densidad de probabilidad de una variable aleatoria continua. Para facilitar la notación, a menudo omitiremos el índice. X y fácil de escribir. Si una variable aleatoria X Solo puede tomar valores discretos, usaremos la notación para denotar la densidad de probabilidad.

1.5.1.1. promedio del conjunto

Valor medio o valor esperado de una variable aleatoria X está determinada por la expresión

, (1.26)

donde se llama operador de valor esperado. momento norte- orden de distribución de probabilidad de una variable aleatoria X se llama la siguiente cantidad.

(1.27)

Para el análisis de sistemas de comunicación, los dos primeros momentos de la variable son importantes. X. Si, cuando norte=1 la ecuación (1.27) da el momento discutido anteriormente, y en norte= 1 - valor cuadrático medio X.

(1.28)

También puedes definir momentos centrales, que son momentos de diferencia. X Y . Momento central segundo orden (también llamado varianza) es igual a lo siguiente.

Dispersión X también escrito como , y la raíz cuadrada de este valor, , se llama desviación estándar X. La varianza es una medida de la "extensión" de una variable aleatoria. X. Especificar la varianza de una variable aleatoria limita el ancho de la función de densidad de probabilidad. La varianza y el valor cuadrático medio están relacionados mediante la siguiente relación.

Por lo tanto, la varianza es igual a la diferencia entre el valor cuadrático medio y el cuadrado del valor promedio.

1.5.2. Procesos aleatorios

Un proceso aleatorio se puede considerar en función de dos variables: eventos A y tiempo. En la Fig. 1.5 muestra un ejemplo de un proceso aleatorio. Mostrado norte Ejemplos de funciones del tiempo. Cada una de las funciones de muestra puede considerarse como la salida de un generador de ruido independiente. Para cada evento tenemos una única función de tiempo. (es decir, función selectiva). El conjunto de todas las funciones muestrales se llama conjunto. En cualquier momento dado, es una variable aleatoria cuyo valor depende del evento. Y por último, para un evento específico y para un momento específico, este es el número habitual. Por conveniencia de notación, denotaremos un proceso aleatorio por X(t), y la dependencia funcional de A lo consideraremos explícito.

Fig.1.5. Proceso de ruido aleatorio

1.5.2.1. Media estadística de un proceso aleatorio.

Dado que se desconoce el valor de un proceso aleatorio en cada momento posterior, un proceso aleatorio cuyas funciones de distribución son continuas se puede describir estadísticamente mediante una densidad de probabilidad. En general, en diferentes momentos esta función para un proceso aleatorio tendrá diferente tipo. En la mayoría de los casos, no es realista determinar empíricamente la distribución de probabilidad de un proceso aleatorio. Al mismo tiempo, para las necesidades de los sistemas de comunicación, suele ser suficiente una descripción parcial que incluya el promedio y la función de autocorrelación. Entonces, determinemos el promedio del proceso aleatorio. X(t) Cómo

, (1.30)

donde es una variable aleatoria obtenida al considerar un proceso aleatorio en un momento dado, a es la densidad de probabilidad (densidad sobre un conjunto de eventos en un momento dado).

Definamos la función de autocorrelación del proceso aleatorio. X(t) en función de dos variables y

donde y son variables aleatorias obtenidas considerando X(t) en determinados momentos y en consecuencia. La función de autocorrelación es una medida de la relación entre dos muestras de tiempo de un proceso aleatorio.

1.5.2.2. Estacionariedad

Proceso aleatorio X(t) Se llama estacionario en sentido estricto si ninguna de sus estadísticas se ve afectada por la transferencia del origen del tiempo. Un proceso aleatorio se llama estacionario en sentido amplio si sus dos estadísticas, la media y la función de autocorrelación, no cambian cuando se desplaza el origen del tiempo. Por lo tanto, el proceso es estacionario en el sentido amplio si

La estacionariedad en sentido estricto implica estacionariedad en sentido amplio, pero no al revés. La mayoría de los resultados útiles de la teoría de la comunicación se basan en el supuesto de que las señales de información aleatorias y el ruido son estacionarios en el sentido amplio. Desde un punto de vista práctico, un proceso aleatorio no siempre tiene que ser estacionario; la estacionariedad en algún intervalo de tiempo observable de interés práctico es suficiente.

Para procesos estacionarios, la función de autocorrelación en la ecuación (1.33) no depende del tiempo, sino solo de la diferencia. En otras palabras, todos los pares de valores X(t) en puntos en el tiempo separados por un intervalo, tienen el mismo valor de correlación. Por lo tanto, para sistemas estacionarios la función se puede escribir simplemente como.

1.5.2.3. Autocorrelación de procesos aleatorios estacionarios en sentido amplio.

Así como la varianza ofrece una medida de aleatoriedad para variables aleatorias, la función de autocorrelación ofrece una medida similar para procesos aleatorios. Para procesos estacionarios en sentido amplio, la función de autocorrelación depende únicamente de la diferencia temporal.

Para un proceso ampliamente estacionario con media cero, la función muestra qué tan correlacionadas estadísticamente están las variables aleatorias del proceso, separadas por segundos. En otras palabras, proporciona información sobre la respuesta en frecuencia asociada a un proceso aleatorio. Si cambia lentamente a medida que aumenta de cero a algún valor, muestra que en promedio los valores de la muestra X(t), tomados en momentos de tiempo y , son prácticamente iguales. Por lo tanto, tenemos derecho a esperar que en la representación de frecuencia X(t) Predominarán las bajas frecuencias. Por otro lado, si disminuye rápidamente a medida que θ aumenta, esperaríamos que X(t) cambiará rápidamente con el tiempo y, por lo tanto, incluirá predominantemente altas frecuencias.

La función de autocorrelación de un proceso estacionario en sentido amplio que toma valores reales tiene las siguientes propiedades.

1. simetría con respecto a cero

2. para todos el valor máximo es cero

3. la autocorrelación y la densidad espectral de potencia son transformadas de Fourier entre sí

4. el valor en cero es igual a la potencia promedio de la señal

1.5.3. Promedio de tiempo y ergodicidad.

Para calcular y promediar el conjunto, necesitamos promediarlos sobre todas las funciones muestrales del proceso y, por lo tanto, necesitamos información completa sobre la distribución mutua de funciones de densidad de probabilidad en la primera y segunda aproximaciones. En general, dicha información no suele estar disponible.

Si un proceso aleatorio pertenece a una clase especial llamada clase de procesos ergódicos, su promedio temporal es igual al promedio conjunto y las propiedades estadísticas del proceso se pueden determinar promediando en el tiempo una función muestral del proceso. Para que un proceso aleatorio sea ergódico, debe ser estacionario en sentido estricto (no es necesario lo contrario). Sin embargo, para los sistemas de comunicación, donde la estacionariedad en sentido amplio es suficiente para nosotros, sólo nos interesan el promedio y la función de autocorrelación.

Se dice que un proceso aleatorio es ergódico con respecto a la media si

(1.35)

y ergódico con respecto a la función de autocorrelación si

(1.36)

Probar la ergodicidad de un proceso aleatorio suele ser bastante difícil. En la práctica, por regla general, se utiliza una suposición intuitiva sobre la conveniencia de reemplazar los promedios conjuntos por promedios temporales. Al analizar la mayoría de las señales en los canales de comunicación (en ausencia de efectos de impulso), es razonable suponer que las señales aleatorias son ergódicas con respecto a la función de autocorrelación. Dado que para los procesos ergódicos los promedios de tiempo son iguales a los promedios del conjunto, los parámetros eléctricos fundamentales como la amplitud de CC, el valor eficaz y la potencia promedio pueden relacionarse con los momentos del proceso aleatorio ergódico.

1. El valor es igual al componente constante de la señal.

2. El valor es igual a la potencia normalizada del componente directo.

3. Momento de segundo orden X(t), , es igual a la potencia normalizada promedio total.

4. El valor es igual al valor cuadrático medio de la señal expresada en términos de corriente o voltaje.

5. La dispersión es igual a la potencia promedio normalizada de la señal alterna.

6. Si la media del proceso es cero (es decir), entonces y la varianza es igual al valor cuadrático medio o (otra formulación) la varianza representa la potencia total en la carga normalizada.

7. La desviación estándar es el valor cuadrático medio de una señal alterna.

8. Si , entonces es el valor cuadrático medio de la señal.

1.5.4. Densidad espectral de potencia y autocorrelación de un proceso aleatorio.

Proceso aleatorio X(t) puede denominarse una señal periódica que tiene una densidad espectral de potencia como se indica en la ecuación (1.20). La función es especialmente útil en sistemas de comunicaciones porque describe la distribución de la potencia de la señal en un rango de frecuencia. La densidad espectral de potencia le permite estimar la potencia de la señal que se transmitirá a través de una red con características de frecuencia conocidas. Propiedades básicas de las funciones. densidad espectral El poder se puede formular de la siguiente manera.

1. siempre toma valores válidos

2. Para X(t), tomando valores reales

3. la autocorrelación y la densidad espectral de potencia son transformadas de Fourier entre sí

4. relación entre la potencia promedio normalizada y la densidad espectral de potencia

En la Fig. La Figura 1.6 muestra una representación visual de la función de autocorrelación y la función de densidad espectral de potencia. ¿Qué significa el término "correlación"? Cuando nos interesa la correlación de dos fenómenos, preguntamos qué tan estrechamente relacionados están en comportamiento o apariencia y en qué medida coinciden. En matemáticas, la función de autocorrelación de una señal (en el dominio del tiempo) describe la correspondencia de una señal consigo misma desplazada durante algún período de tiempo. Se considera que una copia exacta ha sido creada y localizada en menos infinito. Luego movemos secuencialmente la copia en la dirección positiva del eje de tiempo y hacer una pregunta, cómo se corresponden (la versión original y la copia) entre sí. Luego movemos la copia un paso más en la dirección positiva y preguntamos cuánto coinciden ahora, etc. La correlación entre dos señales se traza en función del tiempo, denotada; en este caso, el tiempo puede considerarse como un parámetro de exploración.

En la Fig. 1.6, anuncio La situación descrita anteriormente se describe en algunos momentos del tiempo. Arroz. 1.6, A ilustra una señal única de un proceso aleatorio ampliamente estacionario X(t). La señal es una secuencia binaria aleatoria con pulsos positivos y negativos (bipolares) de amplitud unitaria. Los impulsos positivos y negativos aparecen con igual probabilidad. La duración de cada pulso (dígito binario) es igual a t segundos, y el promedio, o el valor del componente constante de la secuencia aleatoria, es cero. En la Fig. 1.6, b Se muestra la misma secuencia, desplazada en el tiempo en segundos. De acuerdo a notación aceptada, esta secuencia se denota . Supongamos que el proceso X(t) es ergódico con respecto a la función de autocorrelación, por lo que podemos usar el promedio de tiempo en lugar del promedio de conjunto para encontrarlo. El valor se obtiene multiplicando dos secuencias. X(t) y luego encontrar el promedio usando la ecuación (1.36), que es válida para procesos ergódicos sólo en el límite. Sin embargo, la integración sobre un número entero de períodos puede darnos una estimación. Tenga en cuenta lo que se puede obtener cambiando X(t) tanto en sentido positivo como negativo. Caso similar ilustrado en la Fig. 1.6, V, en el que se utilizó la secuencia de muestra original (Fig. 1.6, A) y su copia desplazada (Fig. 1.6, b). Las áreas sombreadas bajo la curva del producto contribuyen positivamente al producto, mientras que las áreas grises contribuyen negativamente. La integración sobre el tiempo de transmisión del pulso da un punto en la curva. La secuencia puede cambiar aún más y cada uno de esos cambios producirá un punto en la función de autocorrelación general que se muestra en la Fig. 1.6, GRAMO. En otras palabras, cada secuencia aleatoria de pulsos bipolares corresponde a un punto de autocorrelación en la curva general que se muestra en la Fig. 1.6, GRAMO. El máximo de la función está en el punto (el mejor ajuste ocurre cuando , es igual a cero, ya que para todos ) y la función disminuye a medida que . En la Fig. 1.6, GRAMO Se muestran los puntos correspondientes a y.

Expresión analítica para la función de autocorrelación que se muestra en la Fig. 1.6, GRAMO, tiene la siguiente forma.

(1.37)

Tenga en cuenta que la función de autocorrelación nos proporciona información de frecuencia; nos dice algo sobre el ancho de banda de la señal. Al mismo tiempo, la autocorrelación es una función temporal; en la fórmula (1.37) no hay términos dependientes de la frecuencia. Entonces, ¿cómo nos da información sobre el ancho de banda de la señal?

Fig.1.6. Autocorrelación y densidad espectral de potencia.

Fig.1.6. Autocorrelación y densidad espectral de potencia (fin)

Supongamos que la señal se mueve muy lentamente (la señal tiene un ancho de banda pequeño). Si desplazamos una copia de la señal a lo largo del eje, preguntándonos en cada etapa del desplazamiento cuánto se corresponden la copia y el original, la correspondencia será bastante fuerte durante mucho tiempo. En otras palabras, la función de autocorrelación triangular (Fig. 1.6, GRAMO y fórmula 1.37) disminuirá lentamente al aumentar . Supongamos ahora que la señal cambia lo suficientemente rápido (es decir, tenemos un ancho de banda grande). En este caso, incluso un pequeño cambio hará que la correlación sea cero y que la función de autocorrelación tenga una forma muy estrecha. Por lo tanto, comparar funciones de autocorrelación por forma nos brinda cierta información sobre el ancho de banda de la señal. ¿La función disminuye gradualmente? En este caso tenemos una señal de banda estrecha. ¿La forma de la función se parece a un pico estrecho? Entonces la señal tiene una banda ancha.

La función de autocorrelación permite expresar explícitamente la densidad espectral de potencia de una señal aleatoria. Dado que la densidad espectral de potencia y la función de autocorrelación son transformadas de Fourier entre sí, la densidad espectral de potencia, , de una secuencia aleatoria de pulsos bipolares se puede encontrar como la transformada de Fourier de la función, expresión analítica que viene dada en la ecuación (1.37). Para esto puedes usar la mesa. A.1. Darse cuenta de

(1.38)

La vista general de la función se muestra en la Fig. 1.6, d.

Tenga en cuenta que el área bajo la curva de densidad espectral de potencia representa la potencia promedio de la señal. Una medida conveniente del ancho de banda es el ancho del lóbulo espectral principal (ver Sección 1.7.2). En la Fig. 1.6, d Se muestra que el ancho de banda de la señal está relacionado con la duración inversa del símbolo o el ancho del pulso. Arroz. 1.6, e-k repetir formalmente la Fig. 1.6, infierno, excepto que en las figuras siguientes la duración del pulso es más corta. Tenga en cuenta que para pulsos más cortos la función es más estrecha (Fig. 1.6, Y) que para los más largos (Fig. 1.6, GRAMO). En la Fig. 1.6, Y; en otras palabras, en el caso de una duración de pulso más corta, un desplazamiento de , es suficiente para crear una coincidencia nula o perder completamente la correlación entre las secuencias de desplazamiento. Dado que en la Fig. 1.6, mi duración del pulso t menos (mayor velocidad de transmisión de impulsos) que en la Fig. 1.6, A, ocupación de banda en la Fig. 1.6, - esta es la duración mayor ocupación del ancho de banda para la frecuencia de pulso más baja que se muestra en la Fig. 1.6, d.

1.5.5. Ruido en los sistemas de comunicación.

El término "ruido" se refiere a señales eléctricas no deseadas que siempre están presentes en los sistemas eléctricos. La presencia de ruido superpuesto a la señal “sombra” o enmascara la señal; esto limita la capacidad del receptor para tomar decisiones precisas sobre el significado de los símbolos y, por lo tanto, limita la velocidad a la que se puede transmitir la información. La naturaleza del ruido es diferente e incluye fuentes tanto naturales como artificiales. El ruido artificial es el ruido del encendido por chispa, el ruido de impulso de conmutación y el ruido de otras fuentes relacionadas de radiación electromagnética. Los ruidos naturales provienen de la atmósfera, el sol y otras fuentes galácticas.

Un buen diseño de ingeniería puede eliminar la mayor parte del ruido o sus efectos no deseados mediante filtrado, blindaje, selección de modulación y ubicación óptima del receptor. Por ejemplo, las mediciones sensibles de radioastronomía suelen realizarse en lugares remotos desérticos, lejos de fuentes naturales de ruido. Sin embargo, existe un ruido natural, llamado ruido térmico, que no se puede eliminar. El ruido térmico es causado por el movimiento térmico de los electrones en todos los componentes disipativos: resistencias, conductores, etc. Los mismos electrones responsables de la conductividad eléctrica son la causa del ruido térmico.

El ruido térmico puede describirse como un proceso aleatorio gaussiano con media cero. proceso gaussiano Nuevo Testamento)- Este función aleatoria, cuyo valor en un momento arbitrario en el tiempo t caracterizado estadísticamente por una función de densidad de probabilidad gaussiana:

, (1.40)

donde esta la varianza norte. La función de densidad gaussiana normalizada de un proceso de media cero se obtiene bajo el supuesto de que. La función de densidad de probabilidad normalizada se muestra esquemáticamente en la Fig. 1.7.

Aquí - señal aleatoria, A- señal en el canal de comunicación, y norte - una variable aleatoria que expresa ruido gaussiano. Entonces la función de densidad de probabilidad se expresa como

, (1.41)

donde, como arriba, es la dispersión norte.

Fig.1.7. Función de densidad de probabilidad gaussiana normalizada ()

La distribución gaussiana se utiliza a menudo como modelo para el ruido en un sistema porque existe un teorema de frontera central que establece que para muy condiciones generales distribución de probabilidad de suma j Las variables aleatorias estadísticamente independientes están sujetas a una distribución gaussiana y el tipo de funciones de distribución individuales no importa. Por lo tanto, incluso si los mecanismos de ruido individuales tienen una distribución no gaussiana, el conjunto de muchos de esos mecanismos tenderá a tener una distribución gaussiana.

1.5.5.1. ruido blanco

La principal característica espectral del ruido térmico es que su densidad espectral de potencia es la misma para todas las frecuencias de interés para la mayoría de los sistemas de comunicaciones; en otras palabras, una fuente de ruido térmico emite en todas las frecuencias con igual potencia por unidad de ancho de banda, desde un componente constante hasta una frecuencia del orden de Hz. Por lo tanto, un modelo simple de ruido térmico supone que su densidad espectral de potencia es uniforme en todas las frecuencias, como se muestra en la Fig. 1.8, A, y está escrito de la siguiente forma.

(1.42)

Aquí, se incluye un factor de 2 para mostrar que es la densidad espectral de potencia bidireccional. Cuando la potencia del ruido tiene una densidad espectral tan uniforme, lo llamamos ruido blanco. El adjetivo "blanca" se utiliza en el mismo sentido que para la luz blanca, que contiene proporciones iguales de todas las frecuencias del rango visible de radiación electromagnética.

Fig.1.8. Ruido blanco: a) densidad espectral de potencia;

b) función de autocorrelación

La función de autocorrelación del ruido blanco viene dada por la transformada inversa de Fourier de la densidad espectral de potencia del ruido (véase la Tabla A.1) y se escribe como sigue.

(1.43)

Por lo tanto, la autocorrelación del ruido blanco es una función delta ponderada por un factor y ubicada en el punto , como se muestra en la Fig. 1.8, b. Tenga en cuenta que es igual a cero para , es decir Dos muestras diferentes de ruido blanco no se correlacionan, por muy cercanas que estén.

La potencia promedio del ruido blanco es infinita porque el ancho de banda del ruido blanco es infinito. Esto se puede ver obteniendo la siguiente expresión a partir de las ecuaciones (1.19) y (1.42).

(1.44)

Aunque el ruido blanco es una abstracción muy útil, ningún proceso de ruido puede ser realmente blanco; sin embargo, el ruido que aparece en muchos sistemas reales presumiblemente puede considerarse blanco. Podemos observar ese ruido sólo después de que pasa a través de un sistema real que tiene un ancho de banda finito. Por lo tanto, siempre que el ancho de banda del ruido sea sustancialmente mayor que el ancho de banda utilizado por el sistema, se puede considerar que el ruido tiene un ancho de banda infinito.

La función delta en la ecuación (1.43) significa que la señal de ruido Nuevo Testamento) no tiene ninguna correlación con su propia versión sesgada para cualquier . La ecuación (1.43) muestra que dos muestras cualesquiera de un proceso de ruido blanco no están correlacionadas. Dado que el ruido térmico es un proceso gaussiano y sus muestras no están correlacionadas, las muestras de ruido también son independientes. Por tanto, el efecto de un canal de ruido blanco gaussiano aditivo en el proceso de detección es que el ruido afecta a cada símbolo transmitido de forma independiente. Un canal de este tipo se denomina canal sin memoria. El término "aditivo" significa que el ruido simplemente se superpone o se suma a la señal; no existen mecanismos multiplicativos.

Debido a que el ruido térmico está presente en todos los sistemas de comunicación y es una fuente importante de ruido para la mayoría de los sistemas, las características del ruido térmico (aditiva, blanca y gaussiana) a menudo se utilizan para modelar el ruido en los sistemas de comunicación. Debido a que el ruido gaussiano de media cero se caracteriza completamente por su varianza, este modelo es particularmente fácil de usar en la detección de señales y el diseño de receptores óptimos. En este libro asumiremos (a menos que se indique lo contrario) que el sistema está sujeto a distorsión por ruido blanco gaussiano aditivo con media cero, aunque a veces esta simplificación será demasiado fuerte.

1.6. Transmisión de señales mediante sistemas lineales.

Ahora que hemos desarrollado un conjunto de modelos para señales y ruido, veamos las características de los sistemas y su impacto en las señales y el ruido. Dado que un sistema se puede caracterizar igualmente bien en el dominio de la frecuencia y del tiempo, en ambos casos se han desarrollado métodos para analizar la respuesta de un sistema lineal a una señal de entrada arbitraria. La señal aplicada a la entrada del sistema (figura 1.9) se puede describir como una señal de tiempo, o mediante su transformada de Fourier,. El uso del análisis de temporización produce una salida de temporización y, en el proceso, se determinará la función, respuesta al impulso o respuesta al impulso de la red. Al considerar la entrada en el dominio de la frecuencia, debemos definir una respuesta de frecuencia, o función de transferencia, para el sistema, que determinará la salida de frecuencia. Se supone que el sistema es lineal e invariante en el tiempo. También se supone que el sistema no tiene energía oculta en el momento en que se aplica la señal de entrada.

Fig.1.9. Sistema lineal y sus parámetros clave.

1.6.1. Respuesta impulsiva

El sistema o red lineal invariante en el tiempo que se muestra en la Fig. 1.9, se describe (en el dominio del tiempo) por la respuesta al impulso, que es la respuesta del sistema cuando se aplica un solo pulso a su entrada.

Consideremos el término “respuesta impulsiva”, que es extremadamente apropiado para este evento. Describir las características de un sistema a través de su respuesta impulsiva tiene una interpretación física directa. Aplicamos un solo pulso a la entrada del sistema (una señal irreal que tiene amplitud infinita, ancho cero y área unitaria), como se muestra en la Fig. 1.10, A. La entrega de tal impulso al sistema puede considerarse como un "destello". ¿Cómo reaccionará (“responderá”) el sistema ante tal uso de fuerza (impulso)? La señal de salida es la respuesta al impulso del sistema. (Una posible forma de esta respuesta se muestra en la figura 1.10. b.)

La respuesta de la red a una señal arbitraria es una convolución con , que se escribe de la siguiente manera.

(1.46)

Fig.1.10. Ilustración del concepto de “respuesta al impulso”: a) la señal de entrada es una función de impulso unitario; b) señal de salida - respuesta impulsiva del sistema

Aquí el signo “*” indica la operación de convolución (ver sección A.5). Se supone que el sistema es causal, lo que significa que no hay señal en la salida hasta el momento en que la señal se aplica a la entrada. Por lo tanto, se puede considerar que el límite inferior de integración es cero y la producción se puede expresar de manera algo diferente.

(1.47,a)

o en la forma

(1.47,b)

Las expresiones de las ecuaciones (1.46) y (1.47) se denominan integrales de convolución. La convolución es un aparato matemático fundamental que juega papel importante en la comprensión de todos los sistemas de comunicación. Si el lector no está familiarizado con esta operación, debe consultar la sección A.5, donde se da la derivación de las ecuaciones (1.46) y (1.47).

1.6.2. Función de transferencia de frecuencia

La señal de salida de frecuencia se obtiene aplicando la transformada de Fourier a ambos lados de la ecuación (1.46). Dado que la convolución en el dominio del tiempo se convierte en multiplicación en el dominio de la frecuencia (y viceversa), obtenemos lo siguiente de la ecuación (1.46).

(Esto implica, por supuesto, que para todos.) Aquí ,La transformada de Fourier de la respuesta al impulso, llamada función de transferencia de frecuencia, respuesta de frecuencia o respuesta de frecuencia de la red. En general, la función es compleja y se puede escribir como

, (1.50)

¿Dónde está el módulo de respuesta? La fase de respuesta se define de la siguiente manera.

(1.51)

(y denota las partes real e imaginaria del argumento).

La función de transferencia de frecuencia de una red lineal invariante en el tiempo se puede medir fácilmente en condiciones de laboratorio, en una red con un generador. vibraciones armónicas en la entrada y un osciloscopio en la salida. Si la señal de entrada se expresa como

,

entonces la salida se puede escribir de la siguiente manera.

La frecuencia de entrada se desplaza al valor que nos interesa; así, las mediciones en la entrada y salida nos permiten determinar el tipo.

1.6.2.1. Procesos aleatorios y sistemas lineales.

Si un proceso aleatorio forma la entrada de un sistema lineal invariante en el tiempo, entonces a la salida de este sistema también obtendremos un proceso aleatorio. En otras palabras, cada función de muestra del proceso de entrada proporciona una función de muestra del proceso de salida. La densidad espectral de potencia de entrada y la densidad espectral de potencia de salida se relacionan de la siguiente manera.

(1.53)

La ecuación (1.53) proporciona una forma sencilla de encontrar la densidad espectral de potencia de salida de un sistema lineal invariante en el tiempo cuando se alimenta de un proceso aleatorio.

En los capítulos 3 y 4 veremos la detección de señales en ruido gaussiano. La propiedad básica de los procesos gaussianos se aplicará a un sistema lineal. Se demostrará que si un proceso gaussiano se alimenta a un filtro lineal invariante en el tiempo, entonces el proceso aleatorio que se alimenta a la salida también es gaussiano.

1.6.3. Transmisión sin distorsiones

¿Qué es necesario para que una red se comporte como un canal de transmisión ideal? La señal de salida de un canal de comunicación ideal puede ir por detrás de la señal de entrada; Además, estas señales pueden tener diferentes amplitudes (un simple cambio de escala), pero como todo lo demás, la señal no debe distorsionarse, es decir. debe tener la misma forma que la señal de entrada. Por lo tanto, para una transmisión ideal sin distorsiones, podemos describir la señal de salida como

, (1.54)

donde y son constantes. Aplicando la transformada de Fourier a ambos lados (ver sección A.3.1), tenemos lo siguiente.

(1.55)

Sustituyendo la expresión (1.55) en la ecuación (1.49), vemos que la función de transferencia requerida del sistema para transmisión sin distorsión tiene la siguiente forma.

(1.56)

Por lo tanto, para obtener una transmisión ideal sin distorsión, la respuesta general del sistema debe tener una magnitud constante y el cambio de fase debe ser lineal en frecuencia. No basta con que el sistema amplifique o atenúe todos los componentes de frecuencia por igual. Todos los armónicos de la señal deben llegar a la salida con el mismo retraso para que puedan ser sumados. Dado que el retraso está relacionado con el cambio de fase y la frecuencia cíclica mediante la relación

, (1.57,a)

Es obvio que para que el retardo de todos los componentes sea el mismo, el cambio de fase debe ser proporcional a la frecuencia. Para medir la distorsión de la señal causada por el retraso, a menudo se utiliza una característica llamada retraso de grupo; se define de la siguiente manera.

(1.57,b)

Por lo tanto, para una transmisión sin distorsión tenemos dos requisitos equivalentes: la fase debe ser lineal en frecuencia o el retardo de grupo debe ser igual a una constante. En la práctica, la señal se distorsionará a su paso por algunas partes del sistema. Para eliminar esta distorsión, se pueden introducir en el sistema circuitos de corrección (ecualización) de fase o amplitud. En general, la distorsión es una característica general de las E/S de un sistema que determina su rendimiento.

1.6.3.1. filtro ideal

Es imposible construir una red ideal descrita por la ecuación (1.56). El problema es que la ecuación (1.56) supone un ancho de banda infinito, estando determinado el ancho de banda del sistema por el intervalo de frecuencias positivas sobre las cuales el módulo tiene una magnitud determinada. (En general, existen varias medidas de ancho de banda; las más comunes se enumeran en la Sección 1.7.) Como aproximación a una red ideal con ancho de banda infinito, elegimos una red truncada que pasa sin distorsión todos los armónicos con frecuencias entre y donde está el frecuencia de corte inferior, y es la superior, como se muestra en la fig. 1.11. Todas estas redes se denominan filtros ideales. Fuera de un rango llamado banda de paso, se supone que la amplitud de respuesta de un filtro ideal es cero. El ancho de banda efectivo está determinado por el ancho de banda del filtro y es Hz.

Si y , el filtro se llama transmisor (Fig. 1.11, A). si tiene valor final, se llama filtro bajas frecuencias(Figura 1.11, b). Si y tiene un valor distinto de cero, se llama filtro de paso alto (Fig. 1.11, V).

Fig.1.11. Función de transferencia de filtros ideales: a) filtro de transmisión ideal; b) filtro de paso bajo ideal; c) filtro de paso bajo ideal

Usando la ecuación (1.59) y suponiendo un filtro de paso bajo ideal con el ancho de banda en Hz que se muestra en la Fig. 1.11, b, podemos escribir la función de transferencia de la siguiente manera.

(1.58)

La respuesta al impulso de un filtro de paso bajo ideal que se muestra en la Fig. 1.12, se expresa mediante la siguiente fórmula.

Fig.1.12. Respuesta al impulso de un filtro de paso bajo ideal

donde la función se define en la ecuación (1.39). La respuesta al impulso que se muestra en la Fig. 1.12, no es causal; esto significa que en el momento en que se aplica la señal a la entrada (), hay una respuesta distinta de cero en la salida del filtro. Por lo tanto, debería ser obvio que el filtro ideal descrito por la ecuación (1.58) no se cumple en la realidad.

Ejemplo 1.2. Pasar ruido blanco a través de un filtro ideal

Ruido blanco con densidad espectral de potencia. , como se muestra en la Figura 1.8, A, se alimenta a la entrada del filtro de paso bajo ideal que se muestra en la Fig. 1.11, b. Determine la densidad espectral de potencia y la función de autocorrelación de la señal de salida.

Solución

La función de autocorrelación es el resultado de aplicar la transformada inversa de Fourier a la densidad espectral de potencia. La función de autocorrelación está determinada por la siguiente expresión (ver Tabla A.1).

Comparando el resultado obtenido con la fórmula (1.62), vemos que tiene la misma forma que la respuesta impulsiva de un filtro de paso bajo ideal que se muestra en la Fig. 1.12. En este ejemplo, un filtro de paso bajo ideal transforma la función de autocorrelación de ruido blanco (definida mediante la función delta) en una función. Después del filtrado, ya no habrá ruido blanco en el sistema. La señal de ruido de salida tendrá correlación cero con sus propias copias compensadas solo cuando esté compensada por , donde es cualquier número entero distinto de cero.

1.6.3.2. Filtros implementables

El filtro de paso bajo implementable más simple consta de una resistencia (R) y una capacitancia (C), como se muestra en la figura. 1.13, A; este filtro se llama filtro RC y su función de transferencia se puede expresar de la siguiente manera.

, (1.63)

Dónde . La característica de amplitud y la característica de fase se muestran en la Fig. 1.13, b, V. El ancho de banda del filtro de paso bajo se determina en el punto de media potencia; este punto representa la frecuencia a la que la potencia de la señal de salida es igual a la mitad del valor máximo, o la frecuencia a la que la amplitud del voltaje de salida es igual al valor máximo.

En general, el punto de media potencia se expresa en decibeles (dB) como el punto -3 dB, o el punto 3 dB por debajo del valor máximo. Por definición, el valor en decibelios está determinado por la relación de potencias y.

(1.64,a)

Aquí y son voltajes y y son resistencias. En los sistemas de comunicación, la potencia nominal se utiliza normalmente para el análisis; en este caso, las resistencias se consideran iguales a 1 ohmio, entonces

Fig.1.13. Filtro RC y su función de transferencia: a) Filtro RC; b) respuesta de amplitud del filtro RC; c) respuesta de fase del filtro RC

(1.64,b)

La respuesta de amplitud se puede expresar en decibelios como

, (1,64, pulgadas)

donde y son los voltajes en la entrada y la salida, y se supone que las resistencias en la entrada y la salida son iguales.

A partir de la ecuación (1.63), es fácil verificar que el punto medio de potencia de un filtro de paso bajo RC es rad/s o Hz. Por tanto, el ancho de banda en hercios es. El factor de forma del filtro es una medida de qué tan bien se aproxima un filtro real a uno ideal. Generalmente se define como la relación entre los anchos de banda de los filtros de -60 dB y -6 dB. Se puede obtener un factor de forma bastante pequeño (alrededor de 2) en un filtro de transmisión con un corte muy pronunciado. A modo de comparación, el factor de forma de un filtro de paso bajo RC simple es de alrededor de 600.

Existen varias aproximaciones útiles a las características de un filtro de paso bajo ideal. Uno de ellos lo proporciona el filtro Butterworth, que se aproxima a un filtro de paso bajo ideal mediante la función

, (1.65)

donde es la frecuencia de corte superior (-3 dB) y es el orden del filtro. Cuanto mayor sea el orden, mayor será la complejidad y el costo de implementar el filtro. En la Fig. La Figura 1.14 muestra gráficos de amplitud para varios valores. Tenga en cuenta que a medida que crece, las características de amplitud se acercan a las de un filtro ideal. Los filtros Butterworth son populares porque son la mejor aproximación al caso ideal en términos de maximizar la planitud de la banda de paso del filtro.

deja la señal s(t) se especifica como una función no periódica y existe solo en el intervalo ( t 1 ,t 2) (ejemplo: pulso único). Elijamos un período de tiempo arbitrario. t, incluido el intervalo ( t 1 ,t 2) (ver Fig. 1).

Denotemos la señal periódica obtenida de s(t), como ( t). Entonces podemos escribir la serie de Fourier para ello.

Para ir a la función s(t) sigue en la expresión ( t) dirige el período al infinito. En este caso, el número de componentes armónicos con frecuencias. w=norte 2pag/t será infinitamente grande, la distancia entre ellos tenderá a cero (a un valor infinitesimal:

las amplitudes de los componentes también serán infinitesimales. Por lo tanto, ya no es posible hablar del espectro de dicha señal, ya que el espectro se vuelve continuo.

La integral interna es función de la frecuencia. Se llama densidad espectral de la señal o respuesta de frecuencia de la señal y se designa, es decir,

Por generalidad, los límites de integración se pueden establecer en infinito, ya que es lo mismo donde s(t) es igual a cero y la integral es igual a cero.

La expresión de la densidad espectral se llama transformada directa de Fourier. La transformada inversa de Fourier determina la función temporal de una señal a partir de su densidad espectral

Las transformadas de Fourier directa (*) e inversa (**) se denominan juntas un par de transformadas de Fourier. Módulo de densidad espectral

Determina la respuesta amplitud-frecuencia (AFC) de la señal y su argumento. llamada respuesta de frecuencia de fase (PFC) de la señal. La respuesta de frecuencia de la señal es una función par y la respuesta de fase es impar.

El significado del módulo. S(w) se define como la amplitud de una señal (corriente o voltaje) por 1 Hz en una banda de frecuencia infinitamente estrecha que incluye la frecuencia en cuestión w. Su dimensión es [señal/frecuencia].

Espectro de energía de la señal. Si la función s(t) tiene una densidad de potencia de señal de Fourier ( densidad espectral de energía de señal) está determinada por la expresión:

w(t) = s(t)s*(t) = |s(t)|2  |S()|2 = S()S*() = W(). (5.2.9)

El espectro de potencia es una función par no negativa real W(), que generalmente se denomina espectro de energía. El espectro de potencia, como cuadrado del módulo de densidad espectral de la señal, no contiene información de fase sobre sus componentes de frecuencia y, por lo tanto, la reconstrucción de la señal a partir del espectro de potencia es imposible. Esto también significa que señales con diferentes características de fase pueden tener el mismo espectro de potencia. En particular, el cambio de señal no se refleja en su espectro de potencia. Esto último nos permite obtener una expresión para el espectro de energía directamente a partir de las expresiones (5.2.7). En el límite, para señales idénticas u(t) y v(t) con un desplazamiento t 0, la parte imaginaria del espectro Wuv () tiende a valores cero y la parte real tiende a los valores del módulo espectral. . Con combinación temporal completa de señales tenemos:

aquellos. la energía de la señal es igual a la integral del módulo al cuadrado de su espectro de frecuencia, la suma de la energía de sus componentes de frecuencia, y siempre es un valor real.

Para una señal arbitraria s(t) la igualdad

Generalmente se llama igualdad de Parseval (en matemáticas, el teorema de Plancherel, en física, la fórmula de Rayleigh). La igualdad es obvia, ya que las representaciones de coordenadas y frecuencia son esencialmente representaciones matemáticas diferentes de la misma señal. Lo mismo ocurre con la energía de interacción de dos señales:

De la igualdad de Parseval se deduce que el producto escalar de las señales y la norma con respecto a la transformada de Fourier es invariante:

En una serie de problemas puramente prácticos de grabación y transmisión de señales, el espectro de energía de la señal es muy importante. Las señales periódicas se traducen a la región espectral en forma de series de Fourier. Escribamos una señal periódica con período T en forma de serie de Fourier en forma compleja:

El intervalo 0-T contiene un número entero de períodos de todos los exponentes del integrando y es igual a cero, con la excepción del exponencial en k = -m, para el cual la integral es igual a T. En consecuencia, la potencia promedio de a La señal periódica es igual a la suma de los módulos cuadrados de los coeficientes de su serie de Fourier:

Espectro de energía de la señal. – esta es la distribución de la energía de las señales básicas que componen la señal no armónica en el eje de frecuencia. Matemáticamente, el espectro de energía de la señal es igual al cuadrado del módulo de la función espectral:

En consecuencia, la amplitud espectro de frecuencia muestra el conjunto de amplitudes de las componentes de las señales básicas en el eje de frecuencia, y la fase-frecuencia muestra el conjunto de fases

El módulo de la función espectral a menudo se llama espectro de amplitud, y su argumento es espectro de fase.

Además, existe una transformada de Fourier inversa que permite restaurar la señal original, conociendo su función espectral:

Por ejemplo, tomemos un impulso rectangular:

Otro ejemplo de espectros:

Frecuencia de Nyquist, teorema de Kotelnikov .

Frecuencia de Nyquist - en el procesamiento de señales digitales, una frecuencia igual a la mitad de la frecuencia de muestreo. El nombre de Harry Nyquist. Del teorema de Kotelnikov se deduce que al muestrear una señal analógica, no habrá pérdida de información solo si el espectro (densidad espectral) de la señal es igual o menor que la frecuencia de Nyquist. De lo contrario, al restaurar una señal analógica, se superpondrán las "colas" espectrales (sustitución de frecuencia, enmascaramiento de frecuencia) y la forma de la señal restaurada se distorsionará. Si el espectro de la señal no tiene componentes por encima de la frecuencia de Nyquist, entonces (teóricamente) se puede muestrear y luego reconstruir sin distorsión. De hecho, la "digitalización" de una señal (conversión de una señal analógica en digital) está asociada con la cuantificación de muestras: cada muestra se escribe en forma de un código digital de profundidad de bits finita, como resultado de lo cual Se añaden errores de cuantificación (redondeo) a las muestras, bajo ciertas condiciones consideradas como “ruido de cuantificación”.

Las señales reales de duración finita siempre tienen un espectro infinitamente amplio, que disminuye más o menos rápidamente al aumentar la frecuencia. Por lo tanto, el muestreo de señales siempre conduce a una pérdida de información (distorsión de la forma de la señal durante el muestreo y la reconstrucción), sin importar cuán alta sea la frecuencia de muestreo. A la frecuencia de muestreo elegida, la distorsión se puede reducir suprimiendo los componentes espectrales de la señal analógica (antes del muestreo) que se encuentran por encima de la frecuencia de Nyquist, lo que requiere un filtro muy alto. alto orden para evitar "colas" superpuestas. Implementación práctica Un filtro de este tipo es muy complejo, ya que las características de amplitud-frecuencia de los filtros no son rectangulares, sino suaves, y se forma una determinada banda de frecuencia de transición entre la banda de paso y la banda de supresión. Por tanto, la frecuencia de muestreo se elige con margen, por ejemplo, en los CD de audio se utiliza una frecuencia de muestreo de 44.100 Hz, mientras que se considera que la frecuencia más alta en el espectro de señales de audio es de 20.000 Hz. El margen de frecuencia de Nyquist de 44100 / 2 - 20000 = 2050 Hz le permite evitar la sustitución de frecuencia cuando utiliza el filtro de orden bajo implementado.

Teorema de Kotelnikov

Para restaurar la señal continua original a partir de una muestreada con pequeñas distorsiones (errores), es necesario seleccionar racionalmente el paso de muestreo. Por lo tanto, al convertir una señal analógica en una discreta, necesariamente surge la pregunta sobre el tamaño del paso de muestreo. Intuitivamente, no es difícil entender la siguiente idea. Si una señal analógica tiene un espectro de baja frecuencia limitado por una cierta frecuencia superior Fe (es decir, la función u(t) tiene la forma de una curva que varía suavemente, sin cambios bruscos de amplitud), entonces es poco probable que esta función pueda cambian significativamente durante un pequeño intervalo de tiempo de muestreo. Es bastante obvio que la precisión de reconstruir una señal analógica a partir de la secuencia de sus muestras depende del tamaño del intervalo de muestreo. Cuanto más corto sea, menos diferirá la función u(t) de una curva suave que pasa a través de la muestra. puntos. Sin embargo, a medida que disminuye el intervalo de muestreo, la complejidad y el volumen del equipo de procesamiento aumentan significativamente. Si el intervalo de muestreo es lo suficientemente grande, aumenta la probabilidad de distorsión o pérdida de información al reconstruir una señal analógica. El valor óptimo del intervalo de muestreo lo establece el teorema de Kotelnikov (otros nombres son teorema de muestreo, teorema de K. Shannon, teorema de X. Nyquist: el teorema fue descubierto por primera vez en matemáticas por O. Cauchy y luego descrito nuevamente por D. Carson y R. Hartley), demostrado por él en 1933, el teorema de V. A. Kotelnikov tiene un importante significado teórico y práctico: permite muestrear correctamente una señal analógica y determina la forma óptima de restaurarla en el extremo receptor a partir de los valores de muestra.

Según una de las interpretaciones más famosas y sencillas del teorema de Kotelnikov, una señal arbitraria u(t), cuyo espectro está limitado por una determinada frecuencia Fe, puede reconstruirse completamente a partir de la secuencia de sus valores de referencia, siguiendo con un tiempo intervalo

El intervalo de muestreo y la frecuencia Fe(1) en ingeniería de radio a menudo se denominan intervalo y frecuencia de Nyquist, respectivamente. Analíticamente, el teorema de Kotelnikov se presenta junto a

donde k es el número de muestra; - valor de la señal en puntos de referencia - frecuencia superior del espectro de la señal.

Representación de frecuencia de señales discretas. .

La mayoría de las señales se pueden representar como una serie de Fourier:

Deje que el intervalo de descomposición de la señal (ver Fig. 2.1) tienda al infinito. Cuando aumenta, frecuencia = 2 p/t disminuye a un valor infinitesimal:

En este caso, la distancia entre los componentes espectrales disminuye a un valor infinitesimal y los valores se convierten en los valores actuales de frecuencia с (ver Fig. 2.2). El intervalo de descomposición tiende a un valor infinito. ¡Esto permite, al calcular el límite de la serie de Fourier en forma compleja, reemplazar el signo de la suma por el signo de la integral, la frecuencia fundamental O)! = 2p/t - por?/co, y un múltiplo de la frecuencia k(o ( reemplazar con la frecuencia actual con:

La integral, que está escrita entre paréntesis de la expresión (2.13), se denota por

Entonces la expresión (2.13) se escribirá de forma más compacta:

Las expresiones (2.14) y (2.15) se llaman respectivamente directo Y transformadas inversas de Fourier. Se llama a la función 5(/co)

densidad espectral. Es complejo y tiene la dimensión [V/Hz], si la dimensión de la señal arriba)[EN].

La transformada de Fourier (2.14) se puede calcular basándose en las reglas generales de integración si la señal satisface la condición de integrabilidad absoluta:

Esta condición significa que existe la transformación (2.14) para aquellas señales cuyo área bajo la curva |m(?)| que es limitado.

Esta clase no incluye, por ejemplo, señales periódicas que no satisfacen la condición de integrabilidad absoluta. Sin embargo, esto no significa que para señales periódicas no se pueda calcular la densidad espectral. Los métodos informáticos desarrollados específicamente para estos fines utilizan las llamadas funciones generalizadas. Un ejemplo de función generalizada es la función delta. Algunas propiedades de la función delta se dan en el Apéndice 1.

Transformemos la densidad espectral de señales que satisfacen la condición de integrabilidad absoluta. Estas señales están limitadas en el tiempo.

Teniendo en cuenta la fórmula de Euler, reescribimos la expresión (2.14): Dónde

Módulo |5(/co)| llamado densidad espectral de amplitudes de señal o respuesta amplitud-frecuencia

(Respuesta de frecuencia) Densidad espectral de la señal. La función ср(о) determina la característica de frecuencia de fase (PFC) de la densidad espectral de la señal. La respuesta de frecuencia y la respuesta de fase de la densidad espectral son funciones continuas de la frecuencia.

Procedamos al análisis de la densidad espectral de señales que no satisfacen la condición de integrabilidad absoluta. Estas señales no están limitadas en el tiempo y tienen una energía infinitamente grande.

A partir de la señal Ts)(?), satisfaciendo la condición de integrabilidad absoluta, construiremos una señal que se repite periódicamente

y calcular su densidad espectral:
Dónde

La dimensión de la densidad espectral de una señal que se repite periódicamente está determinada por la dimensión de la densidad espectral de la señal no periódica a partir de la cual se forma la señal que se repite periódicamente, es decir [V/Hz].

El primer factor de la expresión resultante en igualdad (2.16) determina la densidad espectral de una señal de tiempo limitado y 0 (?), el segundo, la densidad espectral de una función delta que se repite periódicamente

Comprobemos esto calculando la densidad indicada:

Al calcular la integral, se utilizó la propiedad de filtrado de la función delta (ver Apéndice 1).

Si la función delta que se repite periódicamente se expande en una serie de Fourier en forma compleja, entonces toda la densidad espectral se puede expresar de manera diferente:

Al derivar la última fórmula, se utilizó la expresión de la función delta en el dominio de la frecuencia. Igualando las expresiones de densidades espectrales, obtenemos

Esta función es igual a cero siFk(x)by es igual si co =k(o ( .Sustituyamos la nueva expresión 5 φ (/co) en (2.16):

Densidad espectral de una señal que se repite periódicamente. está determinada por los valores de la densidad espectral de la señal de tiempo limitado r/ 0 (?), contados a través de un intervalo igual a ω^ = 2π /T.

Calculemos el valor de la densidad espectral limitada por un período de tiempo. t señal:

Multiplica los lados izquierdo y derecho de la igualdad por un factor de 2 /T:

donde a(/&a>1) es el espectro de una señal de tiempo limitado en función de funciones exponenciales.

Teniendo en cuenta la última fórmula, escribimos la densidad espectral de una señal que se repite periódicamente en la forma

donde el módulo espectral se determina en base a funciones exponenciales mediante la fórmula (2.9) y el espectro de fase mediante la fórmula (2.10).

Los valores de la respuesta en frecuencia y la respuesta en fase de la densidad espectral de una señal de tiempo limitado g/o(0>, contados a lo largo del intervalo (u = 2 p/t en puntos en el eje de frecuencia ksch, k = 0, ±1, ±2,..., determinan la respuesta en frecuencia y la respuesta en fase de la densidad espectral de esta señal periódica.

Consideremos algunas propiedades de la densidad espectral de la señal que satisfacen la condición de integrabilidad absoluta.

  • 1. La densidad espectral (2.14) es una función compleja y continua de la frecuencia ñ, definida en un rango de frecuencia infinito.
  • 2. La respuesta de frecuencia y la respuesta de fase de la densidad espectral satisfacen las ecuaciones

¿Dónde está +(l)? - valores de frecuencia seleccionados.

3. Las transformadas de Fourier (2.14), (2.15) son transformaciones lineales. Por tanto, la densidad espectral de la suma de señales es igual a la suma de las densidades espectrales de estas señales, y la suma de las señales está determinada por la transformada inversa de Fourier de la suma de sus densidades espectrales:


Dónde Uj(t) -i- ésima señal; b'/O"oz) es la densidad espectral de la i-ésima señal.

4. La densidad espectral de la señal, limitada a intervalos infinitesimales 2lA/(Fig. 2.3) cerca, por ejemplo, de las frecuencias -co 0, co (), determina una señal armónica con una amplitud infinitesimal.

Verifiquemos esto considerando que debido a la pequeñez de A/, los valores de la densidad espectral cerca de las frecuencias th (), (n () son iguales, respectivamente S (-jco 0) = |A(70) 0)| _ - /

Arroz. 2.3.

Como la densidad espectral permanece constante en intervalos infinitamente pequeños, podemos sacar el signo de las integrales de las expresiones |50"с 0)|е;ф(10о) y |50"м 0)|е - - ,ф(а )о):

Como se desprende de la fórmula obtenida, la amplitud de la señal recibida está determinada por el valor de la densidad espectral, la función (bshl -)/^ y un rango de frecuencia muy pequeño A/. Como D/ tiende a cero, la función (81 píxeles)/x tiende a la unidad y la amplitud se vuelve igual a cero.

5. Si todos los componentes de la densidad espectral de una señal de tiempo limitado están desfasados ​​en +(l)?o>, entonces esta señal se desplaza en el tiempo en +? 0. En realidad:

6. Al transmitir una señal de tiempo limitado a través de un cuadrupolo lineal, cuya respuesta de frecuencia en la banda de paso es igual a valor constante K 0, y la característica de fase ср(о) = = -а)? 0 > la forma de esta señal permanece sin cambios, pero la señal se retrasa en el tiempo por la cantidad? 0:

Solución. ¿Densidad espectral de una persona detenida por tiempo? 0 pulso es igual a

donde m(?) es el impulso, que se ubica en el origen;

Los cálculos dan el siguiente resultado:

Escribamos esta densidad en la forma Dónde

La última expresión determina la densidad espectral de la señal. Y(?). En el rango de frecuencia, la densidad espectral es valor positivo, d(co) = = 1. Por lo tanto, en este rango, la característica de fase f(co) = 0, ya que (o)) = = co8ph(co) + ^ s1n sr(co).

En el rango de frecuencia, la densidad espectral es un valor negativo. La característica de fase en este rango es igual a cp(co) = i, ya que

La respuesta de frecuencia de la densidad espectral del pulso retardado coincide con la respuesta de frecuencia de la densidad espectral de la señal "(?), y la respuesta de fase está determinada por la expresión

La densidad espectral de un pulso rectangular r/(?), la respuesta de frecuencia y la respuesta de fase de esta densidad se muestran en la Fig. 2.4.

Arroz. 2.4.

Ejemplo 2.3. Calcular la densidad espectral de la señal codificada.

Dónde ak - elementos de palabra de código iguales a -1 o 1, es decir = +1, y 0 (0 es un pulso rectangular con amplitud A y duración t y.

Solución. Apliquemos la fórmula (2.14):

Después de cambiar la variable , obtenemos

Ejemplo 2.4. Calcule la densidad espectral de una señal periódica escrita como una serie de Fourier en forma trigonométrica[cm. fórmula (2.11)]. Escriba las expresiones para la respuesta de frecuencia y la respuesta de fase de los componentes constante, seno y coseno de esta serie.

Solución. Las funciones que definen la fórmula (2.11) son periódicas, a excepción de la componente constante. Aproximamos este componente mediante una función coseno periódica con una frecuencia que tiende a cero:

Calculemos la densidad espectral de una señal periódica. Utah) = = un ajuste perfecto, escribiéndolo en la forma

sch(():

El valor del primer término entre paréntesis de la expresión es igual a 1 si co = -Q, e igual a 0 para otros valores de frecuencia discreta co = kfl,k= 0, 1, ±2, ±3, ±4, .... El valor del segundo término es 1 si co = Q, y es igual a 0 para otros valores de frecuencia discreta a = kQ,k= 0, -1, ±2, ±3, ±4, .... Teniendo esto en cuenta, encontraremos la densidad espectral, respuesta en frecuencia y respuesta de fase de la densidad espectral de la señal periódica Utah) = a porque Q?:

Los valores de la respuesta de frecuencia de la densidad espectral en los puntos del eje de frecuencia с = +?2 son iguales naT/(2n) = aT/2.

Los valores de la respuesta de fase característica de la densidad espectral de la señal armónica en puntos del eje de frecuencia co = son iguales a 0.

Usando la fórmula para la densidad espectral de una señal coseno, puedes encontrar la densidad espectral del componente constante:

La respuesta de frecuencia de la densidad espectral del componente constante está determinada por el valor

Calcular la densidad espectral de una onda sinusoidal es similar a calcular la densidad espectral de una señal coseno.

Grabemos una señal periódica. Utah)= bsenQ? como

Dónde

Densidad espectral de señal y 0 (O:

Usando la expresión encontrada, encontramos la densidad espectral de la señal periódica. Utah) = b pecado Q t:

Respuesta de frecuencia de la densidad espectral de esta señal en puntos del eje de frecuencia с = +П:

Los valores de las características de respuesta de fase de la densidad espectral de la señal en los puntos del eje de frecuencia co = +P son iguales a -i/2, PAG/ 2.

Las fórmulas resultantes para las densidades espectrales de señales armónicas nos permiten encontrar la densidad espectral de la suma de estas señales:

Dónde - módulo de espectro, igual a la amplitud armónico

señal; φ(P) = -ecL%(b/a)- valor de fase del espectro igual a fase inicial esta señal.

La serie de Fourier en forma trigonométrica (2.11) contiene un número infinitamente grande de sumas de señales armónicas:

La densidad espectral de esta suma se encuentra a partir de la última expresión de la densidad espectral reemplazando P = co)^. Usando esta fórmula y la fórmula para la densidad espectral de la componente constante, obtenemos una expresión para la densidad espectral de la señal escrita como una serie de Fourier en forma trigonométrica:

Dónde - módulo de espectro; f^o^) = - valor de fase del espectro igual al valor de la fase inicial de la señal armónica.

Para la secuencia periódica de pulsos que se muestra en la Fig. 2.1,

Densidad espectral


La densidad espectral calculada es modelo matemático un pulso de video que se repite periódicamente de forma rectangular en el dominio de la frecuencia. El gráfico de densidad espectral se muestra en la Fig. 2.5. Las funciones delta en esta figura se representan convencionalmente mediante flechas.


Arroz. 2.5.

impulsos

El gráfico contiene información sobre la componente constante y las señales armónicas incluidas en la serie de Fourier en forma trigonométrica.

Ejemplo 2.5. Según la densidad espectral, cuya forma se muestra en la Fig. 2.6, calcule la expresión para la señal “(?)

Arroz. 2.6.

Solución. La densidad espectral de la señal está limitada a valores de frecuencia iguales a -со в, с в. Busquemos una señal.

Al estudiar sistemas de control automático, conviene utilizar otra característica de un proceso aleatorio estacionario, denominada densidad espectral. En muchos casos, especialmente cuando se estudia la transformación de procesos aleatorios estacionarios. sistemas lineales control, la densidad espectral resulta ser una característica más conveniente que la función de correlación. La densidad espectral de un proceso aleatorio se define como la transformada de Fourier de la función de correlación, es decir

Si utilizamos la fórmula de Euler, entonces (9.52) se puede representar como

Como la función es impar, en la última expresión la segunda integral es igual a cero. Teniendo en cuenta que la función es par, obtenemos

Dado que de (9.53) se sigue que

Por tanto, la densidad espectral es una función real y par de la frecuencia o). Por lo tanto, en el gráfico, la densidad espectral siempre es simétrica con respecto al eje de ordenadas.

Si se conoce la densidad espectral, utilizando la fórmula de la transformada inversa de Fourier se puede encontrar la función de correlación correspondiente:

Usando (9.55) y (9.38), podemos establecer una relación importante entre la dispersión y la densidad espectral de un proceso aleatorio:

El término "densidad espectral" debe su origen a la teoría de las oscilaciones eléctricas. El significado físico de la densidad espectral se puede explicar de la siguiente manera.

Sea el voltaje aplicado a una resistencia óhmica de 1 ohmio, entonces la potencia promedio disipada a través de esta resistencia a lo largo del tiempo es igual a

Si aumentamos el intervalo de observación hasta límites infinitos y utilizamos (9.30), (9.38) y (9.55), entonces podemos escribir la fórmula para la potencia promedio de la siguiente manera:

La igualdad (9.57) muestra que la potencia promedio de la señal se puede representar como una suma infinita de términos infinitesimales, que se extiende a todas las frecuencias de 0 a

Cada término elemental de esta suma juega el papel de potencia correspondiente a una porción infinitesimal del espectro, contenida en el rango de a. Cada potencia elemental es proporcional al valor de la función para una frecuencia determinada. La densidad es que caracteriza la distribución de la potencia de la señal en el espectro de frecuencias.

La densidad espectral se puede encontrar experimentalmente a través de valor promedio el cuadrado de la amplitud armónica de la implementación de un proceso aleatorio. Los instrumentos utilizados para este fin y que constan de un analizador de espectro y una calculadora del valor medio de la amplitud armónica al cuadrado se denominan espectrómetros. Es más difícil encontrar experimentalmente la densidad espectral que la función de correlación; por lo tanto, en la práctica, la densidad espectral se calcula con mayor frecuencia utilizando una función de correlación conocida mediante la fórmula (9.52) o (9.53).

La densidad espectral mutua de dos procesos aleatorios estacionarios se define como la transformada de Fourier de la función de correlación cruzada, es decir

Usando la densidad espectral mutua, aplicando la transformada de Fourier inversa a (9.58), podemos encontrar una expresión para la función de correlación cruzada:

La densidad espectral cruzada es una medida de la relación estadística entre dos procesos aleatorios estacionarios: si los procesos no están correlacionados y tienen igual a cero valores promedio, entonces la densidad espectral mutua es cero, es decir

A diferencia de la densidad espectral, la densidad espectral cruzada no es una función par de o y no es una función real, sino compleja.

Consideremos algunas propiedades de las densidades espectrales.

1 La densidad espectral de un proceso aleatorio puro, o ruido blanco, es constante en todo el rango de frecuencia (ver Fig. 9.5, d):

De hecho, sustituyendo la expresión (9.47) por la función de correlación de ruido blanco en (9.52), obtenemos

La constancia de la densidad espectral del ruido blanco en todo el rango de frecuencia infinito, obtenida en la última expresión, significa que la energía del ruido blanco se distribuye uniformemente en todo el espectro y la energía total del proceso es igual al infinito. Esto indica la imposibilidad física de un proceso aleatorio como el ruido blanco. El ruido blanco es una idealización matemática de un proceso real. De hecho, el espectro de frecuencias disminuye a frecuencias muy altas (como lo muestra la línea de puntos en la Fig. 9.5, d). Sin embargo, si estas frecuencias son tan altas que no desempeñan ningún papel al considerar ningún dispositivo en particular (porque se encuentran fuera de la banda de frecuencia transmitida por este dispositivo), entonces idealizar la señal en forma de ruido blanco simplifica la consideración y es por lo tanto bastante apropiado.

El origen del término "ruido blanco" se explica por la analogía de dicho proceso con la luz blanca, que tiene la misma intensidad en todos sus componentes, y por el hecho de que los procesos aleatorios como el ruido blanco se identificaron por primera vez en el estudio de la radiación térmica. Ruido de fluctuación en dispositivos de ingeniería de radio.

2. La densidad espectral de una señal constante es una función ubicada en el origen de las coordenadas (ver Fig. 9.5, a), es decir

Para demostrar esto, supongamos que la densidad espectral tiene la forma (9.62) y de (9.55) la función de correlación correspondiente. Porque

entonces cuando lleguemos

Esto (de acuerdo con la propiedad 5 de las funciones de correlación) significa que la señal correspondiente a la densidad espectral definida por (9.62) es una señal constante igual a

El hecho de que la densidad espectral sea función de significa que toda la potencia de la señal de CC se concentra en frecuencia cero, como sería de esperar.

3. La densidad espectral de una señal periódica representa dos funciones ubicadas simétricamente con respecto al origen de las coordenadas en (ver Fig. 9.5, e), es decir

Para probar esto, supongamos que la densidad espectral tiene la forma (9.63), y usando (9.55) encontramos la función de correlación correspondiente:

Esto (de acuerdo con la propiedad de 6 funciones de correlación) significa que la señal correspondiente a la densidad espectral determinada por (9.63) es una señal periódica igual a

El hecho de que la densidad espectral represente dos funciones ubicadas en significa que toda la potencia de la señal periódica se concentra en dos frecuencias: si consideramos la densidad espectral solo en la región de frecuencias positivas, obtenemos,

que toda la potencia de una señal periódica se concentrará en una frecuencia.

4. Con base en lo anterior, la densidad espectral de la función de tiempo expandida en una serie de Fourier tiene la forma

Esta densidad espectral corresponde a espectro de líneas(Fig. 9.9) con funciones ubicadas en frecuencias armónicas positivas y negativas. En la Fig. 9.9 Las funciones se representan convencionalmente de tal manera que sus alturas se muestran proporcionales a los coeficientes de la función unitaria, es decir, los valores y

lo cual coincide completamente con la función de correlación determinada por (9.45).

De la Fig. 9.5, b, c está claro que cuanto más amplio sea el gráfico de densidad espectral, más estrecho será el gráfico de la función de correlación correspondiente y viceversa. Esto corresponde a la esencia física del proceso: cuanto más amplio sea el gráfico de densidad espectral, es decir, cuanto más altas sean las frecuencias representadas en la densidad espectral, mayor será el grado de variabilidad del proceso aleatorio y los mismos gráficos de la función de correlación. En otras palabras, la relación entre el tipo de densidad espectral y el tipo de función de tiempo es inversa en comparación con la relación entre la función de correlación y el tipo de función de tiempo. Esto es especialmente cierto cuando se considera una señal constante y ruido blanco. En el primer caso, la función de correlación tiene la forma de una línea recta horizontal y la densidad espectral tiene la forma de una función (ver Fig. 9.5, a). En el segundo caso (ver Fig. 9.5, d) ocurre lo contrario.

6. La densidad espectral de un proceso aleatorio, al que se superponen componentes periódicos, contiene una parte continua y funciones separadas correspondientes a las frecuencias de los componentes periódicos.

Los picos individuales en el gráfico de densidad espectral indican que el proceso aleatorio se mezcla con componentes periódicos ocultos que pueden no detectarse a primera vista en los registros individuales del proceso. Si, por ejemplo, se superpone una señal periódica con frecuencia a un proceso aleatorio, entonces el gráfico; La densidad espectral tiene la forma que se muestra en la Fig. 9.10,

A veces se introduce en consideración un estándar normalizado.

densidad espectral que es la imagen de Fourier de la función de correlación normalizada (9.48):

La densidad espectral normalizada tiene la dimensión del tiempo.

La densidad espectral y la señal están relacionadas entre sí mediante un par de transformadas de Fourier:

Todas las propiedades de la densidad espectral se combinan en los teoremas básicos sobre los espectros.

I. Propiedad de linealidad.

Si hay un determinado conjunto de señales y,..., entonces la suma ponderada de las señales se transforma en Fourier de la siguiente manera:

Aquí hay coeficientes numéricos arbitrarios.

II. Teorema de cambio.

Supongamos que la señal tiene una correspondencia conocida. Consideremos la misma señal, pero que ocurre segundos después. Tomando el punto como el nuevo comienzo de los tiempos, denotamos esta señal desplazada como. Introduzcamos un cambio de variable: . Entonces,


El módulo de un número complejo es igual a 1 para cualquier valor, por lo que las amplitudes de los componentes armónicos elementales que componen la señal no dependen de su posición en el eje del tiempo. La información sobre esta característica de la señal está contenida en el espectro de fase.

III. Teorema de escala.

Supongamos que la señal original está sujeta a un cambio de escala de tiempo. Esto significa que el papel del tiempo lo desempeña una nueva variable independiente (- algunos Número Real.) Si > 1, entonces se produce “compresión” de la señal original; si 0<<1, то сигнал “растягивается” во времени. Если, то:

Reemplacemos la variable, luego queda:

Cuando una señal se comprime en un factor de uno en el eje del tiempo, su espectro en el eje de la frecuencia se expande en la misma cantidad. En este caso, el módulo de densidad espectral disminuye en un factor.

Obviamente, cuando la señal se alarga en el tiempo (es decir, cuando<1) имеет место сужение спектра и увеличение модуля спектральной плотности.

IV. Teorema sobre el espectro de la derivada y la integral indefinida.

Dejemos que se dé la señal y su plano espectral. Estudiaremos una nueva señal y nos fijaremos el objetivo de encontrar su densidad espectral.

Priorato A:

La transformada de Fourier es una operación lineal, lo que significa que la igualdad (2.3) también es válida para densidades espectrales. Usando el teorema del desplazamiento obtenemos:

Representando la función exponencial como una serie de Taylor:

Sustituyendo esta serie en (2.6) y limitándonos a los dos primeros términos de la serie, encontramos

Entonces, diferenciar una señal con respecto al tiempo equivale a una simple operación algebraica de multiplicar la densidad espectral por un factor. Por tanto, se dice que el número imaginario es un operador de diferenciación que opera en el dominio de la frecuencia.

Segunda parte del teorema. La función considerada es una integral indefinida con respecto a la función. Esta integral existe, lo que significa su densidad espectral, y según la fórmula (2.7) es igual a:

Por tanto, el multiplicador sirve como operador de integración en el dominio de la frecuencia.

V. Teorema de convolución.

Al sumar señales, se suman sus espectros. Sin embargo, el espectro del producto de señales no es igual al producto de los espectros, sino que se expresa mediante alguna relación integral especial entre los espectros de los factores.

Sean y dos señales cuyas correspondencias se conocen. Formemos el producto de estas señales: y calculemos su densidad espectral. Como regla general:

Aplicando la transformada inversa de Fourier, expresamos la señal en términos de su densidad espectral y sustituimos el resultado en (2.9):

Cambiando el orden de integración, tenemos:

La integral del lado derecho se llama manojo funciones y. Simbólicamente, la operación de convolución se denota como *

Así, la densidad espectral del producto de dos señales, hasta un factor numérico constante, es igual a la convolución de las densidades espectrales de los factores.



¿Te gustó el artículo? ¡Compartir con tus amigos!