Qu'est-ce que la densité d'intensité spectrale. Densité spectrale de puissance d'un signal déterministe

La densité spectrale et le signal sont liés l'un à l'autre par une paire de transformées de Fourier :

Toutes les propriétés densité spectrale sont combinés dans les principaux théorèmes sur les spectres.

I. Propriété de linéarité.

S'il existe un certain ensemble de signaux et,..., alors la somme pondérée des signaux est transformée de Fourier comme suit :

Voici des coefficients numériques arbitraires.

II. Théorème de décalage.

Supposons que le signal ait une correspondance connue. Considérons le même signal, mais survenant quelques secondes plus tard. En prenant le point comme nouveau début des temps, nous désignons ce signal déplacé par . Introduisons un changement de variable : . Alors,


Module nombre complexe car any est égal à 1, donc les amplitudes des composantes harmoniques élémentaires qui composent le signal ne dépendent pas de sa position sur l'axe des temps. Les informations sur cette caractéristique du signal sont contenues dans le spectre de phase.

III. Théorème d'échelle.

Supposons que le signal d'origine soit soumis à un changement d'échelle de temps. Cela signifie que le rôle du temps est joué par une nouvelle variable indépendante (- certains nombre réel.) Si > 1, alors une « compression » du signal original se produit ; si 0<<1, то сигнал “растягивается” во времени. Если, то:

Remplaçons la variable, puis cela suit :

Lorsqu'un signal est compressé d'un facteur un sur l'axe du temps, son spectre sur l'axe des fréquences s'étend du même montant. Dans ce cas, le module de densité spectrale diminue d'un facteur.

Évidemment, lorsque le signal est étiré dans le temps (c'est-à-dire lorsque<1) имеет место сужение спектра и увеличение модуля спектральной плотности.

IV. Théorème sur le spectre de la dérivée et de l'intégrale indéfinie.

Soit le signal et son plan spectral. Nous étudierons un nouveau signal et nous fixerons comme objectif de trouver sa densité spectrale.

Par définition :

La transformée de Fourier est une opération linéaire, ce qui signifie que l'égalité (2.3) est également valable pour les densités spectrales. En utilisant le théorème de décalage, nous obtenons :

Représentation de la fonction exponentielle sous la forme d'une série de Taylor :

En substituant cette série dans (2.6) et en se limitant aux deux premiers termes de la série, on trouve

Ainsi, différencier un signal par rapport au temps équivaut à une simple opération algébrique consistant à multiplier la densité spectrale par un facteur. On dit donc que le nombre imaginaire est un opérateur de différenciation opérant dans le domaine fréquentiel.

Deuxième partie du théorème. La fonction considérée est une intégrale indéfinie par rapport à la fonction. Cette intégrale existe, c'est-à-dire sa densité spectrale, et d'après la formule (2.7) elle est égale à :

Ainsi, le multiplicateur sert d’opérateur d’intégration dans le domaine fréquentiel.

V. Théorème de convolution.

Lors de la sommation des signaux, leurs spectres sont ajoutés. Cependant, le spectre du produit des signaux n'est pas égal au produit des spectres, mais est exprimé par une relation intégrale particulière entre les spectres des facteurs.

Soient et deux signaux dont les correspondances sont connues. Formons le produit de ces signaux : et calculons sa densité spectrale. En règle générale :

En appliquant la transformée de Fourier inverse, nous exprimons le signal en termes de densité spectrale et substituons le résultat dans (2.9) :

En changeant l'ordre d'intégration, nous avons :

L’intégrale du côté droit s’appelle paquet fonctions et. Symboliquement, l'opération de convolution est notée *

Ainsi, la densité spectrale du produit de deux signaux, à facteur numérique constant près, est égale à la convolution des densités spectrales des facteurs.

1. Signaux et spectres. Fondements théoriques des communications numériques

1. Signaux et spectres

1.1. Traitement du signal dans les communications numériques

1.1.1. Pourquoi "numérique"

Pourquoi les systèmes de communications militaires et commerciaux utilisent-ils des « chiffres » ? Il y a plusieurs raisons. Le principal avantage de cette approche est la facilité de reconstruction des signaux numériques par rapport aux signaux analogiques. Regardons la fig. 1.1, qui montre une impulsion numérique binaire idéale se propageant le long d'un canal de données. La forme d'onde est affectée par deux mécanismes principaux : (1) étant donné que tous les canaux et lignes de transmission ont une réponse en fréquence non idéale, l'impulsion idéale est déformée ; et (2) un bruit électrique indésirable ou une autre interférence externe déforme davantage la forme de l'impulsion. Plus le canal est long, plus ces mécanismes déforment le pouls de manière significative (Fig. 1.1). Au point où l'impulsion transmise peut encore être déterminée de manière fiable (avant qu'elle ne se dégrade vers un état ambigu), l'impulsion est amplifiée par un amplificateur numérique, rétablissant sa forme idéale d'origine.

Les chaînes numériques sont moins sensibles aux distorsions et aux interférences que les chaînes analogiques. Étant donné que les canaux numériques binaires produisent un signal significatif uniquement lorsqu'ils fonctionnent dans l'un des deux états (activé ou désactivé), la perturbation doit être suffisamment importante pour déplacer le point de fonctionnement du canal d'un état à l'autre. Le fait de n'avoir que deux états facilite la reconstruction du signal et évite ainsi l'accumulation de bruit ou d'autres perturbations lors de la transmission. En revanche, les signaux analogiques ne sont pas des signaux à deux états ; ils peuvent en accepter un nombre infini formulaires Dans les canaux analogiques, même une petite perturbation peut déformer le signal au point de le rendre méconnaissable. Une fois qu'un signal analogique est déformé, la perturbation ne peut pas être supprimée par amplification.

L’accumulation de bruit étant intrinsèquement liée aux signaux analogiques, ils ne peuvent donc pas être parfaitement reproduits. Avec la technologie numérique, un taux d’erreur très faible et l’utilisation de procédures de détection et de correction des erreurs rendent le signal très précis.

Il reste seulement à noter qu'avec les technologies analogiques, de telles procédures ne sont pas disponibles. mise en œuvre plus flexible que l'analogique (par exemple, microprocesseurs, commutation numérique et circuits intégrés à grande échelle (LSI)). L'utilisation de signaux numériques et du multiplexage temporel (TDM) est plus simple que l'utilisation de signaux analogiques et du multiplexage par répartition en fréquence (FDM). Lors de la transmission et de la commutation, différents types de signaux numériques (données, télégraphe, téléphone, télévision) peuvent être considérés comme identiques : après tout, un peu c'est un peu. De plus, pour faciliter la commutation et le traitement, les messages numériques peuvent être regroupés en unités autonomes appelées paquets. Les technologies numériques intègrent naturellement des fonctionnalités qui protègent contre les interférences et le brouillage du signal, ou assurent le cryptage ou la confidentialité. (Des technologies similaires sont abordées dans les chapitres 12 et 14.) De plus, l'échange de données s'effectue principalement entre deux ordinateurs ou entre un ordinateur et un appareil ou terminal numérique. Ces terminaux numériques sont mieux (et plus naturels !) desservis par les canaux de communication numériques.

Que payons-nous pour les avantages des systèmes de communication numérique ? Les systèmes numériques nécessitent un traitement plus intensif que les systèmes analogiques. De plus, les systèmes numériques nécessitent l'allocation d'une part importante de ressources pour la synchronisation à différents niveaux (voir chapitre 10). Les systèmes analogiques, en revanche, sont plus faciles à synchroniser. Un autre inconvénient des systèmes de communication numérique est que la dégradation de la qualité est seuil. Si le rapport signal/bruit descend en dessous d’un certain seuil, la qualité de service peut brusquement passer de très bonne à très mauvaise. Dans les systèmes analogiques, la détérioration de la qualité se produit plus facilement.

1.1.2. Diagramme en boîte typique et transformations de base

Schéma fonctionnel illustré à la Fig. 1.2 illustre les étapes de propagation et de traitement du signal dans un système de communications numériques (DCS) typique. Les blocs supérieurs - formatage, codage source, cryptage, codage de canal, multiplexage, modulation d'impulsions, modulation passe-bande, étalement de spectre et accès multiple - reflètent les transformations du signal sur le chemin de la source à l'émetteur. Les blocs inférieurs du diagramme sont des transformations de signaux sur le chemin du récepteur au destinataire de l'information et, en fait, ils sont opposés aux blocs supérieurs. Les blocs de modulation et de démodulation/détection sont collectivement appelés modem.

Le terme « modem » combine souvent plusieurs étapes de traitement du signal, illustrées à la Fig. 1.2 ; dans ce cas, le modem peut être considéré comme le « cerveau » du système. L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. Sur la fig. La figure 1.2 illustre la correspondance entre les blocs des parties supérieure (transmission) et inférieure (réception) du système. Les étapes de traitement du signal qui ont lieu dans l'émetteur sont pour la plupart inverses à celles du récepteur. Sur la fig. 1.2 les informations originales sont converties en chiffres binaires (bits) ; les bits sont ensuite regroupés en messages numériques ou symboles de message. Chacun de ces symboles (où) peut être considéré comme un élément d'un alphabet fini contenant L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. M L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur.éléments. Par conséquent, pour L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur.=2 Le symbole du message est binaire (c'est-à-dire qu'il se compose d'un bit). Bien que les caractères binaires puissent être classés comme L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur.>2 ; Cela signifie que ces symboles sont constitués d'une séquence de deux bits ou plus. (Comparez cet alphabet fini des systèmes DCS avec ce que nous avons dans les systèmes analogiques, où le signal de message est un élément d'un ensemble infini de signaux possibles.) Pour les systèmes utilisant le codage de canal (codes de correction d'erreur), la séquence de symboles de message est convertie. en une séquence de symboles de canal (symboles de code), et chaque symbole de canal est désigné . Étant donné que les symboles de message ou les symboles de canal peuvent être constitués d'un seul bit ou d'un groupe de bits, une séquence de tels symboles est appelée flux binaire (Figure 1.2).

Considérons les principaux blocs de traitement du signal illustrés à la Fig. 1.2 ; Les seules étapes requises pour les systèmes DCS sont le formatage, la modulation, la démodulation/détection et la synchronisation.

Le formatage convertit les informations originales en bits, garantissant ainsi que les fonctions de traitement de l'information et du signal sont compatibles avec le système DCS. A partir de ce point de la figure jusqu'au bloc de modulation d'impulsions, l'information reste sous la forme d'un flux de bits.

Riz. 1.2. Schéma fonctionnel d'un système de communication numérique typique

La modulation est le processus par lequel les symboles de message ou les symboles de canal (si un codage de canal est utilisé) sont convertis en signaux compatibles avec les exigences imposées par le canal de données. La modulation d'impulsions est une autre étape nécessaire car chaque symbole à transmettre doit d'abord être converti d'une représentation binaire (niveaux de tension représentant des 0 et des 1 binaires) en une forme de signal à bande étroite. Le terme « bande de base » définit un signal dont le spectre commence à (ou à proximité) une composante continue et se termine à une valeur finie (généralement pas plus de quelques mégahertz). Le bloc de modulation par impulsions codées comprend généralement un filtrage pour minimiser la bande passante de transmission. Lorsque la modulation d'impulsions est appliquée à des symboles binaires, le signal binaire résultant est appelé signal codé PCM (modulation par impulsions et codes). Il existe plusieurs types de signaux PCM (décrits au chapitre 2) ; dans les applications de téléphonie, ces signaux sont souvent appelés codes de canal. Lorsque la modulation d'impulsions est appliquée à des caractères non binaires, le signal résultant est appelé L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur.-ary modulé par impulsions. Il existe plusieurs types de tels signaux, qui sont également décrits dans le chapitre 2, où l'accent est mis sur la modulation d'amplitude d'impulsion (PAM). L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. Après modulation d'impulsions, chaque symbole de message ou symbole de canal prend la forme d'un signal passe-bande, où . Dans toute implémentation électronique, le flux binaire précédant la modulation d'impulsions est représenté par des niveaux de tension.

On peut se demander pourquoi il existe un bloc séparé pour la modulation d'impulsions, alors qu'en fait les niveaux de tension pour les zéros et les uns binaires peuvent déjà être considérés comme des impulsions rectangulaires idéales, dont chacune a une durée égale au temps de transmission d'un bit ? Il existe deux différences importantes entre ces niveaux de tension et les signaux passe-bande utilisés pour la modulation. Premièrement, le bloc de modulation d'impulsions permet l'utilisation de signaux binaires et

-signaux aires. La section 2.8.2 décrit divers paramètres utiles pour ces types de signaux. Deuxièmement, le filtrage effectué dans l'unité de modulation d'impulsions génère des impulsions dont la durée est supérieure au temps de transmission d'un bit. La filtration permet d'utiliser des impulsions plus longues ;

Dans le sens inverse, l'extrémité avant du récepteur et/ou le démodulateur réduit la fréquence de chaque signal passe-bande. En préparation à la détection, le démodulateur reconstruit l'enveloppe optimale du signal à bande étroite. En règle générale, plusieurs filtres sont associés au récepteur et au démodulateur - le filtrage est effectué pour éliminer les composants haute fréquence indésirables (dans le processus de conversion d'un signal passe-bande en signal à bande étroite) et pour façonner l'impulsion. L'égalisation peut être décrite comme un type de filtrage utilisé au niveau du démodulateur (ou après le démodulateur) pour supprimer tout effet de dégradation du signal que le canal aurait pu provoquer. L'égalisation est nécessaire lorsque la réponse impulsionnelle d'un canal est si mauvaise que le signal reçu est gravement déformé. Un égaliseur (dispositif de mise à niveau) est mis en œuvre pour compenser (c'est-à-dire supprimer ou atténuer) toute distorsion du signal provoquée par une caractéristique non idéale. Enfin, l'étape d'échantillonnage convertit l'impulsion générée en échantillon pour récupérer (approximativement) le symbole de canal ou le symbole de message (si le codage de canal n'est pas utilisé). Certains auteurs utilisent les termes démodulation et détection de manière interchangeable. Dans ce livre, la démodulation fait référence à la reconstruction d'un signal (impulsion de bande passante), et la détection fait référence à la prise de décision concernant la valeur numérique de ce signal.

Les étapes restantes du traitement du signal dans le modem sont facultatives et visent à répondre aux besoins spécifiques du système. Le codage source est la conversion d'un signal analogique en signal numérique (pour les sources analogiques) et la suppression des informations redondantes (inutiles). Notez qu'un système DCS typique peut utiliser soit le codage source (pour numériser et compresser les informations originales), soit une conversion de formatage plus simple (pour la numérisation uniquement). Le système ne peut pas appliquer simultanément le codage source et le formatage, puisque le premier comprend déjà l'étape nécessaire de numérisation de l'information. Le cryptage, utilisé pour garantir la confidentialité des communications, empêche un utilisateur non autorisé de comprendre le message et d'introduire de faux messages dans le système. Le codage de canal à un débit de données donné peut réduire la probabilité d'erreur PE ou réduire le rapport signal/bruit requis pour obtenir la probabilité souhaitée de PE en augmentant la bande passante de transmission ou en compliquant le décodeur. Les procédures de multiplexage et d'accès multiple combinent des signaux qui peuvent avoir des caractéristiques différentes ou provenir de sources différentes afin qu'ils puissent partager une partie des ressources de communication (par exemple, spectre, temps).

Blocs de traitement du signal illustrés à la Fig. 1.2 représente un schéma type d'un système de communication numérique ;

cependant, ces blocs sont parfois implémentés dans un ordre légèrement différent. Par exemple, le multiplexage peut se produire avant le codage de canal ou la modulation, ou - dans un processus de modulation à deux étages (sous-porteuse et porteuse) - il peut se produire entre deux étages de modulation. De même, l'unité d'expansion de fréquence peut être située à divers endroits dans la rangée supérieure de la Fig. 1.2 ; son emplacement exact dépend de la technologie spécifique utilisée. La synchronisation et son élément clé, le signal d'horloge, sont impliqués dans toutes les étapes du traitement du signal dans un système DCS. Par souci de simplicité, le bloc de synchronisation de la Fig. 1.2 est montré sans référence à quoi que ce soit, bien qu'en fait il soit impliqué dans la régulation des opérations dans presque tous les blocs représentés sur la figure.

Sur la fig. La figure 1.3 montre les fonctions de base du traitement du signal (qui peut être considéré comme un conditionnement du signal), réparties dans les neuf groupes suivants.

Fig.1.3. Transformations majeures des communications numériques

1. Formatage et encodage de la source

2. Transmission du signal à bande étroite

3. Signalisation passe-bande

4. Alignement

5. Codage des canaux

6. Sceau et accès multiple

7. Expansion du spectre

8. Cryptage

9. Synchronisation L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. Sur la fig. La transmission du signal à bande étroite du bloc 1.3 contient une liste d'alternatives binaires lors de l'utilisation de la modulation PCM ou des codes linéaires. Ce bloc identifie également une catégorie non binaire de signaux appelée

Le codage de canal fait référence aux techniques utilisées pour améliorer les signaux numériques, les rendant moins vulnérables aux facteurs de dégradation tels que le bruit, l'évanouissement et la suppression du signal. Sur la fig. Le codage de canal 1.3 est divisé en deux blocs, un bloc de codage de forme d'onde et un bloc de séquence structurée. Le codage de forme d'onde implique l'utilisation de nouveaux signaux qui introduisent des performances de détection améliorées par rapport au signal d'origine. Les séquences structurées impliquent l'utilisation de bits supplémentaires pour déterminer si une erreur est présente en raison du bruit dans le canal. L'une de ces technologies, la demande de répétition automatique (ARQ), reconnaît simplement qu'une erreur s'est produite et demande à l'expéditeur de retransmettre le message ; Une autre technologie, connue sous le nom de correction d'erreur directe (FEC), permet de corriger automatiquement les erreurs (avec certaines limitations). Lorsque nous examinerons les séquences structurées, nous aborderons trois méthodes courantes : le codage par blocs, le codage convolutif et le turbo.

Dans les communications numériques, la synchronisation implique le calcul du temps et de la fréquence. Comme le montre la fig. 1.3, la synchronisation est effectuée à cinq niveaux. Les fréquences de référence des systèmes cohérents doivent être synchronisées avec la porteuse (et éventuellement la sous-porteuse) en fréquence et en phase. Pour les systèmes incohérents, la synchronisation de phase n'est pas nécessaire. Le processus de base de synchronisation temporelle est la synchronisation des caractères (ou synchronisation des bits pour les caractères binaires).

Le démodulateur et le détecteur doivent savoir quand démarrer et arrêter le processus de détection des symboles et des bits ; une erreur de synchronisation entraîne une efficacité de détection réduite. Le niveau suivant de synchronisation temporelle, la synchronisation de trames, permet de réorganiser les messages. Et le dernier niveau, la synchronisation du réseau, permet de coordonner les actions avec d'autres utilisateurs afin d'utiliser efficacement les ressources.

1.1.3. Terminologie de base dans le domaine des communications numériques

Vous trouverez ci-dessous quelques termes de base souvent utilisés dans le domaine des communications numériques.(source d'informations). Un appareil qui transmet des informations via le système DCS. La source d'informations peut être analogique ou discrète. La sortie d'une source analogique peut prendre n'importe quelle valeur dans une plage continue d'amplitudes, tandis que la sortie d'une source d'informations discrète peut prendre des valeurs dans un ensemble fini d'amplitudes. Les sources d'informations analogiques sont converties en sources numériques par échantillonnage ou quantification. Méthodes d'échantillonnage et de quantification appelées formatage et codage de la source (Fig. 1.3).

SMS(message textuel). Séquence de caractères (Fig. 1.4, UN

). Dans la transmission de données numériques, un message est une séquence de nombres ou de symboles appartenant à un ensemble fini de caractères ou d'alphabet. Signe (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4, b

). Les caractères peuvent être mappés sur une séquence de chiffres binaires. Il existe plusieurs codes standardisés utilisés pour le codage des caractères, notamment le code ASCII (American Standard Code for Information Interchange), le code EBCDIC (Extended Binary Coded Decimal Interchange Code), le code Hollerith, le code Hollerith, le code Baudot, le code Murray et le code Morse.

Figure 1.4. Illustration des termes : a) messages texte ; b) les symboles ; ;

c) flux binaire (code ASCII à 7 bits) ; d) les symboles,

e) signal numérique passe-bande Chiffre binaire

(chiffre binaire) (bit) (bit).(flux binaire). Une séquence de chiffres binaires (zéros et uns). Le flux binaire est souvent appelé signal en bande de base ; cela implique que ses composantes spectrales vont de (ou autour) de la composante continue à une certaine valeur finie, ne dépassant généralement pas quelques mégahertz. Sur la fig. 1.4, le message HOW est représenté à l'aide d'un code ASCII à sept bits et le flux binaire est affiché sous la forme d'impulsions à deux niveaux. La séquence d'impulsions est représentée à l'aide de signaux hautement stylisés (parfaitement rectangulaires) avec des espaces entre les impulsions adjacentes. Dans un système réel, les impulsions ne ressembleraient jamais à cela, car de tels écarts sont absolument inutiles. Pour un débit de données donné, les écarts augmenteront la bande passante requise pour la transmission ; ou bien, pour une bande passante donnée, ils augmenteront le délai nécessaire à la réception du message.

Symbole(symbole) (message numérique). Un symbole est un groupe de k morceaux considérés dans leur ensemble. Dans ce qui suit, nous appellerons ce bloc un symbole de message () à partir d'un ensemble fini de symboles ou d'alphabet (Fig. 1.4, d.) Taille de l'alphabet L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. est égal à , où k- nombre de bits dans un symbole. Dans la transmission à bande étroite, chaque symbole sera représenté par l'un d'un ensemble de signaux impulsionnels à bande étroite. . Parfois, lors de la transmission d'une séquence de telles impulsions, l'unité baud (baud) est utilisée pour exprimer le taux de transmission des impulsions (débit des symboles). Pour une transmission passe-bande typique, chaque impulsion sera représentée par l'un d'un ensemble de signaux d'impulsions passe-bande. . Ainsi, pour les systèmes sans fil, le symbole est envoyé en transmettant un signal numérique pour T secondes Le caractère suivant est envoyé pendant l'intervalle de temps suivant, T. Le fait que l'ensemble des symboles transmis par le système DCS soit fini est la principale différence entre ces systèmes et les systèmes de communication analogiques. Le récepteur DCS doit uniquement déterminer lequel des L'émetteur et le récepteur peuvent être considérés comme les « muscles » du système. Pour les applications sans fil, l'émetteur se compose d'un circuit élévateur de radiofréquence (RF), d'un amplificateur de puissance et d'une antenne, et le récepteur se compose d'une antenne et d'un amplificateur à faible bruit (LNA). La réduction de fréquence inverse est effectuée à la sortie du récepteur et/ou du démodulateur. des signaux possibles ont été transmis ; alors qu'un récepteur analogique doit déterminer avec précision la valeur appartenant à une gamme continue de signaux.

Signal numérique(forme d'onde numérique). Décrit par un niveau de tension ou de courant, un signal (une impulsion pour bande étroite ou une onde sinusoïdale pour passe-bande) représentant un caractère numérique. Les caractéristiques du signal (pour les impulsions - amplitude, durée et localisation, ou pour une onde sinusoïdale - amplitude, fréquence et phase) permettent de l'identifier comme l'un des symboles de l'alphabet fini. Sur la fig. 1.4, d T Un exemple de signal numérique passe-bande est donné. Bien que le signal soit une onde sinusoïdale et ait donc un aspect analogique, il est néanmoins appelé numérique car il code des informations numériques. Sur cette figure, une valeur numérique est indiquée par transmission pendant chaque intervalle de temps

signal d'une certaine fréquence. Taux de transfert de données k(débit de données). T Cette valeur en bits par seconde (bps) est donnée par (bps) où les bits définissent un caractère de l'alphabet symbolique, et- c'est la durée

À

symbole -bit.

1.1.4. Critères de performances numériques et analogiques

La différence fondamentale entre les systèmes de communication analogiques et numériques réside dans la manière dont leurs performances sont évaluées.

Les signaux du système analogique constituent un continuum, le récepteur doit donc gérer un nombre infini de signaux possibles. La mesure des performances des systèmes de communication analogiques est la précision, telle que le rapport signal/bruit, le pourcentage de distorsion ou l'erreur quadratique moyenne attendue entre les signaux transmis et reçus.

Contrairement aux systèmes de communication analogiques, les systèmes de communication numériques transmettent des signaux qui représentent des nombres. Ces chiffres forment un ensemble fini ou alphabet, et cet ensemble est connu a priori du récepteur.

1.2.2. Signaux périodiques et non périodiques

Un signal est dit périodique dans le temps s’il existe une constante telle que

pour (1.2)

où à travers t l’heure est indiquée. La plus petite valeur qui satisfait à cette condition est appelée période du signal. La période détermine la durée d'un cycle complet de la fonction.

Un signal pour lequel il n’existe aucune valeur satisfaisant l’équation (1.2) est appelé non périodique.

1.2.3. Signaux analogiques et discrets t Le signal analogique est une fonction continue du temps, c'est-à-dire déterminé de manière unique pour chacun . Un signal électrique analogique se produit lorsqu'un signal physique (tel que la parole) est converti en signal électrique par un appareil. En comparaison, un signal discret est un signal qui existe à des intervalles de temps discrets ; il se caractérise par une séquence de nombres définis pour chaque instant, CT k, Où T est un entier, et

- une période de temps déterminée.

1.2.4. Signaux exprimés en termes d'énergie ou de puissance Un signal électrique peut être considéré comme un changement de tension ou de courant avec une puissance instantanée appliquée à une résistance.:

R. Un signal électrique peut être considéré comme un changement de tension ou de courant avec une puissance instantanée appliquée à une résistance. Dans les systèmes de communication, la puissance est souvent normalisée (on suppose que la résistance

équivaut à 1 Ohm, bien que dans un canal réel, cela puisse être n'importe quoi). S'il est nécessaire de déterminer la valeur réelle de la puissance, elle est obtenue en « dénormant » la valeur normalisée. Dans le cas normalisé, les équations (1.3,a) et (1.3,6) ont la même forme. Par conséquent, que le signal soit représenté en termes de tension ou de courant, la forme normalisée nous permet d'exprimer la puissance instantanée sous la forme

(1.5)

où est la tension ou le courant.

(1.6)

Les performances d'un système de communication dépendent de l'énergie du signal reçu ; les signaux avec une énergie plus élevée sont détectés de manière plus fiable (avec moins d'erreurs) - le travail de détection est effectué par l'énergie reçue. D’un autre côté, la puissance est la vitesse à laquelle l’énergie est fournie. Ce point est important pour plusieurs raisons.

La puissance détermine la tension qui doit être appliquée à l'émetteur et la force des champs électromagnétiques qui doivent être pris en compte dans les systèmes radio (c'est-à-dire les champs dans les guides d'ondes reliant l'émetteur à l'antenne et les champs autour des éléments rayonnants de l'antenne). .

(1.7)

Lors de l’analyse des signaux de communication, il est souvent souhaitable de travailler avec l’énergie du signal. Nous l'appellerons un signal énergétique si et seulement s'il a une énergie finie non nulle (), où

(1.8)

Dans une situation réelle, nous transmettons toujours des signaux avec une énergie finie (). Cependant, pour décrire des signaux périodiques, qui par définition (équation (1.2)) existent toujours et ont donc une énergie infinie, et pour travailler avec des signaux aléatoires, qui ont également une énergie illimitée, il convient de définir une classe de signaux exprimés en termes de pouvoir. Ainsi, il est pratique de représenter un signal utilisant de la puissance s'il est périodique et a à tout moment une puissance finie non nulle (), où

Un certain signal peut être classé comme énergétique ou périodique. Un signal énergétique a une énergie finie mais une puissance moyenne nulle, alors qu'un signal périodique a une puissance moyenne nulle mais une énergie infinie. Un signal dans un système peut être exprimé soit en termes d’énergie, soit en valeurs périodiques. En règle générale, les signaux périodiques et aléatoires sont exprimés en termes de puissance, et les signaux déterministes et non périodiques sont exprimés en termes d'énergie.

L'énergie et la puissance du signal sont deux paramètres importants dans la description d'un système de communication. Classer un signal comme étant énergétique ou périodique est un modèle pratique qui facilite le traitement mathématique de divers signaux et bruits. La section 3.1.5 développe ces idées dans le contexte des systèmes de communication numérique.

Une fonction utile dans la théorie de la communication est l'impulsion unitaire, ou fonction delta de Dirac. Une fonction d'impulsion est une abstraction, une impulsion d'amplitude infiniment grande, de largeur nulle et de poids unitaire (la surface sous l'impulsion), concentrée au point où la valeur de son argument est nulle. Une impulsion unitaire est donnée par les relations suivantes.

Illimité au point (1.11)

(1.12)

Une seule impulsion n’est pas une fonction au sens habituel du terme. S'il est inclus dans une opération, il convient de le considérer comme une impulsion d'amplitude finie, d'unité de surface et de durée non nulle, après quoi il est nécessaire de considérer la limite car la durée de l'impulsion tend vers zéro. Graphiquement, il peut être représenté comme un pic situé au point , dont la hauteur est égale à l'intégrale de celui-ci ou de sa superficie. Ainsi, à constante UN représente une fonction d'impulsion dont l'aire (ou le poids) est UN, et la valeur est nulle partout, sauf pour le point.

L'équation (1.12) est connue sous le nom de propriété de tamisage (ou de quantification) de la fonction d'impulsion unitaire ;

l'intégrale d'une impulsion unitaire et d'une fonction arbitraire donne un échantillon de la fonction au point.

1.3. Densité spectrale

La densité spectrale des caractéristiques du signal est la distribution de l'énergie ou de la puissance du signal sur une plage de fréquences. Ce concept devient particulièrement important lorsqu'on considère le filtrage dans les systèmes de communication. Il faut pouvoir estimer le signal et le bruit en sortie du filtre. Cette évaluation utilise la densité spectrale d'énergie (ESD) ou la densité spectrale de puissance (PSD).

1.3.1. Densité d'énergie spectrale

, (1.13)

L'énergie totale du signal d'énergie réel défini dans l'intervalle est décrite par l'équation (1.7). En utilisant le théorème de Parseval, nous pouvons relier l'énergie d'un tel signal, exprimée dans le domaine temporel, avec l'énergie exprimée dans le domaine fréquentiel :

(1.14)

où est la transformée de Fourier d'un signal non périodique. (Un résumé de l'analyse de Fourier peut être trouvé à l'Annexe A.) Désignons par le spectre d'amplitude rectangulaire défini comme

(1.15)

Cette équation montre que l'énergie du signal est égale à l'aire sous le graphique dans le domaine fréquentiel.

(1.16)

La densité d'énergie spectrale décrit l'énergie du signal par unité de bande passante et est mesurée en J/Hz. Les composantes de fréquence positives et négatives donnent des contributions énergétiques égales. Par conséquent, pour un signal réel, la quantité est une fonction paire de la fréquence. Par conséquent, la densité d’énergie spectrale est symétrique en fréquence par rapport à l’origine et l’énergie totale du signal peut être exprimée comme suit.

1.3.2. Densité spectrale de puissance

La puissance moyenne du signal réel en représentation périodique est déterminée par l'équation (1.8). S'il s'agit d'un signal périodique de période , il est classé comme signal en représentation périodique. L'expression de la puissance moyenne d'un signal périodique est donnée par la formule (1.6), où la moyenne temporelle est prise sur une période.

(1.17,a)

Le théorème de Parseval pour un signal périodique réel a la forme

, (1.17,b)

où les termes sont les coefficients complexes de la série de Fourier pour un signal périodique (voir l'annexe A).

(1.18)

Pour utiliser l'équation (1.17.6), il suffit de connaître la valeur des coefficients. La densité spectrale de puissance (PSD) d'un signal périodique, qui est une fonction réelle, paire et non négative de la fréquence et donne la distribution de puissance du signal sur une plage de fréquences, est définie comme suit.

(1.19)

L'équation (1.18) définit la densité spectrale de puissance d'un signal périodique comme une séquence de fonctions delta pondérées. Par conséquent, la PSD d’un signal périodique est une fonction discrète de la fréquence. En utilisant la PSD définie dans l’équation (1.18), la puissance normalisée moyenne du signal réel peut être écrite.

(1.20)

Exemple 1.1. Puissance moyenne normalisée

a) Trouver la puissance moyenne du signal normalisé en utilisant la moyenne du temps.

b) Complétez l'étape a en additionnant les coefficients spectraux.

Solution

a) En utilisant l'équation (1.17,a), nous avons ce qui suit.

b) En utilisant les équations (1.18) et (1.19), nous obtenons ce qui suit.

(voir l'Annexe A)

1.4. Autocorrélation

1.4.1. Autocorrélation du signal énergétique

La corrélation est un processus de mise en correspondance ; l'autocorrélation est la correspondance d'un signal avec sa propre version retardée. La fonction d'autocorrélation du signal énergétique réel est définie comme suit.

pour (1.21)

La fonction d'autocorrélation donne une mesure de la similarité d'un signal avec sa propre copie, décalée par unités de temps. La variable agit comme un paramètre d'analyse ou de recherche. - ce n'est pas une fonction du temps ; c'est simplement fonction de la différence de temps entre le signal et sa copie offset.

La fonction d'autocorrélation d'un signal énergétique réel a les propriétés suivantes.

1.

3. l'autocorrélation et l'ESD sont des transformées de Fourier l'une de l'autre, indiquée par une flèche à deux pointes

4. la valeur à zéro est égale à l'énergie du signal

Après satisfaction des paragraphes. 1-3 est une fonction d'autocorrélation.

La condition 4 est une conséquence de la condition 3, il n’est donc pas nécessaire de l’inclure dans l’ensemble principal pour tester une fonction d’autocorrélation.

1.4.2. Autocorrélation d'un signal périodique

L'autocorrélation d'un signal périodique réel est définie comme suit.

pour (1.22)

Si le signal est périodique avec une période, la moyenne temporelle dans l'équation (1.22) peut être calculée sur une période et l'autocorrélation peut être exprimée comme suit.

pour (1.23)

1. L'autocorrélation d'un signal périodique qui prend des valeurs réelles possède des propriétés similaires à celles d'un signal énergétique.

symétrie autour de zéro

3. 2. pour tous, la valeur maximale est nulle

4.

l'autocorrélation et l'ESD sont des transformées de Fourier l'une de l'autre

1.5. Signaux aléatoires

La tâche principale d'un système de communication est de transmettre des informations via un canal de communication. Tous les signaux de message utiles apparaissent de manière aléatoire, c'est-à-dire le récepteur ne sait pas à l'avance lequel des symboles de message possibles sera transmis. De plus, divers processus électriques génèrent du bruit qui accompagne les signaux d’information. Nous avons donc besoin d’un moyen efficace pour décrire les signaux aléatoires.

1.5.1. Variables aléatoires Laissez la variable aléatoire HA) UN et un vrai nombre. Pour faciliter la notation, désignons la variable aléatoire par X, et sa dépendance fonctionnelle vis-à-vis de UN nous le considérerons comme explicite. Une variable aléatoire peut être discrète ou continue. Distribution d'une variable aléatoire X se trouve par l'expression :

, (1.24)

où est la probabilité que la valeur soit acceptée ; variable aléatoire X moins qu'un nombre réel X ou égal à celui-ci.

2. La fonction de distribution a les propriétés suivantes.

Si X Une autre fonction utile liée à la variable aléatoire

, est la densité de probabilité, qui s’écrit comme suit.

(1.25,a) X Comme pour la fonction de distribution, la densité de probabilité est fonction du nombre réel

. Le nom « fonction de densité » vient du fait que la probabilité d’un événement est égale à la suivante. X En utilisant l'équation (1.25.6), nous pouvons écrire approximativement la probabilité qu'une variable aléatoire

a une valeur appartenant à un très petit intervalle entre et .

Ainsi, dans la limite as , tendant vers zéro, on peut écrire ce qui suit.

2. .

La densité de probabilité a les propriétés suivantes. X Ainsi, la densité de probabilité est toujours non négative et a une unité de surface. Dans le texte du livre, nous utiliserons la notation pour désigner la densité de probabilité d'une variable aléatoire continue. Pour faciliter la notation, on omettra souvent l'index X et facile à écrire. Si une variable aléatoire

ne peut prendre que des valeurs discrètes, nous utiliserons la notation pour désigner la densité de probabilité.

1.5.1.1. Moyenne d'ensemble X Valeur moyenne, ou valeur attendue, d'une variable aléatoire

, (1.26)

est déterminé par l'expression où il est appelé opérateur de valeur attendue. moment n X- ordre de distribution de probabilité d'une variable aléatoire

(1.27)

la quantité suivante est appelée. X Pour l'analyse des systèmes de communication, les deux premiers instants de la variable sont importants où il est appelé opérateur de valeur attendue. moment. Oui, quand où il est appelé opérateur de valeur attendue. moment=1 l’équation (1.27) donne le moment discuté ci-dessus, et à X.

(1.28)

= 1 - valeur quadratique moyenne X Vous pouvez également définir des moments centraux, qui sont des moments de différence

Et . Le moment central du second ordre (également appelé dispersion) est égal au suivant. X Dispersion Xégalement écrit , et la racine carrée de cette valeur, , est appelée l'écart type X.

La spécification de la variance d'une variable aléatoire limite la largeur de la fonction de densité de probabilité. La variance et la valeur quadratique moyenne sont liées par la relation suivante.

Ainsi, la variance est égale à la différence entre la valeur efficace et le carré de la valeur moyenne.

1.5.2. Processus aléatoires UN Un processus aléatoire peut être considéré en fonction de deux variables : les événements et le temps. Sur la fig. 1.5 montre un exemple de processus aléatoire. Montré N exemples de fonctions du temps. Chacune des fonctions échantillonnées peut être considérée comme la sortie d’un générateur de bruit distinct. Pour chaque événement, nous avons une seule fonction temporelle (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par X(t) UN, et la dépendance fonctionnelle à l'égard

nous le considérerons comme explicite.

Figure 1.5. Processus de bruit aléatoire

1.5.2.1. Moyenne statistique d'un processus aléatoire (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par Puisque la valeur d'un processus aléatoire à chaque instant ultérieur est inconnue, un processus aléatoire dont les fonctions de distribution sont continues peut être décrit statistiquement par une densité de probabilité. En général, à différents moments, cette fonction pour un processus aléatoire aura une forme différente. Dans la plupart des cas, il est irréaliste de déterminer empiriquement la distribution de probabilité d’un processus aléatoire. Parallèlement, pour les besoins des systèmes de communication, une description partielle, incluant la moyenne et la fonction d'autocorrélation, est souvent suffisante. Alors, déterminons la moyenne du processus aléatoire

, (1.30)

Comment

où est une variable aléatoire obtenue en considérant un processus aléatoire à un instant donné, a est la densité de probabilité (densité sur un ensemble d'événements à un instant donné). (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par Définissons la fonction d'autocorrélation du processus aléatoire

en fonction de deux variables et (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par où et sont des variables aléatoires obtenues en considérant

à des moments précis et en conséquence.

La fonction d'autocorrélation est une mesure de la relation entre deux échantillons temporels d'un processus aléatoire. (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par est dit stationnaire au sens strict si aucune de ses statistiques n'est affectée par le transfert de l'origine du temps. Un processus aléatoire est dit stationnaire au sens large si ses deux statistiques, la moyenne et la fonction d'autocorrélation, ne changent pas lorsque l'origine du temps est déplacée. Ainsi, le processus est stationnaire au sens large si

La stationnarité au sens strict implique la stationnarité au sens large, mais pas l'inverse. La plupart des résultats utiles de la théorie de la communication reposent sur l’hypothèse selon laquelle les signaux d’information aléatoires et le bruit sont stationnaires au sens large. D'un point de vue pratique, un processus aléatoire ne doit pas toujours être stationnaire ; la stationnarité dans un intervalle de temps observable d'intérêt pratique est suffisante.

Pour les processus stationnaires, la fonction d'autocorrélation dans l'équation (1.33) ne dépend pas du temps, mais uniquement de la différence . Autrement dit, toutes les paires de valeurs (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire parà des moments séparés par un intervalle, ont la même valeur de corrélation. Par conséquent, pour les systèmes stationnaires, la fonction peut être écrite simplement sous la forme .

1.5.2.3. Autocorrélation de processus aléatoires stationnaires au sens large

Tout comme la variance offre une mesure du caractère aléatoire des variables aléatoires, la fonction d’autocorrélation offre une mesure similaire pour les processus aléatoires. Pour les processus stationnaires au sens large, la fonction d'autocorrélation dépend uniquement du décalage horaire.

Pour un processus globalement stationnaire avec une moyenne nulle, la fonction montre à quel point les variables aléatoires du processus sont statistiquement corrélées, séparées par secondes. En d’autres termes, il fournit des informations sur la réponse en fréquence associée à un processus aléatoire. Si cela change lentement à mesure qu'il augmente de zéro à une certaine valeur, cela montre qu'en moyenne les valeurs de l'échantillon (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par, pris à des moments donnés et , sont pratiquement égaux. On est donc en droit d’attendre que dans la représentation fréquentielle (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par Les basses fréquences prédomineront. En revanche, s’il diminue rapidement à mesure que θ augmente, on s’attendrait à ce que (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par variera rapidement dans le temps et concernera donc principalement les hautes fréquences.

La fonction d'autocorrélation d'un processus stationnaire au sens large qui prend des valeurs réelles a les propriétés suivantes.

1. L'autocorrélation d'un signal périodique qui prend des valeurs réelles possède des propriétés similaires à celles d'un signal énergétique.

2. pour tous, la valeur maximale est nulle

3. l'autocorrélation et la densité spectrale de puissance sont des transformées de Fourier l'une de l'autre

4. la valeur à zéro est égale à la puissance moyenne du signal

1.5.3. Moyennage du temps et ergodicité

Pour calculer et faire la moyenne sur un ensemble, nous devons faire la moyenne sur toutes les fonctions d'échantillon du processus et, par conséquent, nous aurons besoin d'informations complètes sur la distribution mutuelle des fonctions de densité de probabilité dans les première et deuxième approximations. En général, ces informations ne sont généralement pas disponibles.

Si un processus aléatoire appartient à une classe spéciale appelée classe des processus ergodiques, sa moyenne temporelle est égale à la moyenne d'ensemble et les propriétés statistiques du processus peuvent être déterminées en faisant la moyenne dans le temps d'un échantillon de fonction du processus. Pour qu’un processus aléatoire soit ergodique, il doit être stationnaire au sens strict (l’inverse n’est pas nécessaire). Cependant, pour les systèmes de communication, où la stationnarité au sens large nous suffit, nous ne nous intéressons qu'à la moyenne et à la fonction d'autocorrélation.

Un processus aléatoire est dit ergodique par rapport à la moyenne si

(1.35)

et ergodique par rapport à la fonction d'autocorrélation si

(1.36)

Tester l’ergodicité d’un processus aléatoire est généralement assez difficile. Dans la pratique, en règle générale, une hypothèse intuitive est utilisée quant à l'opportunité de remplacer les moyennes d'ensemble par des moyennes temporelles. Lors de l’analyse de la plupart des signaux dans les canaux de communication (en l’absence d’effets impulsionnels), il est raisonnable de supposer que les signaux aléatoires sont ergodiques par rapport à la fonction d’autocorrélation. Étant donné que pour les processus ergodiques, les moyennes temporelles sont égales aux moyennes d'ensemble, les paramètres électriques fondamentaux tels que l'amplitude CC, la valeur efficace et la puissance moyenne peuvent être liés aux moments du processus aléatoire ergodique.

1. La valeur est égale à la composante constante du signal.

2. La valeur est égale à la puissance normalisée de la composante directe.

3. Moment de deuxième ordre (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par, , est égal à la puissance normalisée moyenne totale.

4. La valeur est égale à la valeur quadratique moyenne du signal exprimée en termes de courant ou de tension.

5. La dispersion est égale à la puissance moyenne normalisée du signal alternatif.

6. Si la moyenne du processus est nulle (c'est-à-dire), alors et la variance est égale à la valeur quadratique moyenne ou (une autre formulation) la variance représente la puissance totale dans la charge normalisée.

7. L’écart type est la valeur quadratique moyenne d’un signal alternatif.

8. Si , alors est la valeur quadratique moyenne du signal.

1.5.4. Densité spectrale de puissance et autocorrélation d'un processus aléatoire

La fonction d'autocorrélation est une mesure de la relation entre deux échantillons temporels d'un processus aléatoire. (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par peut être appelé signal périodique ayant une densité spectrale de puissance telle que donnée dans l’équation (1.20). Cette fonction est particulièrement utile dans les systèmes de communication car elle décrit la répartition de la puissance du signal sur une plage de fréquences.

La densité spectrale de puissance vous permet d'estimer la puissance du signal qui sera transmis via un réseau dont les caractéristiques de fréquence sont connues.

2. Les principales propriétés des fonctions de densité spectrale de puissance peuvent être formulées comme suit. (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par 1. prend toujours des valeurs valides

3. Pour

4. , en prenant des valeurs réelles

l'autocorrélation et la densité spectrale de puissance sont des transformées de Fourier l'une de l'autre

relation entre la puissance normalisée moyenne et la densité spectrale de puissance Sur la fig. La figure 1.6 montre une représentation visuelle de la fonction d'autocorrélation et de la fonction de densité spectrale de puissance. Que signifie le terme « corrélation » ? Lorsque nous nous intéressons à la corrélation de deux phénomènes, nous nous demandons dans quelle mesure ils sont liés en termes de comportement ou d'apparence et dans quelle mesure ils coïncident. En mathématiques, la fonction d'autocorrélation d'un signal (dans le domaine temporel) décrit la correspondance d'un signal avec lui-même décalé d'une certaine période de temps. Une copie exacte est considérée comme créée et localisée à moins l'infini. Nous déplaçons ensuite la copie séquentiellement dans le sens positif de l’axe du temps et demandons dans quelle mesure elles (la version originale et la copie) se correspondent. Nous déplaçons ensuite la copie d'un pas supplémentaire dans la direction positive et demandons à quel point elles correspondent maintenant, etc. La corrélation entre deux signaux est tracée en fonction du temps, notée ; dans ce cas, le temps peut être considéré comme un paramètre d'analyse. Sur la fig. 1.6, Séquence de caractères (Fig. 1.4, annonce (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par La situation décrite ci-dessus est décrite à certains moments. Riz. 1.6, T illustre un signal unique d'un processus aléatoire largement stationnaire (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4, La même séquence est affichée, décalée dans le temps de quelques secondes. Selon la notation acceptée, cette séquence est notée . Supposons que le processus (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par est ergodique par rapport à la fonction d'autocorrélation, nous pouvons donc utiliser la moyenne temporelle au lieu de la moyenne d'ensemble pour la trouver. (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par La valeur est obtenue en multipliant deux séquences (c'est-à-dire fonction sélective). L’ensemble de toutes les fonctions échantillons est appelé un ensemble. À un instant donné, se trouve une variable aléatoire dont la valeur dépend de l'événement. Et enfin, pour un événement précis et pour un moment précis, c'est le numéro habituel. Pour faciliter la notation, nous désignerons un processus aléatoire par puis trouver la moyenne à l'aide de l'équation (1.36), qui n'est valable pour les processus ergodiques que dans la limite. Cependant, l'intégration sur un nombre entier de périodes peut nous donner une certaine estimation. Notez ce qui peut être obtenu en décalant à la fois dans le sens positif et négatif. Un cas similaire est illustré sur la Fig. 1.6, Séquence de caractères (Fig. 1.4, V (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4,, sur lequel la séquence d'échantillons originale a été utilisée (Fig. 1.6, ) et sa copie déplacée (Fig. 1.6,). Les zones ombrées sous la courbe du produit contribuent positivement au produit, tandis que les zones grises y contribuent négativement. L'intégration sur le temps de transmission des impulsions donne un point sur la courbe. ) et sa copie déplacée (Fig. 1.6, La séquence peut encore se décaler et chacun de ces décalages produira un point sur la fonction d'autocorrélation globale illustrée à la Fig. 1.6, ) et sa copie déplacée (Fig. 1.6, G

. En d’autres termes, chaque séquence aléatoire d’impulsions bipolaires correspond à un point d’autocorrélation sur la courbe générale représentée sur la Fig. 1.6, ) et sa copie déplacée (Fig. 1.6,.

(1.37)

Le maximum de la fonction est au point (le meilleur ajustement se produit lorsque , est égal à zéro, puisque pour tout ) et la fonction décroît à mesure que .

Sur la fig. 1.6,

les points correspondant à et sont affichés.

Expression analytique de la fonction d'autocorrélation illustrée à la Fig. 1.6, ) et sa copie déplacée (Fig. 1.6, et formule 1.37) diminuera lentement à mesure que . Supposons maintenant que le signal change assez rapidement (c'est-à-dire que nous disposons d'une large bande passante). Dans ce cas, même un petit changement rendra la corrélation nulle et la fonction d’autocorrélation aura une forme très étroite.

Par conséquent, comparer les fonctions d’autocorrélation par forme nous donne des informations sur la bande passante du signal. La fonction diminue-t-elle progressivement ? Dans ce cas, nous avons un signal à bande étroite. La forme de la fonction ressemble-t-elle à un pic étroit ? Le signal a alors une large bande.

(1.38)

La fonction d'autocorrélation permet d'exprimer explicitement la densité spectrale de puissance d'un signal aléatoire. Puisque la densité spectrale de puissance et la fonction d'autocorrélation sont des transformées de Fourier l'une de l'autre, la densité spectrale de puissance, , d'une séquence aléatoire d'impulsions bipolaires peut être trouvée comme la transformée de Fourier de la fonction , dont l'expression analytique est donnée dans l'équation ( 1.37). Pour cela, vous pouvez utiliser le tableau. A.1. Noter que Les caractéristiques du signal (pour les impulsions - amplitude, durée et localisation, ou pour une onde sinusoïdale - amplitude, fréquence et phase) permettent de l'identifier comme l'un des symboles de l'alphabet fini. Sur la fig. 1.4,.

La vue générale de la fonction est présentée sur la Fig. 1.6, Les caractéristiques du signal (pour les impulsions - amplitude, durée et localisation, ou pour une onde sinusoïdale - amplitude, fréquence et phase) permettent de l'identifier comme l'un des symboles de l'alphabet fini. Sur la fig. 1.4, Notez que la zone sous la courbe de densité spectrale de puissance représente la puissance moyenne du signal. Une mesure pratique de la bande passante est la largeur du lobe spectral principal (voir la section 1.7.2). Sur la fig. 1.6, il est montré que la bande passante du signal est liée à la durée du symbole inverse ou à la largeur d'impulsion. Riz. 1.6, e-k répéter formellement la Fig. 1.6, enfer , sauf que dans les figures suivantes la durée d'impulsion est plus courte. Notez que pour des impulsions plus courtes, la fonction est plus étroite (Fig. 1.6, ) et sa copie déplacée (Fig. 1.6, Et , sauf que dans les figures suivantes la durée d'impulsion est plus courte.) que pour les plus longs (Fig. 1.6, ). Sur la fig. 1.6,; en d'autres termes, dans le cas d'une durée d'impulsion plus courte, un décalage de , est suffisant pour créer une correspondance nulle ou pour perdre complètement la corrélation entre les séquences de décalage. Puisque sur la Fig. 1.6, T e Séquence de caractères (Fig. 1.4, durée d'impulsion les bits définissent un caractère de l'alphabet symbolique, et moins (vitesse de transmission des impulsions plus élevée) que sur la Fig. 1.6, Les caractéristiques du signal (pour les impulsions - amplitude, durée et localisation, ou pour une onde sinusoïdale - amplitude, fréquence et phase) permettent de l'identifier comme l'un des symboles de l'alphabet fini. Sur la fig. 1.4,.

,occupation de la bande sur la Fig. 1.6,

Le terme « bruit » fait référence aux signaux électriques indésirables qui sont toujours présents dans les systèmes électriques.

La présence de bruit superposé au signal « ombres » ou masque le signal ; cela limite la capacité du récepteur à prendre des décisions précises sur la signification des symboles, et limite donc la vitesse à laquelle les informations peuvent être transmises. La nature du bruit est différente et comprend à la fois des sources naturelles et artificielles.

Le bruit artificiel est le bruit d'allumage par étincelle, le bruit impulsionnel de commutation et le bruit provenant d'autres sources connexes de rayonnement électromagnétique. Les bruits naturels proviennent de l’atmosphère, du soleil et d’autres sources galactiques. Une bonne conception technique peut éliminer la plupart du bruit ou ses effets indésirables grâce au filtrage, au blindage, à la sélection de la modulation et à l'emplacement optimal du récepteur. Par exemple, les mesures sensibles de radioastronomie sont généralement effectuées dans des zones désertiques isolées, loin des sources de bruit naturelles. Il existe cependant un bruit naturel, appelé bruit thermique, qui ne peut être éliminé. Le bruit thermique est causé par le mouvement thermique des électrons dans tous les composants dissipatifs – résistances, conducteurs, etc. Les mêmes électrons responsables de la conductivité électrique sont à l’origine du bruit thermique. t Le bruit thermique peut être décrit comme un processus aléatoire gaussien de moyenne nulle. Processus gaussien

, (1.40)

n(t) où il est appelé opérateur de valeur attendue. moment est une fonction aléatoire dont la valeur à un moment arbitraire

caractérisé statistiquement par une fonction de densité de probabilité gaussienne : Séquence de caractères (Fig. 1.4, où est la variance où il est appelé opérateur de valeur attendue. moment . La fonction de densité gaussienne normalisée d'un processus à moyenne nulle est obtenue sous l'hypothèse que . Une fonction schématique de densité de probabilité normalisée est présentée à la Fig. 1.7.

, (1.41)

Voici un signal aléatoire, où il est appelé opérateur de valeur attendue. moment.

- signal dans le canal de communication, et

est une variable aléatoire exprimant le bruit gaussien. Alors la fonction de densité de probabilité est exprimée par où, comme ci-dessus, est la dispersion les variables aléatoires statistiquement indépendantes sont soumises à une distribution gaussienne et le type de fonctions de distribution individuelles n'a pas d'importance. Ainsi, même si les mécanismes de bruit individuels ont une distribution non gaussienne, l’ensemble de nombreux mécanismes de ce type aura tendance à avoir une distribution gaussienne.

1.5.5.1. Bruit blanc

La principale caractéristique spectrale du bruit thermique est que sa densité spectrale de puissance est la même pour toutes les fréquences intéressantes pour la plupart des systèmes de communication ; en d'autres termes, une source de bruit thermique émet à toutes les fréquences avec une puissance égale par unité de bande passante - d'une composante constante à une fréquence de l'ordre du Hz. Par conséquent, un modèle simple de bruit thermique suppose que sa densité spectrale de puissance est uniforme sur toutes les fréquences, comme le montre la Fig. 1.8, Séquence de caractères (Fig. 1.4,, et s’écrit sous la forme suivante.

(1.42)

Ici, un facteur de 2 est inclus pour montrer qu'il s'agit de la densité spectrale de puissance bidirectionnelle. Lorsque la puissance du bruit a une densité spectrale aussi uniforme, nous parlons de bruit blanc.

L'adjectif « blanc » est utilisé dans le même sens que pour la lumière blanche, contenant des proportions égales de toutes les fréquences du spectre visible du rayonnement électromagnétique.

Figure 1.8. Bruit blanc : a) densité spectrale de puissance ;

b) fonction d'autocorrélation

(1.43)

La fonction d'autocorrélation du bruit blanc est donnée par la transformée de Fourier inverse de la densité spectrale de puissance du bruit (voir Tableau A.1) et s'écrit comme suit. (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4, Ainsi, l'autocorrélation du bruit blanc est une fonction delta pondérée par un facteur et située au point , comme le montre la Fig.

1.8,

(1.44)

. Notez qu'il est égal à zéro pour , c'est-à-dire deux échantillons différents de bruit blanc ne sont pas corrélés, aussi proches soient-ils.

La fonction delta dans l'équation (1.43) signifie que le signal de bruit Les bruits naturels proviennent de l’atmosphère, du soleil et d’autres sources galactiques. n'est absolument pas corrélé avec sa propre version biaisée pour tout . L'équation (1.43) montre que deux échantillons quelconques d'un processus de bruit blanc ne sont pas corrélés. Puisque le bruit thermique est un processus gaussien et que ses échantillons ne sont pas corrélés, les échantillons de bruit sont également indépendants. Ainsi, l'effet d'un canal de bruit gaussien blanc additif sur le processus de détection est que le bruit affecte indépendamment chaque symbole transmis. Un tel canal est appelé canal sans mémoire. Le terme « additif » signifie que le bruit est simplement superposé ou ajouté au signal – il n’y a pas de mécanismes multiplicatifs.

Étant donné que le bruit thermique est présent dans tous les systèmes de communication et constitue une source de bruit importante pour la plupart des systèmes, les caractéristiques du bruit thermique (additif, blanc et gaussien) sont souvent utilisées pour modéliser le bruit dans les systèmes de communication. Le bruit gaussien de moyenne nulle étant entièrement caractérisé par sa variance, ce modèle est particulièrement facile à utiliser dans la détection de signaux et la conception de récepteurs optimaux. Dans ce livre, nous supposerons (sauf indication contraire) que le système est sujet à une distorsion par un bruit blanc gaussien additif de moyenne nulle, même si parfois cette simplification sera trop forte.

1.6. Transmission du signal via des systèmes linéaires

Maintenant que nous avons développé un ensemble de modèles pour le signal et le bruit, examinons les caractéristiques des systèmes et leur impact sur les signaux et le bruit. Puisqu’un système peut être caractérisé aussi bien dans les domaines fréquentiel que temporel, des méthodes ont été développées dans les deux cas pour analyser la réponse d’un système linéaire à un signal d’entrée arbitraire. Le signal appliqué à l'entrée du système (Fig. 1.9) peut être décrit soit comme un signal temporel, , soit par sa transformée de Fourier, . L'utilisation de l'analyse temporelle produit une sortie de synchronisation et, ce faisant, la fonction, la réponse impulsionnelle ou la réponse impulsionnelle du réseau sera déterminée. Lorsque nous envisageons une entrée dans le domaine fréquentiel, nous devons définir une réponse en fréquence, ou fonction de transfert, pour le système, qui déterminera la sortie en fréquence. Le système est supposé linéaire et invariant dans le temps. On suppose également que le système n’a aucune énergie cachée au moment où le signal d’entrée est appliqué.

Figure 1.9. Système linéaire et ses paramètres clés

1.6.1. Réponse impulsionnelle

Le système ou réseau linéaire et invariant dans le temps illustré à la Fig. 1.9, est décrite (dans le domaine temporel) par la réponse impulsionnelle, qui est la réponse du système lorsqu'une seule impulsion est appliquée à son entrée.

Considérons le terme « réponse impulsionnelle » qui est extrêmement approprié pour cet événement. Décrire les caractéristiques d'un système à travers sa réponse impulsionnelle a une interprétation physique directe. Nous appliquons une seule impulsion à l’entrée du système (un signal irréel ayant une amplitude infinie, une largeur nulle et une surface unitaire), comme le montre la Fig. 1.10, Séquence de caractères (Fig. 1.4,. (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4,.)

La délivrance d’une telle impulsion au système peut être considérée comme un « flash ». Comment le système réagira-t-il (« réponse ») à un tel recours à la force (impulsion) ?

(1.46)

Le signal de sortie est la réponse impulsionnelle du système. (Une forme possible de cette réponse est illustrée à la Fig. 1.10,

La réponse du réseau à un signal arbitraire est une convolution avec , qui s'écrit comme suit.

Fig.1.10. Illustration de la notion de « réponse impulsionnelle » : a) le signal d'entrée est une fonction impulsionnelle unitaire ;

b) signal de sortie - réponse impulsionnelle du système

Ici, le signe « * » désigne l'opération de convolution (voir section A.5). Le système est supposé causal, ce qui signifie qu’il n’y a aucun signal à la sortie jusqu’au moment où le signal est appliqué à l’entrée.

Par conséquent, la limite inférieure de l’intégration peut être considérée comme nulle et le résultat peut être exprimé quelque peu différemment.

(1.47,a)

ou sous la forme

(1.47,b) Les expressions des équations (1.46) et (1.47) sont appelées intégrales de convolution. La convolution est une technique mathématique fondamentale qui joue un rôle important dans la compréhension de tous les systèmes de communication. Si le lecteur n'est pas familier avec cette opération, il devra se référer à la section A.5, où est donnée la dérivation des équations (1.46) et (1.47).

, (1.50)

1.6.2. Fonction de transfert de fréquence

(1.51)

Le signal de sortie de fréquence est obtenu en appliquant la transformée de Fourier aux deux côtés de l'équation (1.46). Puisque la convolution dans le domaine temporel devient une multiplication dans le domaine fréquentiel (et vice versa), nous obtenons ce qui suit à partir de l'équation (1.46).

La fonction de transfert de fréquence d'un réseau linéaire invariant dans le temps peut être facilement mesurée en laboratoire - dans un réseau avec un générateur d'harmoniques en entrée et un oscilloscope en sortie. Si le signal d'entrée est exprimé comme

,

alors la sortie peut être écrite comme suit.

La fréquence d'entrée est décalée vers la valeur qui nous intéresse ; ainsi, les mesures en entrée et en sortie permettent d'en déterminer le type.

1.6.2.1. Processus aléatoires et systèmes linéaires

Si un processus aléatoire constitue l'entrée d'un système linéaire invariant dans le temps, alors à la sortie de ce système, nous obtiendrons également un processus aléatoire. En d’autres termes, chaque exemple de fonction du processus d’entrée donne un exemple de fonction du processus de sortie. La densité spectrale de puissance d'entrée et la densité spectrale de puissance de sortie sont liées comme suit.

(1.53)

L'équation (1.53) fournit un moyen simple de trouver la densité spectrale de puissance de sortie d'un système linéaire invariant dans le temps lorsqu'il est alimenté par un processus aléatoire.

Dans les chapitres 3 et 4, nous examinerons la détection de signaux dans le bruit gaussien. La propriété fondamentale des processus gaussiens sera appliquée à un système linéaire. Il sera démontré que si un processus gaussien est appliqué à un filtre linéaire invariant dans le temps, alors le processus aléatoire envoyé à la sortie est également gaussien.

1.6.3. Transmission sans distorsion

Que faut-il pour qu’un réseau se comporte comme un canal de transmission idéal ? Le signal de sortie d'un canal de communication idéal peut être en retard sur le signal d'entrée ; De plus, ces signaux peuvent avoir des amplitudes différentes (un simple changement d'échelle), mais comme pour tout le reste, le signal ne doit pas être déformé, c'est-à-dire il doit avoir la même forme que le signal d'entrée. Par conséquent, pour une transmission idéale sans distorsion, nous pouvons décrire le signal de sortie comme

, (1.54)

où et sont des constantes. En appliquant la transformée de Fourier aux deux côtés (voir section A.3.1), nous obtenons ce qui suit.

(1.55)

En remplaçant l'expression (1.55) dans l'équation (1.49), nous voyons que la fonction de transfert requise du système pour une transmission sans distorsion a la forme suivante.

(1.56)

Par conséquent, pour obtenir une transmission idéale sans distorsion, la réponse globale du système doit avoir une amplitude constante et le déphasage doit être linéaire en fréquence. Il ne suffit pas que le système amplifie ou atténue également toutes les composantes de fréquence. Toutes les harmoniques du signal doivent arriver à la sortie avec le même délai pour pouvoir être additionnées. Puisque le retard est lié au déphasage et à la fréquence cyclique par la relation

, (1.57,a)

Il est évident que pour que le retard de toutes les composantes soit le même, le déphasage doit être proportionnel à la fréquence. Pour mesurer la distorsion du signal provoquée par le retard, une caractéristique appelée retard de groupe est souvent utilisée ; il est défini comme suit.

(1.57,b)

Ainsi, pour une transmission sans distorsion, nous avons deux exigences équivalentes : la phase doit être linéaire en fréquence ou le retard de groupe doit être égal à une constante. En pratique, le signal sera déformé lorsqu’il traversera certaines parties du système. Pour éliminer cette distorsion, des circuits de correction de phase ou d'amplitude (égalisation) peuvent être introduits dans le système. En général, la distorsion est une caractéristique globale des entrées/sorties d’un système qui détermine ses performances.

1.6.3.1. Filtre idéal

Il est impossible de construire un réseau idéal décrit par l'équation (1.56). Le problème est que l'équation (1.56) suppose une bande passante infinie, la bande passante du système étant déterminée par l'intervalle de fréquences positives sur lequel le module a une amplitude donnée. (En général, il existe plusieurs mesures de bande passante ; les plus courantes sont répertoriées dans la section 1.7.) Comme approximation d'un réseau idéal avec une bande passante infinie, nous choisissons un réseau tronqué qui laisse passer sans distorsion toutes les harmoniques avec des fréquences comprises entre et où se trouve la bande passante. fréquence de coupure inférieure, et est la fréquence supérieure, comme le montre la fig. 1.11. Tous ces réseaux sont appelés filtres idéaux.

En dehors d'une plage appelée bande passante, l'amplitude de réponse d'un filtre idéal est supposée être nulle. La bande passante efficace est déterminée par la bande passante du filtre et est en Hz. Séquence de caractères (Fig. 1.4, Si et , le filtre est dit émetteur (Fig. 1.11, (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4,). S'il a une valeur finie, on parle de filtre passe-bas (Fig. 1.11, à la fois dans le sens positif et négatif.).

Fig.1.11.

Fonction de transfert des filtres idéaux : a) filtre de transmission idéal ; b) filtre passe-bas idéal ; c) filtre passe-bas idéal (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4, En utilisant l’équation (1.59) et en supposant un filtre passe-bas idéal avec la bande passante Hz indiquée sur la Fig. 1.11,

(1.58)

, nous pouvons écrire la fonction de transfert comme suit.

La réponse impulsionnelle d'un filtre passe-bas idéal illustrée à la Fig. 1,12, est exprimé par la formule suivante.

Figure 1.12. Réponse impulsionnelle d'un filtre passe-bas idéal

où la fonction est définie dans l’équation (1.39).

La réponse impulsionnelle montrée sur la Fig. 1,12, n’est pas causal ; cela signifie qu'au moment où le signal est appliqué à l'entrée (), il y a une réponse non nulle à la sortie du filtre. Ainsi, il devrait être évident que le filtre idéal décrit par l’équation (1.58) n’est pas réalisé dans la réalité. Exemple 1.2. Faire passer le bruit blanc à travers un filtre idéal Séquence de caractères (Fig. 1.4, Bruit blanc avec densité spectrale de puissance (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4,, illustré à la figure 1.8,

Solution

, est envoyé à l'entrée du filtre passe-bas idéal illustré à la Fig. 1.11,

.

Déterminez la densité spectrale de puissance et la fonction d’autocorrélation du signal de sortie.

La fonction d'autocorrélation est le résultat de l'application de la transformée de Fourier inverse à la densité spectrale de puissance. La fonction d'autocorrélation est déterminée par l'expression suivante (voir Tableau A.1). Séquence de caractères (Fig. 1.4, En comparant le résultat obtenu avec la formule (1.62), nous voyons qu'il a la même forme que la réponse impulsionnelle d'un filtre passe-bas idéal montré sur la Fig. 1.12. Dans cet exemple, un filtre passe-bas idéal transforme la fonction d'autocorrélation du bruit blanc (définie via la fonction delta) en fonction. Après filtrage, il n'y aura plus de bruit blanc dans le système. Le signal de bruit de sortie aura une corrélation nulle avec ses propres copies décalées uniquement lorsqu'il sera décalé de , où est un nombre entier autre que zéro.

, (1.63)

1.6.3.2. Filtres implémentables (Personnage). Un élément de l'alphabet ou du jeu de caractères (Fig. 1.4,, à la fois dans le sens positif et négatif. Le filtre passe-bas implémentable le plus simple est constitué d'une résistance (R) et d'une capacité (C), comme le montre la Fig. 1.13,

En général, le point de demi-puissance est exprimé en décibels (dB) comme le point -3 dB, soit le point 3 dB en dessous de la valeur maximale. Par définition, la valeur en décibels est déterminée par le rapport des puissances, et.

(1.64, une)

Ici et sont des tensions, et et sont des résistances. Dans les systèmes de communication, la puissance nominale est généralement utilisée pour l'analyse ; dans ce cas, les résistances sont considérées égales à 1 ohm, alors

Figure 1.13. Filtre RC et sa fonction de transfert : a) filtre RC ; b) réponse en amplitude du filtre RC ; c) réponse en phase du filtre RC

(1.64,b)

La réponse en amplitude peut être exprimée en décibels comme

, (1,64, po)

où et sont les tensions à l'entrée et à la sortie, et les résistances à l'entrée et à la sortie sont supposées égales.

À partir de l’équation (1.63), il est facile de vérifier que le demi-point de puissance d’un filtre passe-bas RC est le rad/s, ou Hz. Ainsi, la bande passante en hertz est de . Le facteur de forme du filtre est une mesure de la mesure dans laquelle un filtre réel se rapproche d'un filtre idéal. Il est généralement défini comme le rapport des bandes passantes du filtre à -60 dB et -6 dB.

Un facteur de forme assez petit (environ 2) peut être obtenu dans un filtre de transmission avec une coupure très nette. À titre de comparaison, le facteur de forme d'un simple filtre passe-bas RC est d'environ 600.

, (1.65)

Il existe plusieurs approximations utiles des caractéristiques d’un filtre passe-bas idéal. L'un d'eux est fourni par le filtre Butterworth, qui se rapproche d'un filtre passe-bas idéal par la fonction

où est la fréquence de coupure supérieure (-3 dB) et est l'ordre du filtre. Plus l'ordre est élevé, plus la complexité et le coût de mise en œuvre du filtre sont élevés. Sur la fig. La figure 1.14 montre des graphiques d'amplitude pour plusieurs valeurs. Notez qu'à mesure qu'il grandit, les caractéristiques d'amplitude se rapprochent de celles d'un filtre idéal. Les filtres Butterworth sont populaires car ils constituent la meilleure approximation du cas idéal en termes de maximisation de la planéité de la bande passante du filtre. Laisse le signal(t s t 1 ,t) est spécifié comme fonction non périodique et n'existe que sur l'intervalle ( 2) (exemple - impulsion unique). Choisissons une période de temps arbitraire T t 1 ,t, y compris l'intervalle (

2) (voir Fig. 1). Laisse le signal(t Notons le signal périodique obtenu à partir de t), sous la forme (

). Ensuite, nous pouvons écrire la série de Fourier pour cela Laisse le signal(t Pour accéder à la fonction t) suit dans l'expression ( ) diriger la période vers l’infini. Dans ce cas, le nombre de composantes harmoniques avec des fréquences=où il est appelé opérateur de valeur attendue. moment 2w/2) (exemple - impulsion unique). Choisissons une période de temps arbitraire p

les amplitudes des composantes seront également infinitésimales. Il n’est donc plus possible de parler du spectre d’un tel signal, puisque le spectre devient continu.

L'intégrale interne est fonction de la fréquence. C'est ce qu'on appelle la densité spectrale du signal, ou la réponse en fréquence du signal et est désignée c'est-à-dire

Pour généralité, les limites de l'intégration peuvent être fixées à l'infini, puisque c'est tout de même où s(t) est égal à zéro, et l'intégrale est égale à zéro.

L'expression de la densité spectrale est appelée transformée de Fourier directe. La transformée de Fourier inverse détermine la fonction temporelle d'un signal à partir de sa densité spectrale

Les transformées de Fourier directe (*) et inverse (**) sont appelées ensemble une paire de transformées de Fourier. Module de densité spectrale

détermine la réponse amplitude-fréquence (AFC) du signal et son argument appelée réponse phase-fréquence (PFC) du signal. La réponse en fréquence du signal est une fonction paire et la réponse en phase est une fonction impaire.

La signification du module S() diriger la période vers l’infini. Dans ce cas, le nombre de composantes harmoniques avec des fréquences) est défini comme l'amplitude d'un signal (courant ou tension) par 1 Hz dans une bande de fréquences infiniment étroite qui inclut la fréquence en question ) diriger la période vers l’infini. Dans ce cas, le nombre de composantes harmoniques avec des fréquences. Sa dimension est [signal/fréquence].

Spectre énergétique du signal. Si la fonction s(t) a une densité de puissance de signal de Fourier ( densité spectrale d'énergie du signal) est déterminé par l'expression :

w(t) = s(t)s*(t) = |s(t)|2  |S()|2 = S()S*() = W(). (5.2.9)

Le spectre de puissance est une fonction paire non négative réelle W(), généralement appelée spectre d'énergie. Le spectre de puissance, en tant que carré du module de la densité spectrale du signal, ne contient pas d'informations de phase sur ses composantes de fréquence et, par conséquent, la reconstruction du signal à partir du spectre de puissance est impossible. Cela signifie également que des signaux présentant des caractéristiques de phase différentes peuvent avoir le même spectre de puissance. En particulier, le décalage du signal n'affecte pas son spectre de puissance. Cette dernière permet d'obtenir une expression du spectre énergétique directement à partir des expressions (5.2.7). A la limite, pour des signaux identiques u(t) et v(t) avec un décalage t 0, la partie imaginaire du spectre Wuv() tend vers des valeurs nulles, et la partie réelle tend vers les valeurs du module spectral . Avec une combinaison temporelle complète de signaux, nous avons :

ceux. l'énergie du signal est égale à l'intégrale du module carré de son spectre de fréquence - la somme de l'énergie de ses composantes de fréquence, et est toujours une valeur réelle.

Pour un signal arbitraire s(t) l'égalité

généralement appelée égalité de Parseval (en mathématiques - théorème de Plancherel, en physique - formule de Rayleigh). L'égalité est évidente, puisque les représentations de coordonnées et de fréquence ne sont essentiellement que des représentations mathématiques différentes du même signal. De même pour l'énergie d'interaction de deux signaux :

De l’égalité de Parseval il résulte que le produit scalaire des signaux et de la norme par rapport à la transformée de Fourier est invariant :

Dans un certain nombre de problèmes purement pratiques d'enregistrement et de transmission de signaux, le spectre énergétique du signal est très important. Les signaux périodiques sont traduits dans la région spectrale sous la forme de séries de Fourier. Écrivons un signal périodique de période T sous la forme d'une série de Fourier sous forme complexe :

L'intervalle 0-T contient un nombre entier de périodes de tous les exposants de l'intégrande et est égal à zéro, à l'exception de l'exponentielle à k = -m, pour laquelle l'intégrale est égale à T. En conséquence, la puissance moyenne d'un le signal périodique est égal à la somme des carrés des modules des coefficients de sa série de Fourier :

Spectre énergétique du signal – c’est la répartition de l’énergie des signaux de base qui composent le signal non harmonique sur l’axe des fréquences. Mathématiquement, le spectre énergétique du signal est égal au carré du module de la fonction spectrale :

En conséquence, le spectre amplitude-fréquence montre l'ensemble des amplitudes des composantes des signaux de base sur l'axe des fréquences, et le spectre phase-fréquence montre l'ensemble des phases

Le module de la fonction spectrale est souvent appelé spectre d'amplitude, et son argument est spectre de phase.

De plus, il existe une transformée de Fourier inverse qui permet de restituer le signal d'origine, connaissant sa fonction spectrale :

Par exemple, prenons une impulsion rectangulaire :

Autre exemple de spectres :

Fréquence de Nyquist, théorème de Kotelnikov .

Fréquence de Nyquist - en traitement numérique du signal, une fréquence égale à la moitié de la fréquence d'échantillonnage. Nommé d'après Harry Nyquist. Du théorème de Kotelnikov, il s'ensuit que lors de l'échantillonnage d'un signal analogique, il n'y aura aucune perte d'information uniquement si le spectre (densité spectrale) du signal est égal ou inférieur à la fréquence de Nyquist. Sinon, lors de la restauration d'un signal analogique, il y aura un chevauchement des « queues » spectrales (substitution de fréquence, masquage de fréquence) et la forme du signal restauré sera déformée. Si le spectre du signal ne comporte aucune composante supérieure à la fréquence de Nyquist, il peut (théoriquement) être échantillonné puis reconstruit sans distorsion. En fait, la « numérisation » d'un signal (conversion d'un signal analogique en un signal numérique) est associée à la quantification des échantillons - chaque échantillon est écrit sous la forme d'un code numérique de profondeur de bits finie, de sorte que des erreurs de quantification (arrondi) sont ajoutées aux échantillons, dans certaines conditions considérées comme du « bruit de quantification ».

Les signaux réels de durée finie ont toujours un spectre infiniment large, qui diminue plus ou moins rapidement avec l'augmentation de la fréquence. Par conséquent, l’échantillonnage du signal entraîne toujours une perte d’informations (distorsion de la forme du signal lors de l’échantillonnage et de la reconstruction), quelle que soit la fréquence d’échantillonnage. À la fréquence d'échantillonnage sélectionnée, la distorsion peut être réduite en supprimant les composantes spectrales du signal analogique (pré-échantillonnage) au-dessus de la fréquence de Nyquist, ce qui nécessite un filtre d'ordre très élevé pour éviter le repliement. La mise en œuvre pratique d'un tel filtre est très compliquée, car les caractéristiques amplitude-fréquence des filtres ne sont pas rectangulaires, mais lisses, et une certaine bande de fréquence de transition se forme entre la bande passante et la bande de suppression. Par conséquent, la fréquence d'échantillonnage est choisie avec une marge, par exemple, dans les CD audio, une fréquence d'échantillonnage de 44 100 Hz est utilisée, tandis que la fréquence la plus élevée du spectre des signaux audio est considérée comme étant de 20 000 Hz. La marge de fréquence Nyquist de 44100/2 - 20000 = 2050 Hz vous permet d'éviter la substitution de fréquence lors de l'utilisation du filtre d'ordre inférieur implémenté.

Théorème de Kotelnikov

Afin de restaurer le signal continu d'origine à partir d'un signal échantillonné avec de petites distorsions (erreurs), il est nécessaire de sélectionner rationnellement le pas d'échantillonnage. Par conséquent, lors de la conversion d'un signal analogique en un signal discret, la question se pose nécessairement de la taille du pas d'échantillonnage. Intuitivement, il n'est pas difficile de comprendre l'idée suivante. Si un signal analogique a un spectre basse fréquence limité par une certaine fréquence supérieure Fe (c'est-à-dire que la fonction u(t) a la forme d'une courbe variant progressivement, sans changements brusques d'amplitude), alors il est peu probable que cette fonction puisse changer de manière significative sur un petit intervalle de temps d’échantillonnage. Il est bien évident que la précision de la reconstruction d'un signal analogique à partir de la séquence de ses échantillons dépend de la taille de l'intervalle d'échantillonnage. Plus celui-ci est court, moins la fonction u(t) différera d'une courbe lisse traversant l'échantillon. points. Cependant, à mesure que l’intervalle d’échantillonnage diminue, la complexité et le volume des équipements de traitement augmentent considérablement. Si l'intervalle d'échantillonnage est suffisamment grand, la probabilité de distorsion ou de perte d'informations lors de la reconstruction d'un signal analogique augmente. La valeur optimale de l'intervalle d'échantillonnage est établie par le théorème de Kotelnikov (d'autres noms sont le théorème d'échantillonnage, le théorème de K. Shannon, le théorème de X. Nyquist : le théorème a été découvert pour la première fois dans les mathématiques d'O. Cauchy, puis décrit à nouveau par D. Carson et R. Hartley), prouvé par lui en 1933, le théorème de V. A. Kotelnikov a une signification théorique et pratique importante : il permet d'échantillonner correctement un signal analogique et détermine la manière optimale de le restituer à la réception à partir des valeurs d'échantillonnage.

Selon l'une des interprétations les plus célèbres et les plus simples du théorème de Kotelnikov, un signal arbitraire u(t), dont le spectre est limité par une certaine fréquence Fe, peut être complètement reconstruit à partir de la séquence de ses valeurs de référence, suivie d'un temps intervalle

L'intervalle d'échantillonnage et la fréquence Fe(1) en ingénierie radio sont souvent appelés respectivement intervalle et fréquence de Nyquist. Du point de vue analytique, le théorème de Kotelnikov est présenté à côté de

où k est le numéro d'échantillon ; - valeur du signal aux points de référence - fréquence supérieure du spectre du signal.

Représentation fréquentielle de signaux discrets .

La plupart des signaux peuvent être représentés sous forme de séries de Fourier :

Une grandeur caractérisant la répartition de l'énergie sur le spectre d'un signal et appelée densité spectrale d'énergie n'existe que pour les signaux dans lesquels l'énergie sur un intervalle de temps infini est finie et, par conséquent, la transformée de Fourier leur est applicable.

Pour les signaux qui ne décroissent pas dans le temps, l’énergie est infiniment grande et l’intégrale (1,54) diverge. Il n'est pas possible de spécifier le spectre d'amplitude. Cependant, la puissance moyenne Рср, déterminée par la relation

s'avère fini. Par conséquent, le concept plus large de « densité spectrale de puissance » est utilisé. Définissons-le comme la dérivée de la puissance moyenne du signal par rapport à la fréquence et notons-le Сk(п) :

L'indice k souligne que l'on considère ici la densité spectrale de puissance comme une caractéristique d'une fonction déterministe u(t) décrivant la mise en œuvre du signal.

Cette caractéristique du signal est moins significative que la densité spectrale d'amplitude, car elle est dépourvue d'informations de phase [voir. (1.38)]. Par conséquent, il est impossible de reconstruire sans ambiguïté l’implémentation originale du signal à partir de celui-ci. Cependant, l'absence d'information de phase permet d'appliquer ce concept à des signaux dont la phase n'est pas définie.

Pour établir une connexion entre la densité spectrale Сk(ш) et le spectre d'amplitude, nous utiliserons le signal u(t) existant sur un intervalle de temps limité (-T<. t

où est la densité spectrale de puissance d'un signal limité dans le temps.

Il sera montré plus loin (voir § 1.11) qu'en faisant la moyenne de cette caractéristique sur de nombreuses réalisations, il est possible d'obtenir la densité spectrale de puissance pour une large classe de processus aléatoires.

Fonction d'autocorrélation d'un signal déterministe

Il existe désormais deux caractéristiques dans le domaine fréquentiel : la réponse spectrale et la densité spectrale de puissance. La caractéristique spectrale, qui contient des informations complètes sur le signal u(t), correspond à la transformée de Fourier sous la forme d'une fonction temporelle. Voyons à quoi correspond la densité spectrale de puissance, dépourvue d'information de phase, dans le domaine temporel.

Il faut supposer qu’à la même densité spectrale de puissance correspond de nombreuses fonctions temporelles différentes en phase. Le scientifique soviétique L.Ya. Khinchin et le scientifique américain N. Wiener ont trouvé presque simultanément la transformée de Fourier inverse de la densité spectrale de puissance :


Appelons la fonction temporelle généralisée r(), qui ne contient pas d’informations de phase, la fonction d’autocorrélation temporelle. Il montre le degré de corrélation entre les valeurs d'une fonction u(t) séparées par un intervalle de temps, et peut être dérivé de la théorie statistique en développant le concept de coefficient de corrélation. A noter que dans la fonction de corrélation temporelle, la moyenne est effectuée dans le temps au sein d'une réalisation d'une durée suffisamment longue.

La fonction n’est pas périodique, elle ne peut donc pas être développée en série de Fourier. En revanche, la fonction, du fait de sa durée illimitée, n'est pas intégrable et ne peut donc pas être représentée par l'intégrale de Fourier. Pour éviter ces difficultés, une fonction auxiliaire est introduite, qui coïncide avec la fonction sur l'intervalle et est égale à zéro en dehors de cet intervalle :

(5.15)

La fonction est intégrable et il existe une transformée de Fourier directe (intégrale de Fourier) :

(5.16)

Densité spectrale de puissance signal aléatoire (ou simplement densité spectrale ) est appelée une fonction de la forme :

(5.17)

La densité spectrale est une fonction caractérisant la répartition des valeurs moyennes des carrés des amplitudes des harmoniques du signal. La densité spectrale a les propriétés suivantes :

1. Plus le processus aléatoire stationnaire change rapidement, plus le graphique est large .

2. Les pics individuels sur le graphique de densité spectrale indiquent la présence de composantes périodiques dans un signal aléatoire.

3. La densité spectrale est une fonction paire :

(5.18)

La densité spectrale est liée à la dispersion du signal comme suit :

(5.19)

Expérimentalement, la densité spectrale est déterminée (calculée) selon le schéma suivant :

Riz. 5.6.

La densité spectrale est liée à la fonction de corrélation par l'expression suivante (d'après le théorème de Khinchin-Wiener) :

(5.20)

(5.21)

Si nous développons les facteurs et en utilisant la formule d'Euler et prenons en compte le fait que , et sont des fonctions paires et sont une fonction impaire, alors les expressions (5.20), (5.21) peuvent être transformées sous la forme suivante :

(5.22)

(5.23)

Les expressions (5.23), (5.24) sont utilisées dans les calculs pratiques. Il est facile de voir que lorsque l’expression (5.24) détermine la dispersion d’un processus aléatoire stationnaire :

(5.24)

Les relations reliant la fonction de corrélation et la densité spectrale ont toutes les propriétés inhérentes à la transformée de Fourier et déterminent les caractéristiques comparatives suivantes : plus le graphe est large, plus le graphe est étroit, et vice versa, plus la fonction décroît vite, plus la fonction décroît lentement. . Cette relation est illustrée par les graphiques des Fig. (5.7), (5.8)

Riz. 5.7.

Riz. 5.8.

La ligne 1 des deux figures correspond à un signal aléatoire variant lentement, dont le spectre est dominé par les harmoniques basses fréquences. Les lignes 2 correspondent à un signal à évolution rapide dont le spectre est dominé par les harmoniques hautes fréquences.

Si un signal aléatoire change très fortement dans le temps et qu'il n'y a pratiquement aucune corrélation entre ses valeurs précédentes et suivantes, alors la fonction de corrélation a la forme d'une fonction delta (ligne 3). Le graphique de densité spectrale représente dans ce cas une ligne horizontale dans la plage. Cela indique que les amplitudes harmoniques sont les mêmes sur toute la gamme de fréquences. Ce signal est appelé bruit blanc (par analogie avec la lumière blanche, dans laquelle, comme on le sait, l'intensité de toutes les composantes est la même).



Le concept de « bruit blanc » est une abstraction mathématique. Physiquement, les signaux sous forme de bruit blanc ne sont pas réalisables, puisqu'à un spectre infiniment large correspond une dispersion infiniment grande, et donc une puissance infiniment grande. Cependant, les systèmes réels avec un spectre fini peuvent souvent être considérés approximativement comme du bruit blanc. Cette simplification est valable dans les cas où le spectre du signal est bien plus large que la bande passante du système sur lequel agit le signal.



Avez-vous aimé l'article? Partagez avec vos amis !