Skip to article frontmatterSkip to article content

Section 2 - Notions fondamentales

Abstract

Cette section présente les concepts fondamentaux du traitement des signaux, essentiels pour comprendre et analyser les systèmes de communication. Elle aborde les définitions, classifications et opérations de base des signaux. L’analyse de Fourier y est développée pour explorer la décomposition des signaux en composantes fréquentielles. Les principes de modulation d’amplitude et les systèmes linéaires invariants dans le temps (LTI) sont également discutés, avec un accent sur des notions clés telles que la largeur de bande, la densité spectrale de puissance, l’autocorrélation et les filtres. Enfin, la section introduit les signaux aléatoires, en se concentrant sur les distributions gaussiennes, les moyennes statistiques et le théorème de la limite centrale, établissant ainsi une base solide pour l’étude des signaux dans des environnements variés.

Signal

Définition: Signal
Un signal est une fonction qui transmet des informations sur un phénomène.

Les signaux constituent les entrées et les sorties des systèmes. Un signal peut être classé selon différents critères. Les critères que nous allons examiner sont énumérés ci-dessous.

  1. Signaux à temps continu et à temps discret:

    • Un signal à temps continu est un signal g(t)g(t) pour lequel la variable indépendante tt prend des nombres réels.

    • Un signal à temps discret, noté g[n]g[n], est un signal pour lequel la variable indépendante nn prend ses valeurs dans l’ensemble des entiers.

    • En échantillonnant un signal à temps continu g(t)g(t) à des instants séparés par TET_E, nous pouvons définir le signal à temps discret g[nTE]g[nT_E]. Ici, nn est l’indice de temps, représentant le nnième échantillon.

Signaux à temps continu et à temps discret (la période d’échantillonnage est de T_E = 0.5 unités de temps).

Figure 1:Signaux à temps continu et à temps discret (la période d’échantillonnage est de TE=0.5T_E = 0.5 unités de temps).

  1. Signaux analogiques et numériques

    • Un signal dont l’amplitude peut prendre n’importe quelle valeur dans une gamme continue est un signal analogique.

      • Cela signifie que l’amplitude d’un signal analogique peut prendre un nombre (indénombrable) infini de valeurs.
    • Un signal numérique, par contre, est un signal dont l’amplitude ne peut prendre qu’un nombre fini de valeurs.

Signaux analogiques et numériques.

Figure 2:Signaux analogiques et numériques.

  1. Signaux périodiques et non périodiques.

    • Un signal périodique se répète dans le temps ; il suffit donc de spécifier le signal dans un intervalle de base appelé période, T0T_0, Pour un signal signal périodique :

      g(t)=g(t+T0),tg(t) = g(t + T_0), \, \forall t
    • Un signal non périodique ne se répète pas dans le temps.

Signaux périodiques (où T_0 = 6 unités de temps) et non périodiques.

Figure 3:Signaux périodiques (où T0=6T_0 = 6 unités de temps) et non périodiques.

  1. Signaux réels et complexes.

    • Un signal réel prend ses valeurs dans l’ensemble des nombres réels, gR(t)Rg_R(t)\in \mathbb{R}

    • Un signal complexe prend ses valeurs dans l’ensemble des nombres complexes gC(t)Cg_C(t)\in \mathbb{C}.

Signaux réels et complexes.  Le signal réel est l’onde sinusoïdale g_R(t) = \sin(t). Le signal complexe est g_C(t) = e^{jt} = \cos(t) + j\sin(t), dont les parties réelle ( \cos(t))  et imaginaire ( \sin(t) ) sont tracées séparément.

Figure 4:Signaux réels et complexes. Le signal réel est l’onde sinusoïdale gR(t)=sin(t)g_R(t) = \sin(t). Le signal complexe est gC(t)=ejt=cos(t)+jsin(t)g_C(t) = e^{jt} = \cos(t) + j\sin(t), dont les parties réelle (cos(t))( \cos(t)) et imaginaire (sin(t))( \sin(t) ) sont tracées séparément.

  1. Signaux déterministes et aléatoires.

    • Dans un signal déterministe, à tout instant tt, la valeur de g(t)g(t) est donnée comme une valeur réelle ou complexe.

    • Dans un signal aléatoire (ou stochastique), à un instant donné tt, g(t)g(t) est une variable aléatoire, c’est-à-dire qu’elle est définie par une fonction de densité de probabilité.

Signaux déterministes et aléatoires. Le signal déterministe  g(t) = \sin(t) est parfaitement prévisible à tout instant  t . Chaque valeur est fixée et définie.
Le signal aléatoire est une superposition d’une onde sinusoïdale et d’un bruit gaussien aléatoire. La valeur de g(t)  à un instant donné est imprévisible et suit une distribution aléatoire (donc les valeurs sont imprévisibles).

Figure 5:Signaux déterministes et aléatoires. Le signal déterministe g(t)=sin(t) g(t) = \sin(t) est parfaitement prévisible à tout instant t t . Chaque valeur est fixée et définie. Le signal aléatoire est une superposition d’une onde sinusoïdale et d’un bruit gaussien aléatoire. La valeur de g(t)g(t) à un instant donné est imprévisible et suit une distribution aléatoire (donc les valeurs sont imprévisibles).

Notez que toutes ces représentations sont du domaine temporel. Pour pouvoir comprendre le comportement spectral, nous devons également analyser les signaux dans le domaine fréquentiel.

Représentation fréquentielle des signaux

Dans ce cours, nous utiliserons la transformée de Fourier pour représenter les signaux, même pour les signaux périodiques

Définition: Transformée de Fourier
La transformée de Fourier d’un signal g(t)g(t) est représentée par G(f)G(f), et
g(t)    G(f)g(t) \iff G(f)

Propriétés :

  1. homogénéité de la transformée de Fourier stipule que la transformée de Fourier d’un signal multiplié par un constant scalaire est égale à la transformée de Fourier du signal, également multiplié par cette constante. Si g(t)g(t) est un signal avec g(t)    G(f)g(t) \iff G(f) et aa est un constant scalaire, :

    F{ag(t)}=aF{g(t)}=aG(f)\mathcal{F}\{a \cdot g(t)\} = a \cdot \mathcal{F}\{g(t)\}= aG(f)

    Cela montre que l’échelle d’amplitude dans le domaine temporel est directement reflétée dans le domaine fréquentiel.

  2. superposition de la transformée de Fourier découle directement de la linéarité. Si un signal g(t)g(t) est composé de plusieurs composantes, telles que g(t)=g1(t)+g2(t)++gn(t)g(t) = g_1(t) + g_2(t) + \cdots +g _n(t), avec gi(t)    Gi(f)g_i(t) \iff G_i(f), i{1,2,,n}i \in \{1,2,\ldots, n\} sa transformée de Fourier est donnée par :

    F{g(t)}=F{g1(t)}+F{g2(t)}++F{gn(t)}=i=1nGi(f).\mathcal{F}\{g(t)\} = \mathcal{F}\{g_1(t)\} + \mathcal{F}\{g_2(t)\} + \cdots + \mathcal{F}\{g_n(t)\} =\sum_{i=1}^nG_i(f).

L’homogénéité et la superposition garantissent la linéarité de la transformée de Fourier, permettant ainsi que la transformée d’une combinaison linéaire de signaux, soit égale à la même combinaison linéaire, de leurs transformées respectives. La linéarité est fondamentale en analyse de Fourier, car elles permettent de décomposer des signaux complexes en une somme de signaux plus simples.

Propriétés d’un signal

Valeur moyenne

Énergie

Puissance

Notez que Pg=g(t)2P_g=\overline{|{g(t)}|^2}.

Tension efficace

Largeur de bande

Définition: Largeur de bande
La largeur de bande correspond à l’étendue des fréquences disponibles pour la transmission d’un signal. La largeur de bande d’un signal est une mesure de l’étendue de fréquences contenues dans le signal. En termes simples, elle représente la différence entre les fréquences les plus élevées et les plus basses et significatives dans le spectre du signal.

Un signal peut être classé comme bande de base ou bande passante selon sa concentration dans le domaine fréquentiel.

Définition: Signal bande de base (baseband)
Un signal bande de base est caractérisé par un contenu fréquentiel concentré autour de 0 Hz.
Réponse fréquentielle d’un signal en bande de base autour de f_p, et la largeur de bande est de B Hz.

Figure 8:Réponse fréquentielle d’un signal en bande de base autour de fpf_p, et la largeur de bande est de BB Hz.

Définition: Signal bande passante (passband)
Un signal bande passante est généralement obtenu après une modulation, c’est-à-dire après multiplication du signal bande de base par une onde porteuse, telle qu’une sinusoïde cos(2πfpt)cos(2\pi f_p t). Le contenu fréquentiel d’un signal bande passante est concentré autour de la fréquence porteuse, fpf_p Hz.
Réponse fréquentielle d’un signal en bande passante où  la largeur de bande est de  B=f_\textrm{max}-f_\textrm{min}

Figure 9:Réponse fréquentielle d’un signal en bande passante où la largeur de bande est de B=fmaxfminB=f_\textrm{max}-f_\textrm{min}

Signaux utiles

Impulsion de Dirac (Dirac impulse)

Définition: Impulsion de Dirac
L’impulsion de Dirac est un outil mathématique idéal utilisé pour modéliser une impulsion infiniment brève et intense, qui ne peut pas être réalisée exactement dans la réalité physique.
δ(t)={+,si t=0,0,si t0,etδ(t)dt=1.\delta(t) = \begin{cases} +\infty, & \text{si } t = 0, \\ 0, & \text{si } t \neq 0, \end{cases} \quad \text{et} \quad \int_{-\infty}^{\infty} \delta(t) \, dt = 1.
Impulsion de Dirac (en domaine temporel).

Figure 10:Impulsion de Dirac (en domaine temporel).

Propriétés:

Impulsion de Dirac (en domaine fréquentiel).

Figure 11:Impulsion de Dirac (en domaine fréquentiel).

Train d’impulsions de Dirac (Dirac impulse train)

Définition: Train d’impulsions de Dirac
La fonction train d’impulsions de Dirac, notée δT(t) \delta_T(t) , est définie comme une somme infinie d’impulsions de Dirac espacées de TT secondes :
δT(t)=n=δ(tnT)\delta_T(t) = \sum_{n=-\infty}^{\infty} \delta(t - nT)

Propriétés:

Fonction sinc (Sinc function)

Définition: Fonction sinc
La fonction sinc(t)\textit{sinc}(t) est définie comme suit
x(t)=sinc(t)={sin(t)t,si t0,1,si t=0.x(t) = \text{sinc}(t) = \begin{cases} \frac{\sin(t)}{ t}, & \text{si } t \neq 0, \\ 1, & \text{si } t = 0. \end{cases}
Fonction sinc  (en domaine temporel).

Figure 12:Fonction sinc  (en domaine temporel).

Propriétés:

Fonction sinc  (en domaine fréquentiel).

Figure 13:Fonction sinc  (en domaine fréquentiel).

L’onde rectangulaire (Rectangular pulse)

Définition: L’onde rectangulaire
La fonction rectangulaire rect(t) \text{rect}(t) , définie sur l’intervalle [T0/2,T0/2] [-T_0/2, T_0/2] , avec une valeur constante a a , est donnée par :
g(t)={a,si T02tT02,0,sinon.g(t) = \begin{cases} a, & \text{si } -\frac{T_0}{2} \leq t \leq \frac{T_0}{2}, \\ 0, & \text{sinon}. \end{cases}
Onde rectangulaire  (en domaine fréquentiel).

Figure 14:Onde rectangulaire  (en domaine fréquentiel).

Propriétés:

Onde rectangulaire  (en domaine temporel).

Figure 15:Onde rectangulaire  (en domaine temporel).

Ondes porteuses (Carrier waveforms)

Définition: Ondes porteuses
La majorité des systèmes de communication utilisent les formes d’onde cosinus et sinus comme ondes porteuses. Leur fréquence fondamentale est appelée la fréquence porteuse.

Un cosinus avec fréquence fpf_p et amplitude ApA_p est défini comme c(t)=Apcos(2πfpt+ϕ)c(t) = A_p \cos(2\pi f_p t + \phi) où :

Propriétés:

Pour un sinus avec les mêmes paramètres s(t)=Apsin(2πfpt+ϕ)s(t) = A_p \sin(2\pi f_p t + \phi)

Propriétés:

Système

Définition: Système
Du point de vue d’un ingénieur en communication, un système est une loi qui attribue des signaux de sortie à divers signaux d’entrée.
Le point le plus important dans la définition d’un système est que sa sortie doit être définie de manière unique pour toutes les entrées légitimes.

Chaque système possède une entrée (x(t)x(t)) une sortie (y(t))(y(t)) et une fonction de transfert (T())\left(\mathcal{T(\cdot)}\right), ou y(t)=T(x(t))y(t)=\mathcal{T}(x(t)).

Représentation d`un système

Figure 1:Représentation d`un système

Catégories de systèmes

Un système peut être variant ou invariant dans le temps. De plus, un système peut être linéaire ou non linéaire. Leurs explications sont données ci-dessous.

Système invariant dans le temps (Time Invariant System)

Un système est invariant dans le temps si sa réponse à une entrée ne change pas lorsque l’entrée est décalée dans le temps. Si l’on considère un système T()\mathcal{T}(\cdot) avec une entrée x(t)x(t) et une sortie y(t)y(t), (i.e. y(t)=T(x(t))y(t)=\mathcal{T}(x(t))), le système est invariant dans le temps si

y(tt0)=T(x(tt0))y(t-t_0) = \mathcal{T}(x(t- t_0))

Système variant dans le temps (Time Varying System)

Le système est variant dans le temps quand l’équation (49) n’est pas applicable.

Système linéaire (Linear System)

Un système T()\mathcal{T(\cdot)} est linéaire s’il respecte les propriétés suivantes :

  1. homogénéité : si une entrée x(t)x(t) produit une sortie y(t)y(t), i.e.,y(t)=T(x(t))y(t)=\mathcal{T}(x(t)), la sortie de ax(t)ax(t) pour un scalaire aa produit ay(t)ay(t).

  2. superposition : si un signal x(t)x(t) est composé de plusieurs composantes, telles que

    x(t)=x1(t)+x2(t)++xn(t),x(t) = x_1(t) + x_2(t) + \cdots +x _n(t),

    yi(t)=T(xi(t))y_i(t) = \mathcal{T} (x_i(t)), i{1,2,,n}i \in \{1,2,\ldots, n\},

    y=T{x1(t)}+T{x2(t)}++T{xn(t)}=i=1nyi(t).y = \mathcal{T}\{x_1(t)\} + \mathcal{T}\{x_2(t)\} + \cdots + \mathcal{T}\{x_n(t)\} =\sum_{i=1}^ny_i(t).

Notez que la transformée de Fourier peut être interprétée comme un système linéaire.

Système linéaire invariant dans le temps (Linear time invariant; LTI)

Un système est linéaire invariant dans le temps (LTI) si les propriétés de linéarité et d’invariance dans le temps sont satisfaites. Ce système est défini simplement par sa réponse impulsionnelle, h(t)h(t), ou sa réponse fréquentielle H(F)H(F)

h(t)    H(f)h(t) \iff H(f)

.

La sortie y(t)y(t) est obtenue par la convolution de l’entrée x(t)x(t) avec la réponse impulsionnelle h(t) h(t)

y(t)=x(t)h(t)=x(τ)h(tτ)dτy(t) = x(t) * h(t) = \int_{-\infty}^{\infty} x(\tau) h(t - \tau) \, d\tau

.

Transmission d’un signal à travers un système linéaire invariant dans le temps (LTI)

Figure 17:Transmission d’un signal à travers un système linéaire invariant dans le temps (LTI)

Système non linéaire (Nonlinear System)

Si un système ne respecte pas l’une ou l’autre des propriétés d’homogénéité ou de superposition, il est non linéaire.Leur réponse peut varier de manière non proportionnelle ou non additive en fonction des entrées.

Modulation - un système non linéaire

La modulation est le processus par lequel une onde portesue c(t)=Apcos(2πfpt)c(t) = A_p \cos(2 \pi f_p t) est multiplié par un signal de message m(t) m(t). Cela permet d’intégrer l’information du message dans une onde porteuse adaptée à la transmission.

Pour une modulation d’amplitude (AM), le signal modulé s’écrit :

ψ(t)=[Ap+m(t)]cos(2πfpt),\psi(t) = [A_p + m(t)] \cos(2\pi f_p t),

Ap A_p est l’amplitude de la porteuse et fp f_p sa fréquence.

Dans ce cas, le signal d’information m(t) m(t) module l’amplitude de l’onde porteuse cos(2πfpt)\cos(2\pi f_p t) . Soit m(t)m(t) a un largeur de bande B B Hz avec une réponse fréquentielle M(f)M(f). La reponse fréquentielle du signal modulé sera

Ψ(f)=Ap2δ(ffp)+Ap2δ(f+fp)+12[M(ffp)+M(f+fp)].\Psi(f) = \frac{A_p}{2} \delta(f - f_p) + \frac{A_p}{2} \delta(f + f_p) +\frac{1}{2} \left[ M(f - f_p) + M(f + f_p) \right].

Donc la largeur de bande du signal modulé est de 2B2B Hz.

Une illustration de la modification de la largeur de bande et de l’amplitude

Figure 18:Une illustration de la modification de la largeur de bande et de l’amplitude

Probabilité

Probabilité et la règle de Bayes

Les définitions ci-dessous forment la base de la théorie des probabilités, utilisée dans de nombreux domaines comme les statistiques, l’apprentissage automatique et les communications. Elles permettent de quantifier les incertitudes et d’effectuer des prédictions basées sur des observations. Nous les utiliserons principalement pour calculer l’énergie et la puissance des signaux.

Soit NN le nombre total d’événements dans un espace d’échantillonnage. Les notions clés associées à la probabilité sont expliquées ci-dessous :

Variables aléatoires

Une variable aléatoire nous permet de modéliser des événements aléatoires avec une règle d’association de valeurs. La fonction de distribution cumulative est un outil clé pour analyser les probabilités associées à ces variables, en respectant des propriétés fondamentales comme la continuité et la monotonie.

Définition: Variable aléatoire
Une variable aléatoire résulte de l’application d’une règle par laquelle une valeur est assignée à un événement.
Définition: Fonction de distribution cumulative
Fonction de distribution cumulative (Cumulative Distribution Function; CDF)} La fonction de distribution cumulative (ou CDF, pour Cumulative Distribution Function) est définie comme :
FX(x)=P(Xx),F_X(x) = P(X \leq x),
FX(x)F_X(x) représente la probabilité que la variable aléatoire XX soit inférieure ou égale à une valeur donnée xx.

Propriétés :

  1. 0FX(x)10 \leq F_X(x) \leq 1, pour tout xx.

  2. FX()=1F_X(\infty) = 1.

  3. FX()=0F_X(-\infty) = 0.

  4. FX(x1)FX(x2)F_X(x_1) \leq F_X(x_2), pour x1x2x_1 \leq x_2 (c’est-à-dire, FX(x)F_X(x) est une fonction non décroissante).

Définition: Fonction de densité de probabilité
La fonction de densité de probabilité (Probability Density Function; PDF) caractérise la distribution des probabilités pour une variable aléatoire continue. La PDF d’une variable aléatoire XX est définie comme étant la dérivée de la fonction de distribution cumulative (CDF) FX(x)F_X(x) :
pX(x)=dFX(x)dx.p_X(x) = \frac{dF_X(x)}{dx}.

Propriétés :

  1. pX(x)0p_X(x) \geq 0, pour tout xx.

  2. L’intégrale de pX(x)p_X(x) sur tout l’espace est égale à 1 :

    pX(x)dx=1.\int_{-\infty}^{\infty} p_X(x) \, dx = 1.
  3. La CDF FX(x)F_X(x) peut être exprimée comme l’intégrale de la PDF :

    FX(x)=xpX(α)dα.F_X(x) = \int_{-\infty}^{x} p_X(\alpha) \, d\alpha.

Les moyennes statistiques

Les moyennes statistiques sont des outils fondamentaux pour décrire et analyser les propriétés d’une variable aléatoire. Ces outils sont essentiels pour caractériser le comportement statistique des systèmes aléatoires.

  1. La valeur moyenne (ou espérance ) d’une variable aléatoire XX est donnée par :

    X=E[X]=xpX(x)dx,\overline{X} = E[X] = \int_{-\infty}^\infty x \, p_X(x) \, dx,

    E[X]E[X] représente l’espérance de XX, pX(x)p_X(x) est sa PDF. Cette moyenne représente la valeur centrale attendue de XX.

  2. Si une fonction g(X)g(X) est appliquée à une variable aléatoire XX, la moyenne de cette fonction g(X)g(X) est donnée par :

    E[g(X)]=g(x)pX(x)dx.E[g(X)] = \int_{-\infty}^\infty g(x) \, p_X(x) \, dx.

    Cela permet de calculer l’espérance de transformations non linéaires de XX.

  3. La variance mesure la dispersion d’une variable aléatoire autour de sa moyenne. Elle est définie par :

    σX2=E[(XX)2]=(xX)2pX(x)dx,\sigma_X^2 = E[(X - \overline{X})^2] = \int_{-\infty}^\infty (x - \overline{X})^2 \, p_X(x) \, dx,

    σX2\sigma_X^2 est la variance de XX, et X\overline{X} est la valeur moyenne de XX.

Puissance d’une variable aléatoire

La puissance d’une variable aléatoire XX, définie comme

PX=E[X2]P_X = E[X^2]

Distribution gaussienne (normal)

La distribution gaussienne (ou loi normale) est l’une des distributions les plus importantes en probabilité et statistiques.

Propriétés :

Une distribution gaussienne avec une moyenne \mu et une variance \sigma^2=4.

Figure 19:Une distribution gaussienne avec une moyenne μ et une variance σ2=4\sigma^2=4.

Signaux aléatoires

Définition: Signal aléatoire
Un signal aléatoire est une réalisation particulière ou une trajectoire d’un processus aléatoire.
Définition: Processus aléatoire
Un processus aléatoire peut être défini simplement comme un ensemble de variables aléatoires.  On dit d’un processus aléatoire qu’il est stationnaire au sens strict lorsque les moyennes statistiques d’ensemble ne changent pas dans le temps. Lorsqu’on ne considère que les deux premiers moments, on parlera de stationnarité au sens large.

Un processus aléatoire est ergodique lorsque les moyennes statistiques d’ensemble sont égales aux moyennes statistiques dans le temps de chacune des variables qui le composent.

Autocorrélation

L’autocorrélation d’un processus aléatoire x(t)x(t) mesure la similitude entre les valeurs du processus à deux instants différents, séparés par un décalage τ. Pour le décalage temporel τ, elle est définie par l’expression suivante :

RX(τ)=E[x(t)x(t+τ)].R_X(\tau) = E[x(t)x(t + \tau)].

Cette équation analyse la corrélation temporelle des valeurs du processus.

Une illustration de l’autocorrélation d’une réalisation d’un signal aléatoire

Figure 20:Une illustration de l’autocorrélation d’une réalisation d’un signal aléatoire

Spectre de densité de puissance

Le spectre de densité de puissance (power spectral density; PSD) est un outil clé pour analyser la répartition de la puissance d’un signal dans le domaine fréquentiel.

La puissance moyenne d’un signal aléatore peut être exprimée e à l’aide de la fonction de densité de puissance Sg(f)S_g(f) , définie comme :

Pg=limTEgT=limTG(f)2T=Sg(f)df,P_g = \lim_{T \to \infty} \frac{E_g}{T} = \int_{-\infty}^\infty \lim_{T \to \infty} \frac{|G(f)|^2}{T} = \int_{-\infty}^\infty S_g(f) \, df,

Sg(f)S_g(f) est le spectre de densité de puissance obtenu en prenant la limite lorsque TT \to \infty . Notez que G(f)2/T|G(f)|^2/T représente la densité spectrale de puissance.

La puissance moyenne du signal dans une bande de fréquence spécifique [f1,f2][f_1, f_2] est donnée par :

P[f1,f2]=2×f1f2Sg(f)df.P_{[f_1, f_2]} = {\textcolor{red}2} \times \int_{f_1}^{f_2} S_g(f) \, df.
Une illustration de la puissance moyenne du signal dans la bande [f_1, f_2]

Figure 20:Une illustration de la puissance moyenne du signal dans la bande [f1,f2][f_1, f_2]

Relation entre autocorrélation et spectre de densité de puissance

L’autocorrélation et le spectre de densité de puissance d’un signal aléatoire sont reliés par une transformée de Fourier :

Rg(τ)    Sg(f),R_g(\tau) \iff S_g(f),

Rg(τ)R_g(\tau) est la fonction d’autocorrélation dans le domaine temporel et Sg(f)S_g(f) est le spectre de densité de puissance dans le domaine fréquentiel.

Cette relation signifie que :

Filtrage d’un signal aléatoire

Lorsqu’un signal aléatoire traverse un système linéaire invariant dans le temps (LTI), le comportement du signal en sortie peut être analysé à l’aide des propriétés du système, caractérisé par sa réponse impulsionnelle h(t) h(t) ou sa réponse fréquentielle H(f) H(f) .

Soit le spectre de densité de puissance d’entrée représenté par Sx(f) S_x(f), et le système est caractérisé par h(t)h(t), la réponse impulsionnelle (ou H(f) H(f) , la réponse fréquentielle)

Le spectre de densité de puissance en sortie est donné par :

Sy(f)=Sx(f)H(f)2.S_y(f) = S_x(f) |H(f)|^2.
La sortie d’un système LTI pour une entrée x(t) avec un spectre de densité de puissance de  S_x(f).

Figure 22:La sortie d’un système LTI pour une entrée x(t)x(t) avec un spectre de densité de puissance de Sx(f)S_x(f).

Resumé

Dans cette section, nous abordons O2 application des outils d’analyse spectrale pour résoudre des problèmes liés aux procédures de transmission. L’analyse spectrale joue un rôle fondamental dans la conception et l’optimisation des systèmes de communication. En représentant les signaux dans le domaine fréquentiel, les ingénieur.e.s peuvent mieux comprendre le contenu spectral et le comportement des signaux transmis. Cette approche facilite l’identification des éléments essentiels tels que la bande passante, la distribution de puissance et le contenu fréquentiel. Les outils spectraux permettent également de concevoir des filtres efficaces pour éliminer les fréquences indésirables, allouer les ressources de manière optimale et réduire les interferences. Ces techniques sont indispensables pour garantir une transmission fiable et efficace des signaux dans les réseaux de communication modernes.