Chapitre 3 - Filtres et analyse fr ´equentielle
On se concentre dans ce chapitre sur une analyse des quatre types de filtres : passe-bas passe-haut
IMN317 - Chapitre 3 - Analyse fréquentielle
23 sept. 2013 Plan du chapitre. 1. Transformée de Fourier à temps discret. 2. Transformée en z. 3. Classification des filtres. Analyse fréquentielle.
Traitement du signal
1 sept. 2016 ANALYSE FREQUENTIELLE DES SIGNAUX ET SYSTEMES NUMERIQUES. 3 ... Chap. 3):. 1 Ceci définit en fait un signal numérique scalaire.
Mémoire de Magister en Electronique biomédicale
par la db4 (c) signal filtré par la db4
Chapitre 3 Synthèse des filtres non récursifs
Analyse et synthèse des filtres numériques 5 Réponses fréquentielles et impulsionnelles idéales ... Chap.3 – Synthèse des filtres non récursifs ...
Filtres
CHAPITRE 3. FILTRES ET ANALYSE FRéQUENTIELLE. 2. Largeur de bande : la largeur de la bande passante. 3. Facteur de qualité Q :.
Chapitre III : Réponse indicielle dun système linéaire 1. Définitions
Les analyses fréquentielle et temporelle conduisent l'une et l'autre
Analyse fréquentielle
3. Analyse fréquentielle. Le théorème de Fourier permet de décomposer Etudions le comportement des filtres passifs rencontrés au début de ce chapitre.
IMN 318 – Traitement de laudionumérique
Filtres ; Analyse fréquentielle d'un système LTI ; Transformée locale (à court terme) ; Fenêtrage ; Spectrogramme. 5. 1 2
Cours Signal Aléatoire
1.6.2 Filtrage d'un signal aléatoire stationnaire au sens large : analyse fréquentielle . . . . . . 18. 1.6.3 Quelquesconséquentesimmédiates .
Cours Signal Aléatoire
Polytech Annecy-Chambéry
IAI - Semestre 7 - EASI 742
Guillaume GINOLHAC
2017-18
Table des matières
1 Signaux aléatoires3
1.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31.1.2 Probabilité d"un événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31.1.3 Cas des variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41.1.4 Cas des variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . .
41.1.5 Exemples de densités de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . .
41.1.6 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51.2 Définition d"un signal aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61.3 Propriétés statistiques d"un signal aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71.3.1 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71.3.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71.3.3 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71.3.4 Valeur moyenne et fonctions de corrélation d"un signal aléatoire . . . . . . . . . . . . .
91.4 Propriétés temporelles d"un signal aléatoire : ergodisme . . . . . . . . . . . . . . . . . . . . . .
121.4.1 Ergodisme au premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121.4.2 Ergodisme au deuxième ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121.5 Représentation fréquentielle d"un signal aléatoire stationnaire au sens large . . . . . . . . . . .
131.5.1 Densité spectrale de puissance d"un signal aléatoire centré stationnaire . . . . . . . . . .
131.5.2 Propriétés de la densité spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . .
161.5.3 Largeur de bande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
171.6 Opération linéaire sur signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
171.6.1 Filtrage d"un signal aléatoire stationnaire au sens large : analyse temporelle . . . . . . .
181.6.2 Filtrage d"un signal aléatoire stationnaire au sens large : analyse fréquentielle . . . . . .
181.6.3 Quelques conséquentes immédiates . . . . . . . . . . . . . . . . . . . . . . . . . . . .
181.6.4 Formule de cohérence et des interférences . . . . . . . . . . . . . . . . . . . . . . . . .
202 Estimation23
2.1 Définitions générales relatives à l"estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
232.2 Estimation de la fonction d"autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
252.2.1 Estimateur non biaisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
252.2.2 Estimateur biaisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
262.3 Estimation de la DSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
272.3.1 Principe de l"analyse spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
272.3.2 Mise en oeuvre pratique : méthode de Welch . . . . . . . . . . . . . . . . . . . . . . .
282.3.3 Qualité de l"estimation spectrale par la méthode de Welch . . . . . . . . . . . . . . . .
301
2TABLE DES MATIÈRES
3 Filtrage Adaptatif33
3.1 Rappels mathématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
333.1.1 Algèbre matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
333.1.2 Gradient fonction à plusieurs variables . . . . . . . . . . . . . . . . . . . . . . . . . . .
343.1.3 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
353.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
353.2.1 Débruitage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
353.2.2 Déconvolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
363.3 Filtre de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
383.4 Moindres carrés exacts et pondérés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
393.5 Moindres carrés récursifs (RLS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
413.6 Filtrage adaptatif par algorithme du gradient (LMS) . . . . . . . . . . . . . . . . . . . . . . . .
42Chapitre 1
Signaux aléatoires
Les fonctions déterministes étudiées jusqu"ici permettent de décrire les signaux certains dont la forme est
parfaitement connue. C"est le cas par exemple pour un signal émis en radar ou en sonar actif dont la forme est
choisie pour obtenir certaines propriétés (codes permettant d"améliorer la résolution des mesures de distance,
de Doppler...). Mais la plupart des signaux proviennent de capteurs qui mesurent des niveaux avec une certaine
incertitude qui peut être liée :au capteur l uimême : bruit de mesure, bruit "électronique". ..Latension déli vréepar un micro n"est par
exemple jamais vraiment nulle, même en l"absence de source sonore.à des v ariationsde la grandeur ph ysiquemesurée dues à des phénomènes imprévisibles : bruit ambiant,
sources parasites...Un micro utilisé en extérieur enregistre inévitablement un ensemble de variations de
pression autre que le signal recherché : bruit de fond, vent, sources fortes dans des directions insuffisam-
ment atténuées...au manque de connaissance sur le signal recherché : en sonar passif, le "bruit" rayonné par les bâtiments
permet de les détecter bien que la forme du signal soit complètement inconnue.Pour décrire ce type de signaux, on utilise les fonctions aléatoires. Nous étendons ici aux signaux aléatoires les
notions de corrélation, de transformée de Fourier et de filtrage développées dans le cours précédent.
Mais on commence par quelques rappels sur les variables aléatoires.1.1 Variables aléatoires
1.1.1 Définitions
Notations et terminologie :
-X: variable aléatoire discrète (nTe) ou continue (t) -x: événement associé à une variable aléatoire : espace des événements -AetB: événements disjoints Exemples assez connus : dé, lancer de fléchette, ...1.1.2 Probabilité d"un événement
Définition de la probabilité d"un événement :P= limN!+1Nombre de cas favorablesN
(1.1)Propriétés : additivité deP,P(
) = 1,0P(A)1 3CHAPITRE 1. SIGNAUX ALÉATOIRES
1.1.3 Cas des variables aléatoires discrètes
Définition de la probabilité d"un événement pour le cas discret :P(X=xi) = limN!+1N
iN (1.2)Propriétés :
-P(X2 fx1;:::;xLg) =LX i=1P(X=xi) NX i=1P(X=xi) = 11.1.4 Cas des variables aléatoires continues
Définition de la probabilité d"un événement pour le cas continu :P(x < X < x+dx) = limN!+1dN
xN =f(x)dx;(1.3) avecf(x)densité de probabilité (ddp).Propriétés :
-f(x)0pour toutx -P(a < X < b): P(a < X < b) = limx!0P[(x1=a < X < x1+ x)[:::[(xI< X < xI+ x=b)] = lim x!0 PI i=1P[xi< X < xi1+ x] = lim x!0 PI i=1f(xi)x Rb af(x)dx (1.4) -R+11f(x)dx= 1
1.1.5 Exemples de densités de probabilités
Sur la figure 1.1(a), on voit la ddp d"une v.a. uniforme entreaetb: f(x) = [a;b]:1ba(1.5) Sur la figure 1.1(b), on voit la ddp d"une v.a. gaussienne de moyennemet d"écart type: f(x) =1 p2exp 12 xm 2! (1.6)L"intérêt de la v.a. aléatoire gaussienne est double : elle représente très bien de nombreux phénomènes de la vie
courante (naturelle, electronique,:::) et sa forme mathématique permet de nombreux calculs. Polytech Annecy-Chambéry - IAI S7 4 Signal Aléatoire - EASI 7421.1. VARIABLES ALÉATOIRES
(a) ddp loi uniforme aveca= 2etb= 5(b) ddp loi gaussienne de moyennem= 2et d"écart type= 1. Le maximum est1 p2. La largeur du pic est égal à la moitié du maximum à2p2ln(2)FIGURE1.1 - ddp de deux lois très connues.
1.1.6 Espérance mathématique
Définition
Soitxdes réalisations d"une variable aléatoireX(de ddpf(x)en continu et prenant les valeursfxig1;Nen
discret), alors on définit l"espérance deXcomme :E[X] =Rxf(x)dx
E[X] =PN
i=1p(X=xi)xi(1.7)Nous avons aussi la propriété suivante :
E[g(X)] =Rg(x)f(x)dx
E[g(X)] =PN
i=1p(X=xi)g(xi)(1.8)Propriétés fondamentales de l"espérance
Soit une constante, alorsE[] =
Soit une constante etXune v.a., alorsE[X] =E[X]
Linéarité : soit XetYdeux v.a., alorsE[X+Y] =E[X] +E[Y]Moments
SoitX, une v.a., nous pouvons calculer ces différentes grandeurs : ordre 1 : E[X] =mX ordre 2 : E[X2] V ariance: E[(XmX)2] =E[X2] +m2X2E[X]mX=E[X2]m2X=2XRemarques :la v ariancemesure la dispersion des résultats autour de la v aleurmo yenne.Analogue à une mesure de
puissance. une v .a.g aussienneest entièrement caractérisée par mXetX Polytech Annecy-Chambéry - IAI S7 5 Signal Aléatoire - EASI 742CHAPITRE 1. SIGNAUX ALÉATOIRES
Exemples : 3 calculs d"espérance
Soit Xune v.a. discrète prenant comme valeur 0, 1 et -1 avec comme probabilitép1= 0:5,p2= 0:25et
p3= 0:25. CalculezE[X]etE[X2].
Soit une v.a. continue uniforme sur[0;2]. CalculezE[Y]etE[Y2]avecY= sin(2pift+). Soit Xune v.a. continue gaussienne de moyenne m et de variance2. Calculez la moyenne et la variance deY=XmCorrélation d"une v.a.
SoitXetYdeux v.a. de moyennemXetmY(on définit aussiXc=XmXetYc=Ymy), on définit différentes grandeurs : corrélation : XY=E[XY] co variance: E[XcYc] =E[(XmX)(YmY)] = XYmXmY coef ficientde corrélation : =E[XcYc]XY. On peut montrer que (Cf TD n1) :
11(1.9)
Plusjjest grand, plusXetYest se ressemblent (plus exactementYpeut s"approximer par une trans- formation linéaire deX). Mais attention corrélation ne signifie pas causalité.Variables décorrélées :SoitXetYdeux v.a., on dit qu"elles sont décorrélées quandXY=E[XY] =
E[X]E[Y], ce qui équivaut àE[XcYc] = 0.
1.2 Définition d"un signal aléatoire
Concept d"un signal aléatoireX(t):c"est un ensemble de variables aléatoires paramétrées par le tempst.
Deux cas sont possibles :
-tvarie continuement :X(t)v.a. à temps continu-test discret et ne prend que certaines valeurs :X(t)v.a. à temps discret. On noteraX(n). Obtenus à
partir d"un signal aléatoire continuX(n) =X(nTe)Exemples :on enregistre par exemple à l"aide d"accéléromètres les vibrations d"un objet en déplacement. Les
signaux obtenus sont fonctions de plusieurs paramètres tels que la position du capteur, les matériaux, la vitesse
de déplacement... En réalisant des mesures plusieurs fois dans les mêmes conditions expérimentales, on obtient
plusieurs réalisations pour chacun des signaux aléatoires.La figure 1.2 illustre deux signaux aléatoiresX1(t)etX2(t)mesurés respectivement à une extrémité de
l"objet (capteur 1) et au centre de l"objet (capteur 2) comme montré dans la figure 1.2. Le tracé de la réali-
sation 1 du capteur 1,x1(t), montre un signal irrégulier, sans forme ou périodicité apparente. Le tracé de la
seconde réalisation,x1(t), présente la même allure d"ensemble mais ne se superpose absolument pas avec le
premier tracé. Les réalisations du signal issus du capteur 2,x2(t)etx2(t), présentent également une certaine
ressemblance entre elles alors qu"elles sont très différentes de celles issues du capteur 1.La ressemblance entre les tracés obtenus dans les mêmes conditions expérimentales est due à des gran-
deurs caractéristiques des processus aléatoires (variance, corrélation, densité spectrale...). Ces grandeurs sont
elles-mêmes liées aux paramètres physiques (tension, rugosité...) que l"on souhaite étudier. Les méthodes dé-
veloppées en traitement du signal permettent d"extraire des signaux aléatoires des informations très diverses
pour des applications aussi variées que la détection et la classification de bateaux en acoustique sous-marine ou
le réglage de la tension de courroies de transmission dans l"automobile. Polytech Annecy-Chambéry - IAI S7 6 Signal Aléatoire - EASI 7421.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE
1.3 Propriétés statistiques d"un signal aléatoire
1.3.1 Lois
Loi à l"ordre un
On connait la loi d"ordre un d"un signal aléatoireX(t)si on connait la loi (ou sa ddp) de la v.a.X(t1)pour
toutes les valeurs det1.Loi d"ordreN
On connait la loi d"ordreNd"un signal aléatoireX(t)si on connait la ddpf(X(t1);:::;X(tN))jointe des
Nv.a.X(t1);:::;X(tN)pour tous les instants det1;:::;tN.Loi deX(t)
On connait la loi deX(t)si on connait sa loi à tous les ordres1.3.2 Indépendance
Définition :Deux signaux aléatoiresX(t)etY(t)sont indépendants ssi les ensembles des variables aléatoires
(X(t1);:::X(tM))et(Y(t01);:::Y(t0(n)))sont indépendants8t1:::tM,8t01; :::t0(n),8M,8N. Dans ce cas on
a :f(X(t1);:::X(tM);Y(t01);:::Y(t0(n))) =f(X(t1);:::X(tM)):f(Y(t01);:::Y(t0(n))).Interprétation : Quand mécanismes liés à la génération deX(t)etY(t)sont différents, les signaux aléatoires
associéssont souventindépendants.Par exemple,un microenregistreleson d"unevoix ainsi quelebruit duvent.
Ces deux phénomènes sont distincts et donc entrainent des s.a. indépendants.1.3.3 Stationnarité
Stationnarité du premier ordre
Un processusX(t)est stationnaire au premier ordre quand sa moyenne statistique (son espérance) est indé-
pendante du temps :E[X(t)] =E(X)8t(1.10)
Exemple : on considère deux variables aléatoires indépendantes!de d.d.pf!(!)etqui suit une loi
Polytech Annecy-Chambéry - IAI S7 7 Signal Aléatoire - EASI 742 CHAPITRE 1. SIGNAUX ALÉATOIRES00.010.020.030.040.050.060.070.080.090.1 -0.1 -0.05 0 0.05 0.1Capteur 1
REALISATION 1
00.010.020.030.040.050.060.070.080.090.1
-0.1 -0.05 0 0.05 0.1Capteur 2
temps (s)00.010.020.030.040.050.060.070.080.090.1
-0.1 -0.05 0 0.05 0.1Capteur 1
REALISATION 2
00.010.020.030.040.050.060.070.080.090.1
-0.1 -0.05 0 0.05 0.1Capteur 2
temps (s)FIGURE1.2 - Différentes réalisations de 2 fonctions aléatoires Polytech Annecy-Chambéry - IAI S7 8 Signal Aléatoire - EASI 7421.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE
uniforme sur[0;2]et la fonction aléatoireX(t) = cos(!t+). L"espérance à un instanttvaut : E (!;)[X(t)] =Z +1 1Z 2012f!(!) cos(!t+)dd!
Z +1 1f !(!)2 Z2 0 cos(!t+)d d! = 0 La moyenne est indépendante du temps, le processus est stationnaire d"ordre 1.Stationnarité du second ordre
Un processusX(t)est stationnaire au second ordre quand : il est stationnaire au premier ordre, sa co varianceE[X(t1)X(t2)]ne dépend que de l"écart entre les deux instants=t2t1:E[X(t1):X(t2)] =g(t2t1) =g()8t1; t2(1.11)
oùg()est une fonction paire (g() =g()).Exemple : on vérifie que le processus précédent est également stationnaire au second ordre :
E (!;)[X(t1):X(t2)] =Z +1 1Z 2012f!(!) cos(!t1+)cos(!t2+)dd!
Z +1 1f !(!)212 Z2 0 cos(!(t2t1)) + cos(!(t2+t1) + 2)d d! Z +1 112cos(!(t2t1))f!(!)d! =g(t2t1) avec R+2
0cos(!(t2+t1) + 2)d= 0etcosacosb=cos(ab)+cos(a+b)2
Stationnarité d"ordreN
Un processusX(t)est stationnaire à l"ordreNsi les lois jointes de(X(t1);:::;X(tN))et de(X(t1+ );:::;X(tN+))sont identiques pour tous les instantst1;:::;tNet.Lorsque un processus est stationnaire à tous les ordres, on dit qu"il est stationnaire au sens strict.
Conséquences : la densité de probabilité de la variable aléatoireX(t)et tous ses moments (espérance,
variance...) sont indépendants du temps.Interprétation :un signal aléatoire stationnaire présente une certaine homogénéité, comme par exemple, ce
signal stationnaire présentée dans la figure 1.3(a). Sur la figure 1.3(b), on peut voir un exemple de signal non
stationnaire.1.3.4 Valeur moyenne et fonctions de corrélation d"un signal aléatoire
Souvent, on n"a pas besoin de connaitre la loi (de toute façon impossible d"estimer toutes les lois à l"ordre
N) d"un signal aléatoireX(t): sa moyenne et ses moments d"ordre 2 suffisent. Polytech Annecy-Chambéry - IAI S7 9 Signal Aléatoire - EASI 742CHAPITRE 1. SIGNAUX ALÉATOIRES
(a) réalisation d"un signal stationnaire(b) réalisation d"un signal non stationnaire FIGURE1.3 - Interprétation de la stationnarité à l"ordre 2.Moyenne signal aléatoire
C"est le signalm(t)défini pour touttpar :
m(t) =E[X(t)](1.12) Fonctions d"autocorrélation et d"autocovariance La fonction d"autocorrélation est définie par : (t1;t2) =E[X(t1)X(t2)](1.13) La fonction d"intercovariance est définie par : r(t1;t2) =E[(X(t1)m1)(X(t2)m2)] = (t1;t2)m(t1)m(t2)(1.14)Lorsqu"on a deux signaux aléatoires on peut définir des fonctions d"intercorrélation et d"intercovariance. La
fonction d"intercorrélation est définie par :XY(t1;t2) =E[X(t1)Y(t2)](1.15)
La fonction d"intercovariance est définie par : rXY(t1;t2) =E[(X(t1)m1)(Y(t2)m2)] =
XY(t1;t2)mX(t1)mY(t2)(1.16)
Remarque :attention dans ce cours, nous supposons que les signaux sont réels. Dans le cas de signaux com-
plexes, les formules changent légèrement avec l"introduction d"un conjugué sur l"un des termes de l"espérance.
On rencontre des signaux complexes quand ils sont démodulés comme en télécoms, Radar/Sonar, Imagerie
SAR, ...
Stationnarité au sens large
La stationnarité au sens strict est très restrictive. En général, on a seulement besoin de la stationnarité des
moments d"ordre 1 et 2. On parle alors de stationnarité au sens large. Polytech Annecy-Chambéry - IAI S7 10 Signal Aléatoire - EASI 7421.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE
Définition :X(t)est stationnaire au sens large si : -E[X(t)] =mavecmune constante -E[X(t)X(t)] =On a alors aussi :r() =E[(X(t)m)(X(t)m)] =
()m2De même,X(t)etY(t)sont stationnaires au sens large dans leur ensemble ssi ils sont stationnaires tous les
deux et siE[X(t)Y(t)] = XY().On supposera par la suite que les signaux sont stationnaires au sens large. Cette propriété permet de résoudre
la majeure partie des problématiques.Propriétés
Theorem 1.3.1SoitX(t)un signal aléatoire stationnaire au sens large, nous avons les propriétés suivantes
pour la fonction d"autocorrélation (on a des propriétés identiques pour la fonction d"autocovariance) :
P1 : (0) =E(jX(t)j2)(puissance du signal) P2 : ()(symétrie hermitienne en complexe, paire en réel)P3 : j
()j (0) PROOF. Cf TD.Somme de deux signaux aléatoires stationnaires décorrélésOn a souvent :
X(t) =S(t) +B(t);(1.17)
avecS(t)signal utile etB(t)bruit. Ces deux signaux aléatoires sont souvent indépendants et donc décorrélés
(attention l"inverse n"est pas toujours vraie). On a alors : -mX=mS+mB X() = S() + B() La preuve est évidente et peut être faite en exemple.Recherche d"une sinusoïde
On recherche une sinusoïde de fréquence inconnue, noyée dans un bruit gaussien centré stationnaire de
longueur de corrélationlc. La longueur de corrélation d"une fonction aléatoire est le décalage temporel au delà
duquel on peut considérer que les v.a.B(t)etB(t+)sont décorrélées, soit : bb() =E[B(t):B(t)] = 0pourjj> lcLe signal reçu s"écrit sous la forme :
x(t) =s(t) +b(t)où b(t) est une réalisation du bruit ets(t) =Acos(2fot). On calcule la fonction de corrélation
xx() = ss() + bb() le termexb()étant nul (hypothèse de décorrélation du signal et du bruit). En se plaçant à un retard > lc, on
obtient sous l"hypothèse de stationnarité : xx() = ss() =A22 cos(2fo)pourjj> lc ce qui permet de mesurerfodirectement sur la périodicité de l"autocorrélation. Polytech Annecy-Chambéry - IAI S7 11 Signal Aléatoire - EASI 742CHAPITRE 1. SIGNAUX ALÉATOIRES
1.4 Propriétés temporelles d"un signal aléatoire : ergodisme
quotesdbs_dbs24.pdfusesText_30[PDF] DM n 3 : Circuit RLC parall`ele
[PDF] Polycopié de cours et d 'exercices dirigés 1ère partie
[PDF] GRAND NANCY ? vélo - les balades ? vélo dans l 'agglomération
[PDF] Circuito Paralelo
[PDF] el circuito mixto - Repositorio Institucional del Servicio Nacional de
[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE
[PDF] Corriente continua : Condensadores y circuitos RC - U-Cursos
[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE
[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE
[PDF] Circuitos electrónicos - DIWO
[PDF] Exercices corrigés (architecture ordinateurs et circuits logiques)
[PDF] Application des dispositions du décret n° 85-603 - Circulairesgouvfr
[PDF] Application de la loi n° 2016-274 du 7 mars - Circulairesgouvfr
[PDF] circulaire aux etablissements de credit n° 91-24 du 17 - BCT