[PDF] Cours Signal Aléatoire 1.6.2 Filtrage d'





Previous PDF Next PDF



Chapitre 3 - Filtres et analyse fr ´equentielle

On se concentre dans ce chapitre sur une analyse des quatre types de filtres : passe-bas passe-haut



IMN317 - Chapitre 3 - Analyse fréquentielle

23 sept. 2013 Plan du chapitre. 1. Transformée de Fourier à temps discret. 2. Transformée en z. 3. Classification des filtres. Analyse fréquentielle.



Traitement du signal

1 sept. 2016 ANALYSE FREQUENTIELLE DES SIGNAUX ET SYSTEMES NUMERIQUES. 3 ... Chap. 3):. 1 Ceci définit en fait un signal numérique scalaire.



Mémoire de Magister en Electronique biomédicale

par la db4 (c) signal filtré par la db4



Chapitre 3 Synthèse des filtres non récursifs

Analyse et synthèse des filtres numériques 5 Réponses fréquentielles et impulsionnelles idéales ... Chap.3 – Synthèse des filtres non récursifs ...



Filtres

CHAPITRE 3. FILTRES ET ANALYSE FRéQUENTIELLE. 2. Largeur de bande : la largeur de la bande passante. 3. Facteur de qualité Q :.



Chapitre III : Réponse indicielle dun système linéaire 1. Définitions

Les analyses fréquentielle et temporelle conduisent l'une et l'autre



Analyse fréquentielle

3. Analyse fréquentielle. Le théorème de Fourier permet de décomposer Etudions le comportement des filtres passifs rencontrés au début de ce chapitre.



IMN 318 – Traitement de laudionumérique

Filtres ; Analyse fréquentielle d'un système LTI ; Transformée locale (à court terme) ; Fenêtrage ; Spectrogramme. 5. 1 2



Cours Signal Aléatoire

1.6.2 Filtrage d'un signal aléatoire stationnaire au sens large : analyse fréquentielle . . . . . . 18. 1.6.3 Quelquesconséquentesimmédiates .

Cours Signal Aléatoire

Polytech Annecy-Chambéry

IAI - Semestre 7 - EASI 742

Guillaume GINOLHAC

2017-18

Table des matières

1 Signaux aléatoires3

1.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

1.1.2 Probabilité d"un événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

1.1.3 Cas des variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.1.4 Cas des variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.1.5 Exemples de densités de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.1.6 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

1.2 Définition d"un signal aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.3 Propriétés statistiques d"un signal aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3.1 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3.3 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1.3.4 Valeur moyenne et fonctions de corrélation d"un signal aléatoire . . . . . . . . . . . . .

9

1.4 Propriétés temporelles d"un signal aléatoire : ergodisme . . . . . . . . . . . . . . . . . . . . . .

12

1.4.1 Ergodisme au premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

1.4.2 Ergodisme au deuxième ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

1.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

1.5 Représentation fréquentielle d"un signal aléatoire stationnaire au sens large . . . . . . . . . . .

13

1.5.1 Densité spectrale de puissance d"un signal aléatoire centré stationnaire . . . . . . . . . .

13

1.5.2 Propriétés de la densité spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . .

16

1.5.3 Largeur de bande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

1.6 Opération linéaire sur signaux aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

1.6.1 Filtrage d"un signal aléatoire stationnaire au sens large : analyse temporelle . . . . . . .

18

1.6.2 Filtrage d"un signal aléatoire stationnaire au sens large : analyse fréquentielle . . . . . .

18

1.6.3 Quelques conséquentes immédiates . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

1.6.4 Formule de cohérence et des interférences . . . . . . . . . . . . . . . . . . . . . . . . .

20

2 Estimation23

2.1 Définitions générales relatives à l"estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2.2 Estimation de la fonction d"autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

2.2.1 Estimateur non biaisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

2.2.2 Estimateur biaisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

2.3 Estimation de la DSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.3.1 Principe de l"analyse spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.3.2 Mise en oeuvre pratique : méthode de Welch . . . . . . . . . . . . . . . . . . . . . . .

28

2.3.3 Qualité de l"estimation spectrale par la méthode de Welch . . . . . . . . . . . . . . . .

30
1

2TABLE DES MATIÈRES

3 Filtrage Adaptatif33

3.1 Rappels mathématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

3.1.1 Algèbre matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

3.1.2 Gradient fonction à plusieurs variables . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

3.1.3 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

3.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

3.2.1 Débruitage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

3.2.2 Déconvolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

3.3 Filtre de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

3.4 Moindres carrés exacts et pondérés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

3.5 Moindres carrés récursifs (RLS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

3.6 Filtrage adaptatif par algorithme du gradient (LMS) . . . . . . . . . . . . . . . . . . . . . . . .

42

Chapitre 1

Signaux aléatoires

Les fonctions déterministes étudiées jusqu"ici permettent de décrire les signaux certains dont la forme est

parfaitement connue. C"est le cas par exemple pour un signal émis en radar ou en sonar actif dont la forme est

choisie pour obtenir certaines propriétés (codes permettant d"améliorer la résolution des mesures de distance,

de Doppler...). Mais la plupart des signaux proviennent de capteurs qui mesurent des niveaux avec une certaine

incertitude qui peut être liée :

au capteur l uimême : bruit de mesure, bruit "électronique". ..Latension déli vréepar un micro n"est par

exemple jamais vraiment nulle, même en l"absence de source sonore.

à des v ariationsde la grandeur ph ysiquemesurée dues à des phénomènes imprévisibles : bruit ambiant,

sources parasites...Un micro utilisé en extérieur enregistre inévitablement un ensemble de variations de

pression autre que le signal recherché : bruit de fond, vent, sources fortes dans des directions insuffisam-

ment atténuées...

au manque de connaissance sur le signal recherché : en sonar passif, le "bruit" rayonné par les bâtiments

permet de les détecter bien que la forme du signal soit complètement inconnue.

Pour décrire ce type de signaux, on utilise les fonctions aléatoires. Nous étendons ici aux signaux aléatoires les

notions de corrélation, de transformée de Fourier et de filtrage développées dans le cours précédent.

Mais on commence par quelques rappels sur les variables aléatoires.

1.1 Variables aléatoires

1.1.1 Définitions

Notations et terminologie :

-X: variable aléatoire discrète (nTe) ou continue (t) -x: événement associé à une variable aléatoire : espace des événements -AetB: événements disjoints Exemples assez connus : dé, lancer de fléchette, ...

1.1.2 Probabilité d"un événement

Définition de la probabilité d"un événement :

P= limN!+1Nombre de cas favorablesN

(1.1)

Propriétés : additivité deP,P(

) = 1,0P(A)1 3

CHAPITRE 1. SIGNAUX ALÉATOIRES

1.1.3 Cas des variables aléatoires discrètes

Définition de la probabilité d"un événement pour le cas discret :

P(X=xi) = limN!+1N

iN (1.2)

Propriétés :

-P(X2 fx1;:::;xLg) =LX i=1P(X=xi) NX i=1P(X=xi) = 1

1.1.4 Cas des variables aléatoires continues

Définition de la probabilité d"un événement pour le cas continu :

P(x < X < x+dx) = limN!+1dN

xN =f(x)dx;(1.3) avecf(x)densité de probabilité (ddp).

Propriétés :

-f(x)0pour toutx -P(a < X < b): P(a < X < b) = limx!0P[(x1=a < X < x1+ x)[:::[(xI< X < xI+ x=b)] = lim x!0 PI i=1P[xi< X < xi1+ x] = lim x!0 PI i=1f(xi)x Rb af(x)dx (1.4) -R+1

1f(x)dx= 1

1.1.5 Exemples de densités de probabilités

Sur la figure 1.1(a), on voit la ddp d"une v.a. uniforme entreaetb: f(x) = [a;b]:1ba(1.5) Sur la figure 1.1(b), on voit la ddp d"une v.a. gaussienne de moyennemet d"écart type: f(x) =1 p2exp 12 xm 2! (1.6)

L"intérêt de la v.a. aléatoire gaussienne est double : elle représente très bien de nombreux phénomènes de la vie

courante (naturelle, electronique,:::) et sa forme mathématique permet de nombreux calculs. Polytech Annecy-Chambéry - IAI S7 4 Signal Aléatoire - EASI 742

1.1. VARIABLES ALÉATOIRES

(a) ddp loi uniforme aveca= 2etb= 5(b) ddp loi gaussienne de moyennem= 2et d"écart type= 1. Le maximum est1 p2. La largeur du pic est égal à la moitié du maximum à2p2ln(2)

FIGURE1.1 - ddp de deux lois très connues.

1.1.6 Espérance mathématique

Définition

Soitxdes réalisations d"une variable aléatoireX(de ddpf(x)en continu et prenant les valeursfxig1;Nen

discret), alors on définit l"espérance deXcomme :

E[X] =Rxf(x)dx

E[X] =PN

i=1p(X=xi)xi(1.7)

Nous avons aussi la propriété suivante :

E[g(X)] =Rg(x)f(x)dx

E[g(X)] =PN

i=1p(X=xi)g(xi)(1.8)

Propriétés fondamentales de l"espérance

Soit une constante, alorsE[] =

Soit une constante etXune v.a., alorsE[X] =E[X]

Linéarité : soit XetYdeux v.a., alorsE[X+Y] =E[X] +E[Y]

Moments

SoitX, une v.a., nous pouvons calculer ces différentes grandeurs : ordre 1 : E[X] =mX ordre 2 : E[X2] V ariance: E[(XmX)2] =E[X2] +m2X2E[X]mX=E[X2]m2X=2XRemarques :

la v ariancemesure la dispersion des résultats autour de la v aleurmo yenne.Analogue à une mesure de

puissance. une v .a.g aussienneest entièrement caractérisée par mXetX Polytech Annecy-Chambéry - IAI S7 5 Signal Aléatoire - EASI 742

CHAPITRE 1. SIGNAUX ALÉATOIRES

Exemples : 3 calculs d"espérance

Soit Xune v.a. discrète prenant comme valeur 0, 1 et -1 avec comme probabilitép1= 0:5,p2= 0:25et

p

3= 0:25. CalculezE[X]etE[X2].

Soit une v.a. continue uniforme sur[0;2]. CalculezE[Y]etE[Y2]avecY= sin(2pift+). Soit Xune v.a. continue gaussienne de moyenne m et de variance2. Calculez la moyenne et la variance deY=Xm

Corrélation d"une v.a.

SoitXetYdeux v.a. de moyennemXetmY(on définit aussiXc=XmXetYc=Ymy), on définit différentes grandeurs : corrélation : XY=E[XY] co variance: E[XcYc] =E[(XmX)(YmY)] = XYmXmY coef ficientde corrélation : =E[XcYc]

XY. On peut montrer que (Cf TD n1) :

11(1.9)

Plusjjest grand, plusXetYest se ressemblent (plus exactementYpeut s"approximer par une trans- formation linéaire deX). Mais attention corrélation ne signifie pas causalité.

Variables décorrélées :SoitXetYdeux v.a., on dit qu"elles sont décorrélées quandXY=E[XY] =

E[X]E[Y], ce qui équivaut àE[XcYc] = 0.

1.2 Définition d"un signal aléatoire

Concept d"un signal aléatoireX(t):c"est un ensemble de variables aléatoires paramétrées par le tempst.

Deux cas sont possibles :

-tvarie continuement :X(t)v.a. à temps continu

-test discret et ne prend que certaines valeurs :X(t)v.a. à temps discret. On noteraX(n). Obtenus à

partir d"un signal aléatoire continuX(n) =X(nTe)

Exemples :on enregistre par exemple à l"aide d"accéléromètres les vibrations d"un objet en déplacement. Les

signaux obtenus sont fonctions de plusieurs paramètres tels que la position du capteur, les matériaux, la vitesse

de déplacement... En réalisant des mesures plusieurs fois dans les mêmes conditions expérimentales, on obtient

plusieurs réalisations pour chacun des signaux aléatoires.

La figure 1.2 illustre deux signaux aléatoiresX1(t)etX2(t)mesurés respectivement à une extrémité de

l"objet (capteur 1) et au centre de l"objet (capteur 2) comme montré dans la figure 1.2. Le tracé de la réali-

sation 1 du capteur 1,x1(t), montre un signal irrégulier, sans forme ou périodicité apparente. Le tracé de la

seconde réalisation,x1(t), présente la même allure d"ensemble mais ne se superpose absolument pas avec le

premier tracé. Les réalisations du signal issus du capteur 2,x2(t)etx2(t), présentent également une certaine

ressemblance entre elles alors qu"elles sont très différentes de celles issues du capteur 1.

La ressemblance entre les tracés obtenus dans les mêmes conditions expérimentales est due à des gran-

deurs caractéristiques des processus aléatoires (variance, corrélation, densité spectrale...). Ces grandeurs sont

elles-mêmes liées aux paramètres physiques (tension, rugosité...) que l"on souhaite étudier. Les méthodes dé-

veloppées en traitement du signal permettent d"extraire des signaux aléatoires des informations très diverses

pour des applications aussi variées que la détection et la classification de bateaux en acoustique sous-marine ou

le réglage de la tension de courroies de transmission dans l"automobile. Polytech Annecy-Chambéry - IAI S7 6 Signal Aléatoire - EASI 742

1.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE

1.3 Propriétés statistiques d"un signal aléatoire

1.3.1 Lois

Loi à l"ordre un

On connait la loi d"ordre un d"un signal aléatoireX(t)si on connait la loi (ou sa ddp) de la v.a.X(t1)pour

toutes les valeurs det1.

Loi d"ordreN

On connait la loi d"ordreNd"un signal aléatoireX(t)si on connait la ddpf(X(t1);:::;X(tN))jointe des

Nv.a.X(t1);:::;X(tN)pour tous les instants det1;:::;tN.

Loi deX(t)

On connait la loi deX(t)si on connait sa loi à tous les ordres

1.3.2 Indépendance

Définition :Deux signaux aléatoiresX(t)etY(t)sont indépendants ssi les ensembles des variables aléatoires

(X(t1);:::X(tM))et(Y(t01);:::Y(t0(n)))sont indépendants8t1:::tM,8t01; :::t0(n),8M,8N. Dans ce cas on

a :f(X(t1);:::X(tM);Y(t01);:::Y(t0(n))) =f(X(t1);:::X(tM)):f(Y(t01);:::Y(t0(n))).

Interprétation : Quand mécanismes liés à la génération deX(t)etY(t)sont différents, les signaux aléatoires

associéssont souventindépendants.Par exemple,un microenregistreleson d"unevoix ainsi quelebruit duvent.

Ces deux phénomènes sont distincts et donc entrainent des s.a. indépendants.

1.3.3 Stationnarité

Stationnarité du premier ordre

Un processusX(t)est stationnaire au premier ordre quand sa moyenne statistique (son espérance) est indé-

pendante du temps :

E[X(t)] =E(X)8t(1.10)

Exemple : on considère deux variables aléatoires indépendantes!de d.d.pf!(!)etqui suit une loi

Polytech Annecy-Chambéry - IAI S7 7 Signal Aléatoire - EASI 742 CHAPITRE 1. SIGNAUX ALÉATOIRES00.010.020.030.040.050.060.070.080.090.1 -0.1 -0.05 0 0.05 0.1

Capteur 1

REALISATION 1

00.010.020.030.040.050.060.070.080.090.1

-0.1 -0.05 0 0.05 0.1

Capteur 2

temps (s)

00.010.020.030.040.050.060.070.080.090.1

-0.1 -0.05 0 0.05 0.1

Capteur 1

REALISATION 2

00.010.020.030.040.050.060.070.080.090.1

-0.1 -0.05 0 0.05 0.1

Capteur 2

temps (s)FIGURE1.2 - Différentes réalisations de 2 fonctions aléatoires Polytech Annecy-Chambéry - IAI S7 8 Signal Aléatoire - EASI 742

1.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE

uniforme sur[0;2]et la fonction aléatoireX(t) = cos(!t+). L"espérance à un instanttvaut : E (!;)[X(t)] =Z +1 1Z 2

012f!(!) cos(!t+)dd!

Z +1 1f !(!)2 Z2 0 cos(!t+)d d! = 0 La moyenne est indépendante du temps, le processus est stationnaire d"ordre 1.

Stationnarité du second ordre

Un processusX(t)est stationnaire au second ordre quand : il est stationnaire au premier ordre, sa co varianceE[X(t1)X(t2)]ne dépend que de l"écart entre les deux instants=t2t1:

E[X(t1):X(t2)] =g(t2t1) =g()8t1; t2(1.11)

oùg()est une fonction paire (g() =g()).

Exemple : on vérifie que le processus précédent est également stationnaire au second ordre :

E (!;)[X(t1):X(t2)] =Z +1 1Z 2

012f!(!) cos(!t1+)cos(!t2+)dd!

Z +1 1f !(!)212 Z2 0 cos(!(t2t1)) + cos(!(t2+t1) + 2)d d! Z +1 112
cos(!(t2t1))f!(!)d! =g(t2t1) avec R+2

0cos(!(t2+t1) + 2)d= 0etcosacosb=cos(ab)+cos(a+b)2

Stationnarité d"ordreN

Un processusX(t)est stationnaire à l"ordreNsi les lois jointes de(X(t1);:::;X(tN))et de(X(t1+ );:::;X(tN+))sont identiques pour tous les instantst1;:::;tNet.

Lorsque un processus est stationnaire à tous les ordres, on dit qu"il est stationnaire au sens strict.

Conséquences : la densité de probabilité de la variable aléatoireX(t)et tous ses moments (espérance,

variance...) sont indépendants du temps.

Interprétation :un signal aléatoire stationnaire présente une certaine homogénéité, comme par exemple, ce

signal stationnaire présentée dans la figure 1.3(a). Sur la figure 1.3(b), on peut voir un exemple de signal non

stationnaire.

1.3.4 Valeur moyenne et fonctions de corrélation d"un signal aléatoire

Souvent, on n"a pas besoin de connaitre la loi (de toute façon impossible d"estimer toutes les lois à l"ordre

N) d"un signal aléatoireX(t): sa moyenne et ses moments d"ordre 2 suffisent. Polytech Annecy-Chambéry - IAI S7 9 Signal Aléatoire - EASI 742

CHAPITRE 1. SIGNAUX ALÉATOIRES

(a) réalisation d"un signal stationnaire(b) réalisation d"un signal non stationnaire FIGURE1.3 - Interprétation de la stationnarité à l"ordre 2.

Moyenne signal aléatoire

C"est le signalm(t)défini pour touttpar :

m(t) =E[X(t)](1.12) Fonctions d"autocorrélation et d"autocovariance La fonction d"autocorrélation est définie par : (t1;t2) =E[X(t1)X(t2)](1.13) La fonction d"intercovariance est définie par : r(t1;t2) =E[(X(t1)m1)(X(t2)m2)] = (t1;t2)m(t1)m(t2)(1.14)

Lorsqu"on a deux signaux aléatoires on peut définir des fonctions d"intercorrélation et d"intercovariance. La

fonction d"intercorrélation est définie par :

XY(t1;t2) =E[X(t1)Y(t2)](1.15)

La fonction d"intercovariance est définie par : r

XY(t1;t2) =E[(X(t1)m1)(Y(t2)m2)] =

XY(t1;t2)mX(t1)mY(t2)(1.16)

Remarque :attention dans ce cours, nous supposons que les signaux sont réels. Dans le cas de signaux com-

plexes, les formules changent légèrement avec l"introduction d"un conjugué sur l"un des termes de l"espérance.

On rencontre des signaux complexes quand ils sont démodulés comme en télécoms, Radar/Sonar, Imagerie

SAR, ...

Stationnarité au sens large

La stationnarité au sens strict est très restrictive. En général, on a seulement besoin de la stationnarité des

moments d"ordre 1 et 2. On parle alors de stationnarité au sens large. Polytech Annecy-Chambéry - IAI S7 10 Signal Aléatoire - EASI 742

1.3. PROPRIÉTÉS STATISTIQUES D"UN SIGNAL ALÉATOIRE

Définition :X(t)est stationnaire au sens large si : -E[X(t)] =mavecmune constante -E[X(t)X(t)] =

On a alors aussi :r() =E[(X(t)m)(X(t)m)] =

()m2

De même,X(t)etY(t)sont stationnaires au sens large dans leur ensemble ssi ils sont stationnaires tous les

deux et siE[X(t)Y(t)] = XY().

On supposera par la suite que les signaux sont stationnaires au sens large. Cette propriété permet de résoudre

la majeure partie des problématiques.

Propriétés

Theorem 1.3.1SoitX(t)un signal aléatoire stationnaire au sens large, nous avons les propriétés suivantes

pour la fonction d"autocorrélation (on a des propriétés identiques pour la fonction d"autocovariance) :

P1 : (0) =E(jX(t)j2)(puissance du signal) P2 : ()(symétrie hermitienne en complexe, paire en réel)

P3 : j

()j (0) PROOF. Cf TD.Somme de deux signaux aléatoires stationnaires décorrélés

On a souvent :

X(t) =S(t) +B(t);(1.17)

avecS(t)signal utile etB(t)bruit. Ces deux signaux aléatoires sont souvent indépendants et donc décorrélés

(attention l"inverse n"est pas toujours vraie). On a alors : -mX=mS+mB X() = S() + B() La preuve est évidente et peut être faite en exemple.

Recherche d"une sinusoïde

On recherche une sinusoïde de fréquence inconnue, noyée dans un bruit gaussien centré stationnaire de

longueur de corrélationlc. La longueur de corrélation d"une fonction aléatoire est le décalage temporel au delà

duquel on peut considérer que les v.a.B(t)etB(t+)sont décorrélées, soit : bb() =E[B(t):B(t)] = 0pourjj> lc

Le signal reçu s"écrit sous la forme :

x(t) =s(t) +b(t)

où b(t) est une réalisation du bruit ets(t) =Acos(2fot). On calcule la fonction de corrélation

xx() = ss() + bb() le terme

xb()étant nul (hypothèse de décorrélation du signal et du bruit). En se plaçant à un retard > lc, on

obtient sous l"hypothèse de stationnarité : xx() = ss() =A22 cos(2fo)pourjj> lc ce qui permet de mesurerfodirectement sur la périodicité de l"autocorrélation. Polytech Annecy-Chambéry - IAI S7 11 Signal Aléatoire - EASI 742

CHAPITRE 1. SIGNAUX ALÉATOIRES

1.4 Propriétés temporelles d"un signal aléatoire : ergodisme

quotesdbs_dbs24.pdfusesText_30
[PDF] Les circuits RL et RC parallèle - Voo

[PDF] DM n 3 : Circuit RLC parall`ele

[PDF] Polycopié de cours et d 'exercices dirigés 1ère partie

[PDF] GRAND NANCY ? vélo - les balades ? vélo dans l 'agglomération

[PDF] Circuito Paralelo

[PDF] el circuito mixto - Repositorio Institucional del Servicio Nacional de

[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE

[PDF] Corriente continua : Condensadores y circuitos RC - U-Cursos

[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE

[PDF] CÁLCULO DE CIRCUITOS MIXTOS DE

[PDF] Circuitos electrónicos - DIWO

[PDF] Exercices corrigés (architecture ordinateurs et circuits logiques)

[PDF] Application des dispositions du décret n° 85-603 - Circulairesgouvfr

[PDF] Application de la loi n° 2016-274 du 7 mars - Circulairesgouvfr

[PDF] circulaire aux etablissements de credit n° 91-24 du 17 - BCT