[PDF] Convergences Université Paris Dauphine Probabilités





Previous PDF Next PDF



Chapitre 10 - Convergence destimateurs

10.1.3 Cas L2 : convergence en moyenne quadratique Définition : On dit que l'estimateur ˆ?n converge en moyenne quadratique vers ? si et seulement si.



Interpolation en - moyenne quadratique

Interpolation en µ - moyenne quadratique. Revue de statistique appliquée tome 23



Convergence en moyenne quadratique de lestimateur de la

Cette Note se propose d'etudier la convergence en moyenne quadratique de l'estimateur spline hybride de la regression. 1. Modkles et estimateurs.



Calcul en moyenne quadratique : continuité dérivation et intégration

II. CALCUL EN MOYENNE QUADRATIQUE : CONTINUITE DERIVATION ET INTEGRATION. I - Remarques préliminaires . Soit une fonction aléatoire X (t) 



Titre PDF

Rappeler les définitions de la convergence en loi en probabilité



Sur lapproximation en moyenne quadratique des fonctions

Sur Tapproximation en moyenne quadratique des fonctions analytiques. M. Keldych (Moscou). Dans cet article nous allons demontrer quelques propositions sur 



Convergences Université Paris Dauphine Probabilités

Convergence en moyenne quadratique. La suite de variables aléatoires (Xn) converge en moyenne d'ordre p > 0 vers une variable aléatoire X si.



Mathématiques

Etudier le projecteur ?F(m) . 6.5 Convergence en moyenne quadratique. Nous nous intéressons maintenant `a l'approximation des fonctions périodiques par des 



Approximation quadratique

Osculateur c'est un mot qui vient du latin osculare. La parabole osculatrice



Chapitre 3 - Précision en Topo

l'erreur moyenne arithmétique ea. • l'erreur moyenne quadratique emq ou Ecart-type. Ces indices de dispersion sont des unités de mesure des erreurs 

Statistiques 4Année universitaire 2015-2016

Cours de M

meChevalier

Convergences

Inégalités

Inégalités de Markov

SiXest une variable aléatoire positive dont l"espérance existe, alors, pour toutλ >0,

P(X?λE(X))?1

λetP(X?λ)?E(X)λ

SiXest une variable aléatoire telle queE(|X|k)existe, alors, pour toutλ >0et pour toutε >0,

P(|X|k?λ)?E(|X|k)

λetP(|X|?ε)?E(|X|k)εk

Inégalité de Bienaymé-Tchebychev

SiXest une variable aléatoire telle queV(X)existe, alors, pour toutε >0,

P(|X-E(X)|?ε)?V(X)

ε2 Cas particulier des variables centrées réduites : siXest une variable aléatoire telle queV(X) =σ(X)2existe, alors, pour touta >1, P ?X-E(X)

σ(X)????

?a? ?1a2

Inégalité de Jensen

Sigest une fonction réelle convexe sur un intervalleI deRet siE(X)etE(g(X))existent, alors g(E(X))?E(g(X))

Convergenceenprobabilité

Définition

La suite de variables aléatoires(Xn)converge en proba- bilité vers une variable aléatoireXsi, pour toutε >0, lim n→+∞P(|Xn-X|< ε) = 1 oulimn→+∞P(|Xn-X|> ε) = 0

Convergence en moyenne quadratique

La suite de variables aléatoires(Xn)converge en moyenne d"ordrep >0vers une variable aléatoireXsi lim n→+∞E(|Xn-X|p) = 0 Cas particulier très pratique : sip= 2, c"est équivalent de dire que la suite de variables aléatoires(Xn)converge en moyenne quadratique vers une variable aléatoireXsi ?E(Xn-X)→0 V(X n-X)→0

Conditions suffisantes de conv. en probabilité

Si(Xn)converge en moyenne d"ordrepversX, alors

(X n)converge en probabilité versX. En particulier : si(Xn)converge en moyenne quadra- tique versX, alors(Xn)converge en probabilité versX. Théorème de Slutsky : sifest une application réelle continue et si(Xn)converge en probabilité versX, alors (f(Xn))converge en probabilité versf(X). Extension en dimension 2 : sif:R2→Rest une ap- plication uniformément continue et si(Xn)converge en probabilité versXet(Yn)converge en probabilité versY, alors(f(Xn,Yn))converge en probabilité versf(X,Y).

Loi faible des grands nombres

Si(Xn)est une suite de variables aléatoires mu- tuellement indépendantes telles que pour tout entiern, E(X n) =metV(Xn) =σ2, alors la suite(

Xn)converge

en probabilité versm.

Rappel :

Xn=1nn

i=1X i Preuve : à l"aide de l"inégalité de Bienaymé-Tchebychev

Convergenceenloi

Définition

Si pour tout entiern,Fnest la fonction de répartition de la variableXn, alors la suite de variables aléatoires(Xn) converge en loi vers une variable aléatoireX(de fonction de répartitionF) si la suite(Fn(x))converge versF(x) en tout pointxoùFest continue.

Conditions suffisantes de convergence en loi

Si(Xn)converge en probabilité versX, alors

(X n)converge en loi versX.

Si(Xn)converge en loi versXet(Yn)converge en

probabilité vers un réela, alors(Xn+Yn)converge en loi versX +a,(XnYn)converge en loi versaXet(Xn/Yn) converge en loi versX/a(sia?= 0). Théorème de Slutsky : sifest une application réelle continue et si(Xn)converge en loi versX, alors (f(Xn))converge en loi versf(X). Cas discret : on supposeXn(Ω) = X(Ω) ={ai|i?I}. Si pour touti?I,limn→+∞P(Xn=ai) = P(X =ai), alors la suite(Xn)converge en loi versX. Cas continu : on suppose queXna pour densitéfnet

Xa pour densitéf.

Si pour toutx?R, on alimn→+∞fn(x) =f(x), alors la suite(Xn)converge en loi versX.

Théorème central limite

Si(Xn)est une suite de variables aléatoires indépendantes et de même loi telles queE(Xn) =metV(Xn) =σ2pour tout entiern, alors nXn-m

σloi----→n→∞N(0,1)

En pratique, on approche la loi deXnpar une loi

N(m,σ/⎷

n). Approximation valable sin?30. Convergence d"une suite image : s"il existem?R,σ >0 et une suite(an)de réels tels quelimn→+∞an=+∞et pour tout entiern, a alors, sigest une application réelle dérivable, a

Convergencesusuelles

Convergence des moments empiriques

Rappel des notations :

Moyenne empirique

Xn=1nn

i=1X i

Variance empirique

S ?2n=1 nn i=1(X i-Xn)2

Moment empirique d"ordrek

m kn=1 nn i=1X ik

Moment d"ordrek

m k= E(Xk)

Moment empirique centré d"ordrek

kn=1 nn i=1(X i-Xn)k

Moment centré d"ordrek

m k= E((X-E(X))k)

Moyenne empirique

La suite(

Xn)converge en probabilité et en loi versm.

Variance empirique

La suite(S?2n)converge en probabilité versσ2et vérifie

0,?μ4-μ22?

Moments empiriques :

m knproba----→n→∞mk

Convergence de la loi binomialeB(n,p)

Cas oùp→0avecnp→λfini quandn→ ∞ La loiB(n,p)converge en loi vers la loi de PoissonP(λ).

Approximation valable sin?30,p?0,1etnp <18.

Cas oùpreste fixe quandn→ ∞

La loiB(n,p)peut être approchée par une loi normale

N(np,?

np(1-p)).

Approximation valable sin?30,np?5etn(1-p)?5.

Preuve : on écrit la variable comme somme de variables de BernoulliXi. D"après le théorème central limite,

Correction de continuité

L"approximation d"une loi discrèteXpar une loi conti- nueYimpose de remplacerXparY-1/2:

P(X?k)≈P(Y-1/2?k)

Conv. de la loi hypergéométriqueH(N,n,NA)

SiN→+∞etNA/N =preste fixe, on peut appro- cher la loi hypergéométriqueH(N,n,NA)par une loi bi- nomialeB(n,p).

Approximation valable pourn/N?0,1.

Convergence de la loi de PoissonP(λ)

X-λ

Convergence de la loi Gammaγ(p)

X-p ⎷ploi----→p→+∞N(0,1)

Convergence de la loi du khi-deuxχ2n

X-n

Convergence de la loi de StudentT(n)

X loi-----→n→+∞N(0,1)Powered by TCPDF (www.tcpdf.org)quotesdbs_dbs47.pdfusesText_47
[PDF] moyenne si pourcentage

[PDF] moyenne statistique définition

[PDF] Moyenne, fréquence et diagramme

[PDF] Moyenne, pourcentage

[PDF] Moyenne, pourcentage d'une classe

[PDF] Moyenne, probabilités

[PDF] moyenne, quartiles ect

[PDF] Moyenne, variance et ecart-type

[PDF] moyenne/médiane/étendue

[PDF] Moyennes

[PDF] Moyennes arithmétiques

[PDF] Moyennes et fonctions

[PDF] Moyennes et pourcentages

[PDF] Moyennes Mathématiques

[PDF] Moyennes Pour statistique