Chapitre 10 - Convergence destimateurs
10.1.3 Cas L2 : convergence en moyenne quadratique Définition : On dit que l'estimateur ˆ?n converge en moyenne quadratique vers ? si et seulement si.
Interpolation en - moyenne quadratique
Interpolation en µ - moyenne quadratique. Revue de statistique appliquée tome 23
Convergence en moyenne quadratique de lestimateur de la
Cette Note se propose d'etudier la convergence en moyenne quadratique de l'estimateur spline hybride de la regression. 1. Modkles et estimateurs.
Calcul en moyenne quadratique : continuité dérivation et intégration
II. CALCUL EN MOYENNE QUADRATIQUE : CONTINUITE DERIVATION ET INTEGRATION. I - Remarques préliminaires . Soit une fonction aléatoire X (t)
Titre PDF
Rappeler les définitions de la convergence en loi en probabilité
Sur lapproximation en moyenne quadratique des fonctions
Sur Tapproximation en moyenne quadratique des fonctions analytiques. M. Keldych (Moscou). Dans cet article nous allons demontrer quelques propositions sur
Convergences Université Paris Dauphine Probabilités
Convergence en moyenne quadratique. La suite de variables aléatoires (Xn) converge en moyenne d'ordre p > 0 vers une variable aléatoire X si.
Mathématiques
Etudier le projecteur ?F(m) . 6.5 Convergence en moyenne quadratique. Nous nous intéressons maintenant `a l'approximation des fonctions périodiques par des
Approximation quadratique
Osculateur c'est un mot qui vient du latin osculare. La parabole osculatrice
Chapitre 3 - Précision en Topo
l'erreur moyenne arithmétique ea. • l'erreur moyenne quadratique emq ou Ecart-type. Ces indices de dispersion sont des unités de mesure des erreurs
Statistiques 4Année universitaire 2015-2016
Cours de M
meChevalierConvergences
Inégalités
Inégalités de Markov
SiXest une variable aléatoire positive dont l"espérance existe, alors, pour toutλ >0,P(X?λE(X))?1
λetP(X?λ)?E(X)λ
SiXest une variable aléatoire telle queE(|X|k)existe, alors, pour toutλ >0et pour toutε >0,P(|X|k?λ)?E(|X|k)
λetP(|X|?ε)?E(|X|k)εk
Inégalité de Bienaymé-Tchebychev
SiXest une variable aléatoire telle queV(X)existe, alors, pour toutε >0,P(|X-E(X)|?ε)?V(X)
ε2 Cas particulier des variables centrées réduites : siXest une variable aléatoire telle queV(X) =σ(X)2existe, alors, pour touta >1, P ?X-E(X)σ(X)????
?a? ?1a2Inégalité de Jensen
Sigest une fonction réelle convexe sur un intervalleI deRet siE(X)etE(g(X))existent, alors g(E(X))?E(g(X))Convergenceenprobabilité
Définition
La suite de variables aléatoires(Xn)converge en proba- bilité vers une variable aléatoireXsi, pour toutε >0, lim n→+∞P(|Xn-X|< ε) = 1 oulimn→+∞P(|Xn-X|> ε) = 0Convergence en moyenne quadratique
La suite de variables aléatoires(Xn)converge en moyenne d"ordrep >0vers une variable aléatoireXsi lim n→+∞E(|Xn-X|p) = 0 Cas particulier très pratique : sip= 2, c"est équivalent de dire que la suite de variables aléatoires(Xn)converge en moyenne quadratique vers une variable aléatoireXsi ?E(Xn-X)→0 V(X n-X)→0Conditions suffisantes de conv. en probabilité
Si(Xn)converge en moyenne d"ordrepversX, alors
(X n)converge en probabilité versX. En particulier : si(Xn)converge en moyenne quadra- tique versX, alors(Xn)converge en probabilité versX. Théorème de Slutsky : sifest une application réelle continue et si(Xn)converge en probabilité versX, alors (f(Xn))converge en probabilité versf(X). Extension en dimension 2 : sif:R2→Rest une ap- plication uniformément continue et si(Xn)converge en probabilité versXet(Yn)converge en probabilité versY, alors(f(Xn,Yn))converge en probabilité versf(X,Y).Loi faible des grands nombres
Si(Xn)est une suite de variables aléatoires mu- tuellement indépendantes telles que pour tout entiern, E(X n) =metV(Xn) =σ2, alors la suite(Xn)converge
en probabilité versm.Rappel :
Xn=1nn
i=1X i Preuve : à l"aide de l"inégalité de Bienaymé-TchebychevConvergenceenloi
Définition
Si pour tout entiern,Fnest la fonction de répartition de la variableXn, alors la suite de variables aléatoires(Xn) converge en loi vers une variable aléatoireX(de fonction de répartitionF) si la suite(Fn(x))converge versF(x) en tout pointxoùFest continue.Conditions suffisantes de convergence en loi
Si(Xn)converge en probabilité versX, alors
(X n)converge en loi versX.Si(Xn)converge en loi versXet(Yn)converge en
probabilité vers un réela, alors(Xn+Yn)converge en loi versX +a,(XnYn)converge en loi versaXet(Xn/Yn) converge en loi versX/a(sia?= 0). Théorème de Slutsky : sifest une application réelle continue et si(Xn)converge en loi versX, alors (f(Xn))converge en loi versf(X). Cas discret : on supposeXn(Ω) = X(Ω) ={ai|i?I}. Si pour touti?I,limn→+∞P(Xn=ai) = P(X =ai), alors la suite(Xn)converge en loi versX. Cas continu : on suppose queXna pour densitéfnetXa pour densitéf.
Si pour toutx?R, on alimn→+∞fn(x) =f(x), alors la suite(Xn)converge en loi versX.Théorème central limite
Si(Xn)est une suite de variables aléatoires indépendantes et de même loi telles queE(Xn) =metV(Xn) =σ2pour tout entiern, alors nXn-mσloi----→n→∞N(0,1)
En pratique, on approche la loi deXnpar une loi
N(m,σ/⎷
n). Approximation valable sin?30. Convergence d"une suite image : s"il existem?R,σ >0 et une suite(an)de réels tels quelimn→+∞an=+∞et pour tout entiern, a alors, sigest une application réelle dérivable, aConvergencesusuelles
Convergence des moments empiriques
Rappel des notations :
Moyenne empirique
Xn=1nn
i=1X iVariance empirique
S ?2n=1 nn i=1(X i-Xn)2Moment empirique d"ordrek
m kn=1 nn i=1X ikMoment d"ordrek
m k= E(Xk)Moment empirique centré d"ordrek
kn=1 nn i=1(X i-Xn)kMoment centré d"ordrek
m k= E((X-E(X))k)Moyenne empirique
La suite(
Xn)converge en probabilité et en loi versm.
Variance empirique
La suite(S?2n)converge en probabilité versσ2et vérifie0,?μ4-μ22?
Moments empiriques :
m knproba----→n→∞mkConvergence de la loi binomialeB(n,p)
Cas oùp→0avecnp→λfini quandn→ ∞ La loiB(n,p)converge en loi vers la loi de PoissonP(λ).Approximation valable sin?30,p?0,1etnp <18.
Cas oùpreste fixe quandn→ ∞
La loiB(n,p)peut être approchée par une loi normaleN(np,?
np(1-p)).Approximation valable sin?30,np?5etn(1-p)?5.
Preuve : on écrit la variable comme somme de variables de BernoulliXi. D"après le théorème central limite,Correction de continuité
L"approximation d"une loi discrèteXpar une loi conti- nueYimpose de remplacerXparY-1/2:P(X?k)≈P(Y-1/2?k)
Conv. de la loi hypergéométriqueH(N,n,NA)
SiN→+∞etNA/N =preste fixe, on peut appro- cher la loi hypergéométriqueH(N,n,NA)par une loi bi- nomialeB(n,p).Approximation valable pourn/N?0,1.
Convergence de la loi de PoissonP(λ)
X-λ
Convergence de la loi Gammaγ(p)
X-p ⎷ploi----→p→+∞N(0,1)Convergence de la loi du khi-deuxχ2n
X-nConvergence de la loi de StudentT(n)
X loi-----→n→+∞N(0,1)Powered by TCPDF (www.tcpdf.org)quotesdbs_dbs47.pdfusesText_47[PDF] moyenne statistique définition
[PDF] Moyenne, fréquence et diagramme
[PDF] Moyenne, pourcentage
[PDF] Moyenne, pourcentage d'une classe
[PDF] Moyenne, probabilités
[PDF] moyenne, quartiles ect
[PDF] Moyenne, variance et ecart-type
[PDF] moyenne/médiane/étendue
[PDF] Moyennes
[PDF] Moyennes arithmétiques
[PDF] Moyennes et fonctions
[PDF] Moyennes et pourcentages
[PDF] Moyennes Mathématiques
[PDF] Moyennes Pour statistique