Exercices de statistiques mathématiques
Exercices de statistiques mathématiques Guillaume Lecué 31 août 2020 Table des matières 1 Rappelsdeprobabilités 1 2 Vraisemblance,EMV,IC,InformationdeFisher 13 3 Tests 28 4 Modèlederégression 32 5 Examendulundi26octobre2015 40 6 Rattrapage2015-2016 44 7 Examendulundi14novembre2016 49 8 Rattrapage2016-2017 55 9 Examendenovembre2017 60
L3 : Exercices de Statistique Math ematique
L3 : Exercices de Statistique Math ematique Val ere Bitseky-Penda, Marc Ho mann, Adrian Iuga Janvier 2014 Table des mati eres 1 Feuille 1 2 1 1 R egion de con ance et Kolmogorov-Smirnov 2
Arnaud Guyader - Laboratoire de Probabilités, Statistique et
Statistique mathématique Arnaud Guyader 4 Chapitre 1 Modélisation statistique Proposition 1 (Fonctions de répartition & Convergence en loi)
Exercices et problèmes de statistique et probabilités
Exercices et problèmes de statistique et probabilités Thérèse Phan Jean-Pierre Rowenczyk 2e édition “doc” (Col : Science Sup 19 3x250) — 2012/4/27 — 14:21 — page i — #1
CTU,MasterEnseignementdes Mathématiques StatistiqueInférentielle
Définition 2 2 On dit qu’un modèle statistique est paramétriques’il existe un entier det un sous ensemble de Rd tels que la famille de probabilités Ppuisse être paramétréepar ,i e telsquel’application: P 7P Jean-Yves Dauxois c Juillet 2011
Initiation à la statistique avec R - Dunod
Cours, exemples, exercices et problèmes corrigés Initiation à la statistique avec R Frédéric Bertrand Myriam Maumy-Bertrand 2e édition
Université de Marseille Licence de Mathématiques, 3eme année
Licence de Mathématiques, 3eme année, Probabilités-Statistique Devoir pour jeudi 9 février Exercice 1 (Indépendance et Indépendance 2 à 2) On montre ici qu’il est possible d’avoir 3 v a r X1, X2, X3 indépendantes deux à deux et telles que (X1 + X2) et X3 ne sont pas indépen-dantes
STATISTIQUE - Corrélation, Régression et Ajustements -
Corrélation, Régression et Ajustements 1 - Introduction H Schyns 1 1 1 Introduction Attention Ces notes ne sont pas terminées Il s'agit d'une version "dans l'état", publiée à la
Processus stochastiques et modélisation (Cours et exercices
Processus stochastiques et modélisation (Cours et exercices corrigés) L3 MIAGE, Université de Nice-Sophia Antipolis 2011-2012 Chapitres 1,2,3 Sylvain Rubenthaler
[PDF] symbole paon blanc
[PDF] les statistiques définition
[PDF] totem paon
[PDF] statistique mathématique 3eme
[PDF] exemple rapport de stage bac pro eleec
[PDF] paon signification reve
[PDF] statistique mathématique cours et exercices corrigés
[PDF] les plumes de paon portent elles malheur
[PDF] quiero ser bombera correction
[PDF] exemple rapport de stage bts sn
[PDF] rapport de stage licence pro exemple
[PDF] rapport de stage licence pro comptabilité
[PDF] rapport de stage licence pro informatique
[PDF] rapport d'alternance licence pro informatique
Exercices de statistiques mathématiques
Guillaume Lecué
31 août 2020
Table des matières
1 Rappels de probabilités 1
2 Vraisemblance, EMV, IC, Information de Fisher 13
3 Tests28
4 Modèle de régression 32
5 Examen du lundi 26 octobre 2015 40
6 Rattrapage 2015-2016 44
7 Examen du lundi 14 novembre 2016 49
8 Rattrapage 2016-2017 55
9 Examen de novembre 2017 60
10 Examen d"octobre 2018 67
11 Examen d"octobre 2019 73
1 Rappels de probabilités
Exercice 1.1(Théorème de la limite centrale) Soit(Xn)nune suite de variables aléatoires i.i.d. centrées de variance2>1. Soit Z n=1 pn n X j=1X j: Par le théorème de la limite centrale, cette variable converge en loi vers la loi normale centrée réduite, c"est-à-dire, pour toutt2R, on alimn!+1E[eitZn] =et22 . L"objet de cet exercice est de montrer que la suiteZnne peut pas converger en probabilité. 1ENSAE Statistiques mathématiques
1. Calculer la fonction caractéristique de Z2nZnet montrer que cette différence converge en loi. 2. En étudian tP(jZ2nZnj ), montrer queZnne converge pas en probabilité. Correction de l"exercice 1.1L"objectif de cet exercice est de manipuler les différents types deconvergence. On commence donc par rappeler les différentes convergences en probabilités. Soit(Xn)
une suite de variables aléatoires etXune autre variable aléatoire. On dit que : -(Xn)converge presque surementversXquandf!2 : limXn(!) =X(!)gest de mesure1(on vérifiera que cet ensemble est bien mesurable). -(Xn)converge en probabilitéversXquand pour tout >0,PjXnXj !0quandntend vers+1. -(Xn)converge en loiversXquand pour toute fonction continue bornéefon aEf(Xn)!Ef(X). si p1, on dit que(Xn)converge dansLpversXquandEjXnXjp!0quandntend vers +1.On a les implications suivantes :
[cv presque sure](1) =)[cv en proba](2) =)[cv en loi] (3)* [cv dansLp]Démo et contre-exemple de "(1)
=)" :Soit >0. On afXn!Xg liminfnfjXnXj g. En passant, au complémentaire, on a :0limsupnPjXnXj> P[limsupnfjXnXj> g]
=PliminfnfjXnXj gc0:Il n"y a pas équivalence dans "(1))". Voici une exemple d"une suite qui converge en probabilité
mais pas presque surement :(Xn)des v.a. indépendantes telles queP[Xn= 1] =1n
etP[Xn= 0] = 11n La suite(Xn)converge en probabilité vers0car pour toutn, onP[jXnj> ] =P[Xn= 1] = 1=n. Mais elle ne converge pas presque surement vers car on aP nP(fXn= 1g) =1donc d"après le "secondlemme de Borel-Cantelli" (les événements(fXn= 1g)sont indépendants), on aP[limsupnfXn= 1g] =
1. Notamment,(Xn)ne converge pas presque surement vers0.
Démo et contre-exemple de "(2)
=)" :Soitfune fonction continue bornée. Soit >0etN2N tel quePjf(Xn)f(X)j (on rappel que sifest continue et(Xn)converge en probabilité versXalors(f(Xn))converge en probabilité versf(X)). On a doncEf(Xn)Ef(X)E(f(Xn)f(X))I(jf(Xn)f(X)j )
E(f(Xn)f(X))I(jf(Xn)f(X)j< )
2kfk1Pjf(Xn)f(X)j +2kfk1+ 1:1 RAPPELS DE PROBABILITÉS 2
ENSAE Statistiques mathématiques
La réciproque est trivialement fausse. Il suffit de prendre la suite stationnaire(Xn)où pour toutn,
X n=goùgest une gaussienne. Commegest symmétrique,gest aussi distribuée commeg. Donc (Xn)converge en loi versget donc aussi versg. Par contrejXn(g)j= 2jgjne converge pas en probabilité vers0. Donc(Xn)ne converge par versgen probabilité. Démo et contre-exemple de "(3)*" :D"après l"inégalité de Markov,PjXnXj pEjXnXjp. Pour le contre-exemple, on prendXnde loi(n1n2+ (1n1)0). On aP[jXnj ]n1donc(Xn)converge en probabilité maisEjXnj=ndonc(Xn)ne converge pas dansL1vers 0.Correction de l"exercice
1.P ourtout t2R, on a par indépendance
Eexp(it(Z2nZn)) =Eexpit
pn 1p2 1nX j=1Z jEexpit
p2n2nX j=n+1Z j En appliquant le TCL sur chacun des membres du produit, quandntend vers l"infini, on obtient que(Z2nZn)ntend vers une loi dont la fonction caractéristique estt7!expt2(2p2)=2, c"est donc une Gaussienne centrée de variancep2p2. 2. Supp osonsque (Zn)converge en probabilité. Alors il existe une variable aléatoireZtelle que pour tout >0, on aP[jZnZj> ]!0. Soit >0, on a fjZ2nZnj 2g fjZnZj g [ fjZ2nZj g:Alors, par une borne de l"union :
P jZ2nZnj 2PjZnZj +PjZ2nZj et donc en passant à la limite, on obtientPjZ2nZnj 2!0. Donc(Z2nZn)nconverge en probabilité vers0. En particulier, cette suite converge en loi vers0. Ce qui est en contradiction avec1:.Exercice 1.2(Théorème de Poisson)
Pour tout entier non nuln, on noteXnune variable aléatoire de loi binomiale de paramètrepn2(0;1). On suppose que quandntend vers l"infininpn!pour un certain >0. En étudiant la convergence de la suite des fonctions caractéristiques desXnmontrer que(Xn)nconverge en loi vers une loi de Poisson de paramètre. Correction de l"exercice 1.2Pour tout entier non nuln, la fonction caractéristique deXnvérifie pour toutt2R,Xn(t) =EeitXn=pneit+ (1pn)n= (1 +pn(eit1))n:
Par ailleurs, on sait que pour tout nombre complexez, la suite(1 +pnz)n nconverge versez. Ona doit('Xn)converge ponctuellement vers':t!exp((eit1))qui est la fonction caractéristique1 RAPPELS DE PROBABILITÉS 3
ENSAE Statistiques mathématiques
d"une loi de Poisson de paramètre. En effet, siXsuit une loi de Poisson de paramètrealors pour toutt2R, on aEeitX=1X
k=0e itkekk!=eexp(eit) = exp((eit1)):Remarque :Le théorème de Poisson se généralise au théorème des événements raresqui s"énonce
de la manière suivante. Soit(Mn)nune suite croissante d"entier tendant vers+1. Pour tout entiern, soit(An;j: 1jMn)une famille d"événements telle que pourpn;j=P[An;j], on a, quandntends vers+1, max1jMnpn;j!0et queM
nX j=1p n;j!: On poseSn=PMnj=1?An;j. Alors la suite(Sn)nconverge en loi vers une Poisson de paramètre.Exercice 1.3(Lemme de Slutsky)
1. Donner un exemple de suites (Xn)et(Yn)telles queXnloi!XetYnloi!Y, maisXn+Yn ne converge pas en loi versX+Y. 2. Soien t(Xn),(Yn)deux suites de variables aléatoires réelles,XetYdes variables aléatoires réelles, telles que (i)Xnloi!XetYnP!Y, (ii)Yest indépendante de(Xn)etX. Montrer que le couple(Xn;Yn)converge en loi vers(X;Y). 3. En déduire que si (Xn)et(Yn)sont deux suites de variables aléatoires réelles telles que(Xn)converge en loi vers une limiteXet(Yn)converge en probabilité vers une constantec, alors(Xn+Yn)converge en loi versX+cet(XnYn)converge en loi vers cX.Correction de l"exercice 1.3
1. Soit (n)une suite de v.a. i.i.d. de Bernoulli de moyenne1=2(càdP[n= 0] =P[n= 1] =1=2;8n). D"après le TCL, on sait que
X n:=2pn n X i=1 i1=2 N(0;1):On le démontre facilement, en utilisant le Théorème de Levy et en voyant que quandntend vers
l"infini, pour toutt2R,Eexp2itpn
nX i=1 i1=2 =12 expitpn + expitpn n1t22n+Ot3n
3=2 n!expt22 :1 RAPPELS DE PROBABILITÉS 4ENSAE Statistiques mathématiques
Soitgune variable Gaussienne standard. Commegest symmétrique,gest aussi une Gaussienne Standard. On a donc,(Xn)converge en loi versget aussi(Xn)converge en loi versg. Mais (Xn+Xn)converge en loi vers2g6=g+(g) = 0. Cet exercice souligne le fait que la convergenceen loi est une convergence des lois de distribution et non des variables aléatoires elles mêmes.
2. On note par Cb(R)l"ensemble des fonctions continues bornées surR. Pour montrer que(Xn;Yn) converge en loi vers(X;Y), il suffit de prouver que pour toutf;g2 Cb(R), on aEf(Xn)g(Yn)! Ef(X)g(Y)quandntend vers l"infini. Par ailleurs, on sait que si(Yn)converge en probablité versYet sigest continue alors(g(Yn))converge en probabilité versg(Y).Soitf;g2 Cb(R)et >0. SoitN2Ntel que pour toutnN,
P jg(Yn)g(Y)j andEf(Xn)Ef(X): On a pour toutnN, par indépendance deg(Y)avecf(Xn)etf(X), Ef(Xn)g(Yn)Ef(X)g(Y)Ef(Xn)(g(Yn)g(Y))I(jg(Yn)g(Y)j ) Ef(Xn)(g(Yn)g(Y))I(jg(Yn)g(Y)j< )+Eg(Y)(f(Xn)f(X))2kfk1kgk1Pjg(Yn)g(Y)j +kfk1+Eg(Y)Ef(Xn)Ef(X)
2kfk1kgk1+kfk1+kgk1:
3. Comme (Yn)converge en probabilité versY=cp.p. qui est indépendante de toutes variables aléatoires, on peut appliquer la question 2. :(Xn;Yn)converge en probabilité vers(X;c). Notamment, comme les applications somme et produit sont des fonctions continues deR2dans R, on voit que(Xn+Yn)converge en loi versX+cainsi que(XnYn)converge en loi verscX.Exercice 1.4(Convergence dansLp)
Soit(Xn)une suite de variables aléatoires réelles bornées par une même constante. Montrer que si(Xn)converge en probabilité, alorsXnconverge dansLppour toutp1.Correction de l"exercice 1.4Pour cet exercice, on va démontrer un résultat plus fort. On rappel
qu"une suite(Xn)estéqui-intégrablequand lim a!+1sup n2NEjXnjI(jXnj> a)= 0: Soitp1et(Xn)une suite d"éléments deLp. On montre que les deux assertions suivantes sontéquivalentes :
1. la suite (Xn)converge dansLp. 2. la suite (Xn)converge en probabilité et la suite(jXnjp)est équi-intégrable.b) implique a) :On montre d"abord que si(Yn)est équi-intégrable alors elle est équi-continue :
càd pour tout >0, il existe >0tel que siP(A)alorssupn2NEjYnj?A. Soit >0et1 RAPPELS DE PROBABILITÉS 5
ENSAE Statistiques mathématiques
a0>0tel que pour toutaa0et toutn2N,EjXnjI(jXnj> a). On a pour tout ensemble
mesurableA, toutn2Net toutaa0, E jXnj?A=EjXnjI(A\ fjXnj ag)+EjXnjI(A\ fjXnj> ag) aP(A) +EjXnjI(jXnj> a)aP(A) +:On en déduit que(Yn)est bien équi-continue.
Soit >0. Pour toutq;r2N, on a
EjXrXqjpEjXrXqjpI(jXrXqjp)+ 2p1EjXrjp+jXqjpI(jXrXqjp> ) + 2p1EjXrjp+jXqjpI(jXrXqjp> ): Comme(jXnjp)est équi-continue, il existe >0tel que pour toutAtel queP[A], on a sup r2NEjXrjp?A+ sup q2NEjXqjp?A=2p1: Comme(Xn)converge en probabilité, il existe unNtel que pour toutr;qN,PjXrXqj1=p. On en déduit, quelimsupr;qEjXrXqjp2pour toutr;qN. Alors(Xn)est une suite
de Cauchy dansLp, qui est complet, donc elle est convergente dansLp. a) implique b) :Par Markov, on a pour tout >0, P jXnXj pEjXnXjp: SoitN2Ntel que pour toutnN,EjXnXjp=2p1. L"inégalité de Markov donne P jXnjp> aa1EjXnjpBa1:oùBmajore uniformément la suite(EjXnjp)(qui est bien bornée vue que c"est une suite convergente).
Soita0>0tel quesupn2NP[jXnjp> a0]oùest tel queEjXjp?A=2p1pour toutAtel que P(A)(par définitionX2Lp). On a donc pournNet toutaa0, E jXnjpI(jXnjp> a)2p1EjXnXjpI(jXnjp> a)+ 2p1EjXjpI(jXnjp> a):De plus, il est facile de voir que toute famille finie de variables aléatoires est équi-intégrable. C"est le
cas pour(Xn: 1nN).