Cours de Statistique Asymptotique 2010
invariants» en statistique classique comme la normalité asymptotique des estimateurs du maximum de vraisemblance et la vitesse en.
Statistique Asymptotique
Statistique mathématique cours et exercices corrigés. Références sciences. Ellipse. Fahrmeir
Matrices aléatoires: Statistique asymptotique des valeurs propres
Feb 25 2009 Abstract: Ce cours† est une br`eve introduction `a la théorie de la distribu- tion asymptotique des valeurs propres des matrices aléatoires ...
Statistiques mathématiques : cours 5
Sep 3 2018 Dans ce cours
Cours de Statistiques M1 Université de Cergy Pontoise
l'asymptotique a-t-elle des caractéristiques acceptables ? Bien que cela semble dépasser le cadre de ce cours nous donnons une.
Statistique Mathématique
mier cours de probabilité et un premier cours de statistique. 4.3 Estimation non asymptotique dans la famille exponentielle . . . . . 44.
Cours de Statistiques Inférentielles
Jan 6 2016 5 Comportement asymptotique des estimateurs ... (qui concerne la majorité du cours) est la statistique inférentielle
Statistiques mathématiques : cours 1
Aug 28 2018 Information statistique
VITESSE DE CONVERGENCE POUR CERTAINS PROBLEMES
Nous avons essaye de faire un premier cours de statistique asymptotique. L 'auteur ne connait qu 'une partie d'un sujet vaste et mal defini
MAP 433 : Introduction aux méthodes statistiques. Cours 7 Aujourd
statistiques. Cours 7. M. Hoffmann. Estimation optimale : approche asymptotique. Mod`eles réguliers et information de. Fisher. Tests statistiques.
Statistique Asymptotique - CNRS
Le modèle statistique (ou la structure statistique) associé à cette expérience est le triplet (XAP) où X est l’espace des observations ensemble de toutes les observations possibles A est la tribu des évènements observables associée P est une famille de lois de probabilités possibles dé?nie sur A
Élémentsde Statistique Asymptotique - univ-lillefr
Ce cours est d’abord une « visite guidée» de quelques points importants en statis-tique asymptotique : le rôle de la mesure empirique pour estimer la loi des variables les ?-méthodes qui permettent d’obtenir les distributions limites d’estimateurs par des développementslimitésdelamesureempiriqueautourdecetteloilesnotionsderobustesse
Statistique asymptotique - CNRS
2 Créer un jeu de données d’apprentissage bike_sharing_train contenant les informations pour des 585 premiers jours et un jeu de données de test bike_sharing_train contenant les informations des jours 586 à 731 Exercice 2 Pour construire notre modèle on travaille dans cette partie sur le jeu de données d’apprentissage seule-ment 1
Intervalles de con?ance - univ-rennes1fr
s’int´eresse la statistique est de d´ecrire une loi de probabilit´e a partir d’observations suppos´ees ˆetre des r´ealisations i i d de cette loi inconnue Le statisticien est une sorte de d´etective qui face a de multiples individus doit s´electionner un ou des suspects au vu d’indices dont aucun n’est une preuve
Searches related to cours de statistique asymptotique filetype:pdf
© Société Française de Statistique (SFdS) Octobre/October 2013 100 Dans le premier chapitre intitulé « échantillon de la loi de Gauss » l’auteur présente les notions élémentaires de statistique inférentielle: estimateurs des paramètres de cette loi et tests sur ces paramètres
Qu'est-ce que la physique statistique ?
- Les premières extensions de la physique statistique, par rapport à la mécanique statistique, ont été l'introduction des propriétés électriques et magnétiques de la matière au sein des modèles, permettant la description des transitions de phase dans les matériaux magnétiques ou diélectriques, comme la transition ferromagnétique .
Quels sont les exercices de statistique ?
- Il a pour principe moteur qu’en sciences humaines la statistique est rarement une fin en soi, qu’elle est l’un des outils avec lesquels on donne un sens à des données. Les exercices qu’il propose ne sont donc pas essentiellement des invitations à calculer ceci ou cela : une moyenne, ou un chi-carré, ou un test t, ou un Kruskal-Wallis.
Quels sont les tests statistiques paramétriques?
- En effet, la plupart des tests statistiques dits « paramétriques » (permettant notamment de calculer et comparer des moyennes) requièrent un effectif minimum de 30 sujets.
Quelle est l'étymologie du mot statistique ?
- Sommaire : Préambule - Vocabulaire - Définitions. 1. Préambule L'étymologie du mot statistique est le mot latin status (état) car à l'origine l'objet de la statistique était de rassembler et étudier des données intéressant l'Etat.
Éléments de
Statistique
AsymptotiqueMarie-Claude VIANO et Charles SUQUET
Master 2 Recherche de Mathématiques année 2010-2011Table des matières
Introduction
3 Chapitre 1. Rappels sur les notions de convergence 51. Distances entre mesures de probabilité
52. Convergence de variables aléatoires à valeurs dans des espaces métriques
10 Chapitre 2. Théorèmes classiques : rappels et compléments 151. Théorème de Glivenko-Cantelli. Ergodicité. Mesure empirique
152. Théorème central limite. Convergence du Processus empirique
26Chapitre 3. Méthodes du maximum de vraisemblance et M-estimateurs 35
1. Introduction
352. Propriétés asymptotiques
373. Robustesse
484. Robustesse contre efficacité
51Chapitre 4. Les delta-méthodes
551. Introduction
552. Notions de dérivabilité directionnelle
573. La delta-méthode fonctionnelle
594. Application aux M-estimateurs
59Chapitre 5. Les quantiles
671. Définition
672. Quelques propriétés élémentaires
673. Propriétés asymptotiques des quantiles.
684. La fonction quantile
695. Une application : l"écart absolu médian
706. Une application : la moyenneα-tronquée71
Annexe A. Solutions d"exercices
73Bibliographie
811
Introduction
Ce cours est d"abord une " visite guidée» de quelques points importants en statis- tique asymptotique : le rôle de la mesure empirique pour estimer la loi des variables, lesδ-méthodes qui permettent d"obtenir les distributions limites d"estimateurs par des développements limités de la mesure empirique autour de cette loi, les notions de robustesse qui conduisent à la construction d"estimateurs non optimaux mais aux performances peufragiles, les notions de contiguïté et de normalité asymptotique locale qui, par des méth-
odes de géométrie différentielle, fournissent une explication à certains " comportements invariants» en statistique classique comme la normalité asymptotique des estimateurs du maximum de vraisemblance et la vitesse en⎷nobtenue dans la plupart des convergences en loi. Le deuxième objectif de ce cours est de quitter le domaine des variables indépendantes,terrain de prédilection des statisticiens. Pour un statisticien, un "échantillon» est la réal-
isation d"un vecteur aléatoire à composantes indépendantes et de même loi. Depuis unecinquantaine d"années, on s"est intéressé à ce qu"il advient des résultats limites bien connus
(loi des grands nombres, théorème central limite, loi du logarithme itéré, etc...) lorsque
les variables sont dépendantes. On est arrivé dans bien des cas à évaluer l"impact de la perte d"indépendance. Dans la mesure du possible, chaque chapitre du cours consacre un paragraphe à cette question. 3CHAPITRE 1
Rappels sur les notions de convergence
Dans ce chapitre, nous examinerons des questions de convergence de suites de variablesaléatoires à valeurs dans des espaces métriques. Ces " variables aléatoires » seront définies
sur un espace(Ω,F)et à valeurs dans un espace métriqueE. Parler de variables aléatoires et pas seulement d"applicationsΩ→E, suppose une certaine mesurabilité. Pour cela, nous munirons généralementEde sa tribuborélienne, c"est à dire la tribu engendrée par lesouverts deE. On emploiera aussi l"expression " élément aléatoire deE» pour désigner de
telles variables.1. Distances entre mesures de probabilité
Entre autres distances, nous en retiendrons trois.1.1. La distance de Prokhorov.
Définition 1.1(distance de Prokhorov).La distance de Prokhorov de deux mesures de probabilitéPetQsur la tribu borélienneEd"un espace métrique(E,d)est définie par : oùAεdésigne l"ensemble des points deEdont la distance àAest strictement inférieureThéorème 1.2.
(i) Dans la définition de πci-dessus, on peut se restreindre à la famille desAfermés de E. (iii)πest une distance sur l"ensemble des mesures de probabilité surE. (iv) Si Eest séparable1,πmétrise2la convergence en loi.Preuve.
Remarques préliminaires.Rappelons que siAest une partie d"un espace métrique(E,d), la distance d"un élémentedeEàAest définie pard(e,A) = inf{d(e,x);x?A}. On vérifie facilement qued(e,A) = 0si et seulement sieappartient à la fermetureAdeAet qued(e,A) =d(e,A). De plus, l"application?:E→R+,x?→d(x,A)estcontinue[23, p.103], ce qui implique queAε=?-1(]- ∞,ε[)est un ouvert deE.1. C"est-à-dire s"il existe une partie dénombrable dense dansE.
2. Autrement dit,Xnconverge en loi versXsi et seulement siπ(PXn,PX)tend vers0, oùPXn,PX
désignent les lois desXnet deX. 56 M.-C. Viano et Ch. Suquet
Pour toutes mesures de probabilitésPetQsurEet toute sous-familleGdeE, notons I0n remarque alors queIG(P,Q)est unintervalledeR. En effet, siε?IG(P,Q), pour
montre que siIG(P,Q)?=∅, c"est un intervalle deR, de borne supérieure+∞. En fait, [1,+∞[?IG(P,Q)?[0,+∞[, puisquePetQétant des probabilités, il est clair que toutréelε≥1est dansIG(P,Q). Ceci montre la première inclusion, la deuxième résultant de
la condition "ε >0» dans la définition deIG(P,Q). Preuve de (i).En notantFla famille des fermés deEet˜π(P,Q)la borne inférieure de I F(P,Q), nous avons à comparer cette borne avec la distance de Prokhorovπ(P,Q) = infIE(P,Q). D"abord puisque la familleFdes fermés est incluse dans la tribu borélienne surE. Supposons qu"il existe un couple de probabilités(P,Q)pour lequel cette inégalitésoit stricte. Alors il existe unε?]˜π(P,Q),π(P,Q)[et un borélienA? Evérifiant l"une au
moins des deux inégalitésP(A)> Q(Aε) +εouQ(A)> P(Aε) +ε. Pour fixer les idées,disons que la première est réalisée (le raisonnement qui suit reste valable en échangeant
(A)ε=AεetP(A)≥P(A), ceci est contradictoire avec la minoration stricte deP(A)supposée ci-dessus. Par conséquent, l"inégalité stricte˜π(P,Q)< π(P,Q)ne peut avoir lieu
peut donc bien se restreindre auxAfermés pour calculer la distance de Prokhorov. Preuve de (ii).Pour établir le point (ii), il suffit de vérifier que pour toutes mesures de probabilitéPetQsurE,π1(P,Q) =π1(Q,P). Commençons par le cas particulier oùπ1(P,Q) = 0. Dans ce cas on a pour toutA . CommeAest fermé,∩n≥1A1/n=A, d"où par continuité séquentielle décroissante vers l"infini. En passant aux complémentaires, on en déduit que pour tout ouvertBde Alors il existe unεtel que0< ε < π1(Q,P)et un ferméFtel queQ(F)> P(Fε) +ε. AinsiQ(Fε)≥Q(F)> P(Fε) +ε, d"oùQ(Fε)> P(Fε). Mais commeFεest ouvert,1(Q,P) = 0 =π1(P,Q). En prime nous avons montré au passage que siπ1(P,Q) = 0,
Ainsi les mesures finiesPetQcoïncident sur la classe des fermés deE, qui est stable par intersections finies et engendrent la tribu borélienneE, donc elles coïncident surE, d"où P=Q. Traitons maintenant le casπ1(P,Q)>0. Alors pour toutεtel que0< ε < π1(P,Q), il existe un ferméAtel queP(A)> Q(Aε) +ε, d"où en passant aux complémentairesQ(E\Aε)> P(E\A) +ε. Remarquons que sid(x,y)< εetx?A, alorsy?Aε.3.A1/n↓A?Q(A1/n)↓A.
Éléments de Statistique Asymptotique 7
On en déduit que sid(x,y)< εety?E\Aε, alorsx /?A, ce qui établit l"inclusion (E\Aε)ε?E\A. On a doncQ(E\Aε)> P(E\A) +ε≥P?(E\Aε)ε?+ε. On obtient ainsi l"existence d"un ferméF=E\Aεtel queQ(F)> P(Fε) +ε, ce qui entraîne que étudié ci-dessus, nous avons maintenant établi que pourtoutcouple(P,Q)de probabilités, finalementπ1(P,Q) =π1(Q,P). Preuve de (iii).Vérifions queπest une distance sur l"ensemble de smesures de probabilitésurE. La symétrie découle immédiatement de la définition deπ. D"autre part siP=Q, tout
ε >0vérifie les inégalités figurant dans la définition deπ, d"oùπ(P,P) = inf]0,+∞[= 0.
Réciproquement, on a vu comme sous-produit de la preuve de ( ii ) que l"égalitéπ(P,Q) = 0 impliqueπ1(P,Q) = 0et que ceci implique l"égalité dePetQ.Il ne nous reste plus qu"à montrer queπvérifie l"inégalité triangulaire, ou plus simple-
ques surE. On remarque pour cela que pour tous réelsxetytels queπ1(P,R)< xet1(R,Q)< yet tout borélienAdeE,
1(R,Q).
Preuve partielle de (iv).Nous nous contenterons de démontrer que si lesXn,Xsont des éléments aléatoires deEde loi respectivePn,Pet siπ1(Pn,P)tend vers0, alorsXn converge en loi dansEversX. Pour cela, en vertu duportmanteau theorem(Th.1.11 ci-dessous), il suffit de montrer que siAest un borélien tel queP(∂A) = 0,Pn(A)converge versP(A). Rappelons ici que l"intérieur deAest le plus grand ouvert contenu dansAet l"extérieur deAle plus grand ouvert contenu dans son complémentaire. La frontière∂Ade Aest l"ensemble des points qui ne sont ni intérieurs ni extérieurs àA. Comme l"intérieur deAest l"extérieur de son complémentaire et vice-versa,AetE\Aont même frontière. Fixonsε >0quelconque. Notons que pour tout entierk≥1, (A1/k\A)?(A1/k\◦A)↓(A\◦A) =∂A. CommeP(∂A) = 0, on peut trouver0< δ < εsuffisamment petit pour queP(Aδ\A)< ε etP((E\A)δ\(E\A))< ε. Par hypothèse,π1(Pn,P)tend vers0, donc on peut trouverunn0dépendant deεtel que pour toutn≥n0,π1(Pn,P)< δ. On en déduit les inégalités
P P n(A)versP(A)est établie.8 M.-C. Viano et Ch. Suquet
Exercice 1.1.On supposeQ= (1-α)P+αRoùα?[0,1]etRest une mesure de Exercice 1.2.Montrer que pour tousx,y?E,π(δx,δy) = min(1,d(x,y)).? Exercice 1.3.On définit la distance de Paul Lévy de deux lois de probabilitéPetQsur Rpar oùFetGsont les fonctions de répartition respectives dePetQ. a)V érifierque Lest une distance.
b) réelles(Xn)n≥1converge en loi versX,L(PXn,PX)converge vers0, où la notationPY désigne la loi deY. c) Mon trezque si L(PXn,PX)converge vers0, alorsXnconverge en loi versX. AinsiL métrise la convergence en loi. d) T rouverdeux suites de lois (Pn)n≥1et(Qn)n≥1telles queL(Pn,Qn)converge vers0, mais pasπ(Pn,Qn). En déduire que les distancesπetLne sont pas équivalentes.1.2. La distance en variation totale.Ici,(E,E)est un espace mesurable quel-
conque. ?P-Q?= supA?E{|P(A)-Q(A)|}.
Cette distance est issue de la norme en variation totale définie sur l"ensemble des mesures signées, ensemble dont on ne parlera pas ici. Sur l"ensemble des mesures positives, cette norme est tout simplement la masse totale de la mesure. stricte.? Exercice 1.5.(Théorème de Scheffé). SiPetQont respectivement pour densitéfetg par rapport à une même mesureμ, (1.1)?P-Q?=12 |f(x)-g(x)|dμ(x) = 1-? min{f(x),g(x)}dμ(x). Montrer que l"hypothèse d"existence de densités n"est pas restrictive.? Ce dernier résultat rend la distance en variation totale souvent facile à manipuler, même si la distance de Prohorov, puisqu"elle métrise la convergence en loi, est plus adaptée à beaucoup de problèmes statistiques. On a l"habitude de noterP?Qla mesure qui a pour densitémin{f(x),g(x)}. L"égalité 1.1 ) s"écrit ?P-Q?= 1- ?P?Q?. Il est à noter que la distance en variation totale a une signification statistique, comme on le voit dans l"exercice qui suit.Éléments de Statistique Asymptotique 9
Exercice 1.6.Supposons qu"on désire tester l"hypothèse que la loi d"une variableXest P, contre l"hypothèse que sa loi estQ. Pour toute région critiqueCon regarde la somme des deux erreursP(C) + 1-Q(C). Montrer que la valeur minimale de cette somme est atteinte et qu"elle vaut?P?Q?.?1.3. La distance d"Hellinger.Avec les notations de l"exercice1.5 , on pose
H2(P,Q) =?
??f(x)-?g(x)?2dμ(x).
La distanceH=⎷H
2ainsi définie est invariante par changement de mesure de
référence.On appelleaffinité d"Hellingerla quantité
A(P,Q) =?
?f(x)g(x)dμ(x).On a évidemment
H2(P,Q) = 2(1-A(P,Q)).
On remarque que, siP1etQ1(resp.P2etQ2) sont deux mesures surE1(resp.E2) à densité par rapport àμ1(resp.μ2) on aA(P1?P2,Q1?Q2) =A(P1,Q1)A(P2,Q2),
ce qui montre que la distance d"Hellinger est de manipulation particulièrement aisée pour des mesures produit. C"est la situation rencontrée en statistique lorsqu"on a affaire à des variables indépendantes. De plus, la distance d"Hellinger se compare bien à la distance en variation totale.Exercice 1.7.Montrer que
12 Exercice 1.8.Calculer la distance en variation totale et la distance d"Hellinger entre la gaussienne standard et la gaussienne d"espérancemet de variance1.? Exercice 1.9.CalculerH2(Pθ0,Pθ)lorsquePθest la loi uniforme sur[0,θ].? Exercice 1.10.On considèrePθla loi triangulaire centrée enθ: sa densité est nulle en dehors de[θ-1,θ+ 1]et sur cet intervalle elle est égale à1-(x-θ)sgn(x-θ). Montrer que H2(P0,Pθ) =-θ22
lnθ+o(θ2)lorsqueθ→0.10 M.-C. Viano et Ch. Suquet
2. Convergence de variables aléatoires à valeurs dans des espaces métriques
2.1. Rappels.Pour les convergences de suites de variables aléatoires à valeurs dans
quotesdbs_dbs31.pdfusesText_37[PDF] Tarif Delta Dore - Juillet 2017
[PDF] Chapitre 1 IS/LM et demande agrégée Chapitre 1 - HEC Lausanne
[PDF] demande d'aide financière individuelle - Caf
[PDF] les directives anticipées - HAS
[PDF] DIRECCTE d'Ile-de-France pièces à fournir pour - CFA Union
[PDF] LA COMMISSION DE RÉFORME
[PDF] demande d'attestation bancaire - Capital Bank
[PDF] attestation de stage
[PDF] CONGES ET AUTORISATIONS D'ABSENCES DES ENSEIGNANTS
[PDF] demande d'autorisation pour l'organisation d'une manifestation
[PDF] Demande d'autorisation préalable - Formulairesmodernisationgouvfr
[PDF] Demande de carte de résident d'une validité de 10 ans - Val de Marne
[PDF] NUMÉROS D'IDENTIFICATION FISCALE (NIF) Fiche sujet: où
[PDF] Déclaration attestant lachèvement et la conformité des travaux