[PDF] Statistique appliquée méthode des moments et





Previous PDF Next PDF



Estimation paramétrique

L'estimateur obtenu par la méthode des moments est alors. ˆ?n = 2Xn. Cet estimateur est sans bias et consistant. 2.3 Loi gaussienne. Ici k = 2 on prend ? = (m 



Méthode des moments de probabilité pondérés : application à la loi

MOTS-CLÉS : Loi de probabilité - Estimation de paramètres - Méthode des teur % du paramètre k suit asymptotiquement une loi normale de moyenne 0 et de ...



Projet Etienne Marceau Méthodes statistiques en assurance non vie

3.2.1 Estimation des param`etres par la méthode des moments . La fonction de maximum de vraisemblance pour la loi log-normale (µ ?2) s'écrit : ?.



Introduction aux Statistiques de deuxième espèce : applications des

Les méthodes utilisées en statistique pour étudier une distribution de probabilité loi normale ainsi que sur un modèle de bruit bien adapté à ce.



Statistique appliquée

méthode des moments et la méthode du maximum de vraisemblance. Si X suit la loi normale standard N(01)



Analyse dImpact Budgétaire de la Prise en Charge de la

Risques relatifs [0 ;?[ : log normale ou loi Gamma. Utilité ]-?;1] : loi Beta ou Normale Méthode des moments;Utilisation de la Loi Normale.



10. Estimation

Estimation de param`etres : deux méthodes : Méthode des moments ... une loi normale d'écart-type ? = 0.10 quelle taille d'échantillon.



La loi normale

3.6 Génération de variables aléatoires normales via la méthode de. Box-Muller . La fonction génératrice des moments d'une loi normale.



Statistique L3 CPES Notes de cours

16 oct. 2021 3.1 Méthode des moments . ... Loi uniforme sur un ensemble fini I. Une variable aléatoire X ? U(I) si X ? I et



EVALUATION DES DIFFERENTES LOIS STATISTIQUES POUR L

Gumbel avec la méthode du maximum de vraisemblance et la loi Log-Normale sont la loi de Gumbel avec les méthodes des moments et des moindres carrés ...



Estimation paramétrique - univ-toulousefr

de maximisant la vraisemblance c’est à dire véri?ant ^= argmax 2 p( ;X): Remarque — L’estimateur de maximum de vraisemblance n’existe pas tou-jours et n’est pas toujours unique Considérons le cas typique où X= (1;:::;X n)0 les X i formant un n-échantillon de loi Q 0 où Q 0 est une loi sur Xde paramètre inconnu 0 2 ˆ Rk



Statistique inferentielle´ Estimation - CNRS

D´e?nitions Estimation de la moyenne et de la variance Methode des moments´ Maximum de Vraisemblance Comparaison EXEMPLES Exemple : la loi uniforme On considere des variables` aleatoires i i d´ X 1;:::;X n suivant une loi uniforme sur 0; 2 avec >0 i e de densit´e f d´e?nie pour tout x 2R par f (x) = 1 2 1 [0; 2](x): Exemple : la loi



TD1 : méthode des moments et maximum de vraisemblance - unicefr

n) un n-échantillon de loi normale centrée en m ? R et de variance ?2 > 0 Les quantités m et ?2 sont supposées inconnues On rappelle que la loi de Y 1 admet la densité suivante sur R : f m?2(x) = 1 ? 2??2 exp ? (x?m)2 2?2 1 Donner un estimateur de m par la méthode des moments Est-il sans biais? Si non modi?er-le



Searches related to méthode des moments loi normale PDF

Université de Caen M1 TD no 8 : Méthode des moments Exercice 1 Soient >0 et Xune var suivant la loi de Bernoulli B 1 +1 i e dont la loi est donnéepar P(X= 0) = +1; P(X= 1) = 1 +1: 1 Déterminerunestimateurde parlaméthodedesmoments 2 Est-cequecetestimateurestconsistant? Est-cequ’ilestasymptotiquementnormal?

  • A.2 Choix Du Modèle fréquentiel

    La validité des résultats d'une analyse fréquentielle dépend du choix du modèle fréquentiel et plus particulièrement de son type. Diverses pistes peuvent contribuer à faciliter ce choix, mais il n'existe malheureusement pas de méthode universelle et infaillible.

  • A.3 Ajustement Du Modèle fréquentiel

    Dans ce chapitre nous étudierons les techniques de l'ajustement ou du calage d'un modèle fréquentiel à une série de données : il s'agit de définir les paramètres de la loi retenue. Nous utiliserons comme support pédagogique la loi de Gumbel, fréquemment utilisée en hydrologie, pour modéliser les événements extrêmes, les pluies notamment.

  • A.4 Contrôle de L'ajustement

    A.4.1 Examen visuel de l'ajustement

Comment calculer la méthode des moments ?

La méthode des moments consiste à trouver une fonction m , continue et inversible, et une fonction (continue) ? telles que m(?) = E[?(X1)] . On sait que cet estimateur est consistant. L'estimateur du maximum de vraisemblance, comme son nom l'indique, maximise la vraisemblance définie comme suit :

Qu'est-ce que la loi normale ?

La loi normale se justifie, théoriquement r par le théorème central-limite, comme la loi d'une variable aléatoire formée de la somme d'un grand nombre de variables aléatoires.

Comment calculer la loi de ?

Si est une variable aléatoire de loi , la loi de dépend aussi en général de , et il en est de même de son espérance. Mais peut être estimée par la moyenne empirique de . Si s'exprime en fonction de , on en déduira alors un estimateur de . Nous avons déjà utilisé cette technique plusieurs fois dans les deux paragraphes précédents.

Comment exprimer et en fonction de la loi gamma de paramètres et ?

Si suit la loi gamma de paramètres et , son espérance et sa variance valent : On peut donc exprimer et en fonction de et . Si on dispose d'un échantillon de la loi gamma de paramètres et , la moyenne empirique et la variance empirique sont des estimateurs convergents de et respectivement. On en déduit deux estimateurs convergents de et : Lois béta.

Statistique appliquée

Master 1 - Math

ematiques et Applications

Statistique appliqu

eeTabea Rebafka

Partie I et II

Universit

e Paris 6 2015

Table des mati

eres1 Introduction 3

2 Rappel et complements : Theorie des probabilites 5

2.1 Variables aleatoires et principales lois de probabilite . . . . . . . . . . . . .

5

2.1.1 Lois discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

2.1.2 Lois absolument continues . . . . . . . . . . . . . . . . . . . . . . . .

7

2.2 Quelques caracteristiques des lois de probabilite . . . . . . . . . . . . . . . .

9

2.2.1 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.2.2 Quantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.3 Relations entre variables aleatoires . . . . . . . . . . . . . . . . . . . . . . .

14

2.3.1 Vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

2.3.2 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

2.3.3 Covariance et correlation . . . . . . . . . . . . . . . . . . . . . . . .

17

2.4 Convergence de suites de vecteurs aleatoires . . . . . . . . . . . . . . . . . .

19

2.4.1 Denitions et proprietes fondamentales . . . . . . . . . . . . . . . .

19

2.4.2 Theoremes de continuite . . . . . . . . . . . . . . . . . . . . . . . . .

21

2.5 Quelques inegalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

3 Statistique descriptive 29

3.1 Observations a valeurs reelles . . . . . . . . . . . . . . . . . . . . . . . . . .

30

3.1.1 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

3.1.2 Diagramme en b^atons . . . . . . . . . . . . . . . . . . . . . . . . . .

32

3.1.3 Fonction de repartition empirique . . . . . . . . . . . . . . . . . . . .

33

3.1.4 Indicateurs de la tendance centrale, dispersion et forme . . . . . . .

37

3.1.5 Boxplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

3.2 Observations d'un couple de variables . . . . . . . . . . . . . . . . . . . . .

40

3.2.1 Nuage des points . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

3.2.2 Correlation empirique . . . . . . . . . . . . . . . . . . . . . . . . . .

41

3.3 Comparaison de distributions . . . . . . . . . . . . . . . . . . . . . . . . . .

42

3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .44

4 Estimation ponctuelle 47

4.1 Probleme d'estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47

4.2 Proprietes d'un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . .

49

4.2.1 Consistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50

4.2.2 Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

4.2.3 Loi limite et vitesse de convergence . . . . . . . . . . . . . . . . . . .

52

4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

5 Methodes d'estimation classiques 55

5.1 Methode de substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55

5.2 Methode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

57

5.3 Methode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . .

58

5.4 Optimisation d'une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

5.4.1 Rappel : Techniques d'optimisation classiques . . . . . . . . . . . . .

61

5.4.2 Methode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . .

63

5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

6 Modele de melange et algorithme EM 69

6.1 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

6.2 Modele de melange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

6.2.1 Exemple : Longueurs des ailes de passereaux . . . . . . . . . . . . .

71

6.2.2 Exemple : Niveau de chlorure dans le sang . . . . . . . . . . . . . . .

71

6.2.3 Denition du modele de melange . . . . . . . . . . . . . . . . . . . .

72

6.2.4 Modeles a variables latentes . . . . . . . . . . . . . . . . . . . . . .

79

6.3 Algorithme EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

6.3.1 Contexte d'application . . . . . . . . . . . . . . . . . . . . . . . . . .

79

6.3.2 L'algorithme EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

6.3.3 Proprietes de l'algorithme EM . . . . . . . . . . . . . . . . . . . . .

80

6.3.4 Aspects pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

6.3.5 Exemple : Melange gaussien . . . . . . . . . . . . . . . . . . . . . . .

82

6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

7 Modeles de regression 87

7.1 Motivation et Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

87

7.2 Modele lineaire et methode des moindres carres . . . . . . . . . . . . . . . .

89

7.2.1 Denition du modele lineaire . . . . . . . . . . . . . . . . . . . . . .

89

7.2.2 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

90

7.2.3 Methode des moindres carres . . . . . . . . . . . . . . . . . . . . . .92

7.3 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97

7.3.1 Denition et proprietes des vecteurs gaussiens . . . . . . . . . . . . .

97

7.3.2 Lois derivees de la loi normale . . . . . . . . . . . . . . . . . . . . .

99

7.3.3 Theoreme de Cochran . . . . . . . . . . . . . . . . . . . . . . . . . .

100

7.4 Modele lineaire gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

101

8 Estimation par intervalle 102

8.1 Erreur standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

102

8.1.1 Cas de la moyenne empirique . . . . . . . . . . . . . . . . . . . . . .

103

8.1.2 Erreur standard par simulation de Monte Carlo . . . . . . . . . . . .

104

8.1.3 Erreur standard par le Bootstrap . . . . . . . . . . . . . . . . . . . .

107

8.2 Intervalle de conance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

110

8.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

110

8.2.2 Construction d'intervalle de conance . . . . . . . . . . . . . . . . .

111

8.3 Intervalles de conance par le bootstrap . . . . . . . . . . . . . . . . . . . .

113

8.3.1 Intervalle bootstrap standard . . . . . . . . . . . . . . . . . . . . . .

114

8.3.2 Intervalle bootstrap studentise . . . . . . . . . . . . . . . . . . . . .

114

8.3.3 Methode des percentiles centres . . . . . . . . . . . . . . . . . . . . .

116

8.3.4 Intervalle bootstrap des percentiles . . . . . . . . . . . . . . . . . . .

118

8.3.5 Intervalle bootstrapBCa. . . . . . . . . . . . . . . . . . . . . . . .119

8.3.6 Comparaison de dierents intervalles bootstrap . . . . . . . . . . . .

120

Partie 1

Introduction et Rappels1

2

Chapitre 1

IntroductionL'objectif de lastatistiqueest d'extraire des informations utiles des donnees. Lesdonnees

sont issues de domaines tres varies comme la medecine, l'economie, la sociologie, l'inge- nierie, l'astrophysique, l'internet etc. Un statisticien cherche a les analyser et interpreter pour des objectifs concrets comme le contr^ole de qualite, l'aide a la decision etc. L'approche prise en statistique consiste a se donner un cadre mathematique, dans lequel la variabilite dans les donnees est expliquee par l'alea. On adopte donc unemodelisation pro- babilistedes donnees. On souligne qu'il n'est pas indispensable que le phenomene observe soit vraiment aleatoire, c'est-a-dire les donnees soient issue d'une experience ou intervient le hasard. La modelisation probabiliste n'est que le moyen pour prendre en compte la variabilite dans les donnees, et on doit toujours justier et critiquer le choix d'un modele. Par ailleurs, il est clair que tout modele est faux, car il ne peut ^etre qu'une approximation de la realite. Neanmoins, on espere que le modele choisi est approprie pour apporter des reponses en vue des objectifs concrets de l'application. Prenons comme exemple les ventes dans une boutique de v^etements. Chaque jour on observe le montant depense par tous les clients passes a la caisse. Tous les jours, on observe alors un vecteurx= (x1;:::;xn) representant les depenses desnclients de ce jour. Une modelisation probabiliste simple serait de considerer les donneesxcomme la realisation d'un vecteur aleatoireX= (X1;:::;Xn) de loiPinconnue. An d'"expliquer" les donnees, le statisticien cherche a determiner cette loi de probabilite P. En general, il est impossible de reconstituerPexactement, mais on essaye de l'approcher en utilisant au mieux les donnees observeesx. Ensuite, le statisticien essaye de donner des reponses aux questions issues de l'application. Dans notre exemple, on pourrait etudier la question si le client moyen depense plus ou moins pendant les soldes compare a la periode normale. En s'appuyant sur des donnees d'un jour de soldesx= (x1;:::;xn) de loiPsolde et des donnees d'un jour "normal"y= (y1;:::;ym) de loiPnormal, on pourrait comparer les loisPsoldeetPnormalpour repondre a la question. Ce cours comporte deux grandes parties, que l'on reconna^t dans ce petit exemple : la premiere partie porte sur l'identication de la loiPdes donnees, plus precisement, sur le choix du modele probabiliste et l'estimation. La deuxieme partie presente des tests statistiques pour apporter des reponses a des questions d'inter^et pratique. Puisque l'approche statistique repose toujours sur une modelisation probabiliste, nous commencons ce cours par un rappel sur la theorie des probabilites et la presentation de quelques outils probabilistes particulierement utiles en statistique (Chapitre 2). Le choix d'un modele pour les donnees repose d'une part sur une connaissance partielle prealable du phenomene etudie, de la facon dont une experience a ete menee et d'autre part sur des representations graphiques des donnees recueillies. Ces outils graphiques sont 3 connus sous le nom destatistique descriptive, et ils sont presentes dans le Chapitre 3. Cette demarche mene a denir des hypotheses sur la loiPdes donnees et a determiner une famille de lois a laquelle la loiPest susceptible d'appartenir. Ensuite on cherche a identier la loiPdes donnees dans cette famille de lois, en construi- sant unestimateur. Chapitre 4 introduit des proprietes souhaitables d'estimateurs permet- tant d'evaluer et de comparer dierents estimateurs. Chapitre 5 presente des approches classiques pour la construction d'estimateurs, notamment la methode de substitution, la methode des moments et la methode du maximum de vraisemblance. Chapitre 6 porte sur des modeles pertinents pour des nombreuses applications, groupes sous le nom demodeles a variables latentes. D'une part, ces modeles sont tres importants pour la pratique, d'autre part, ils sont relativement diciles d'un point de vue mathe- matique, en sorte que l'estimation necessite des methodes adaptees. Dans cette optique, l'algorithme EM est presente. D'autres modeles de grande utilite en statistique sont les modeles de regression, traites dans le Chapitre 7. Ces modeles permettent d'etudier la relation entre plusieurs variables, notamment l'impact de certaines variables sur une autre variable. Cette partie du cours se termine par un chapitre sur l'estimation par intervalle, ou notam- ment le bootstrap sera presente (Chapitre 8). De facon generale, nous ne fournissons que quelques elements d'analyse theorique des proprietes d'estimateurs, car un inter^et particulier sera porte sur des solutions pratiques (notamment des algorithmes) pour le calcul des estimateurs. Dans la partie sur lestests statistiques, nous presenterons, d'une part, des tests pour va- lider ou choisir un modele approprie aux donnees. P. ex. on veut repondre a la question si l'hypothese que les observationsxsuivent une loi normale est juste au vu des donnees. D'autre part, nous developperons des tests pour repondre aux questions issues de l'ap- plication, comme p. ex. la question si les achats par personne sont plus ou moins eleves pendant les soldes compare a la periode normale. 4

Chapitre 2

Rappel et compl

ements : Th

eorie des probabilitesCe chapitre comprend un rappel sur la theorie des probabilites et la presentation de

quelques outils probabilistes pour la statistique. Les preuves de nombreux resultats sont omis, car elles sont supposees connues de votre cours de probabilite. Par ailleurs, vous les trouverez dans la majorite des ouvrages classiques de la theorie des probabilites.

2.1 Variables al

eatoires et principales lois de probabilit eSoit ( ;A;P) un espace de probabilite, ou ( ;A) est un espace mesurable etPest une mesure de probabilite surA. Unevariable aleatoireXest une fonction mesurableX: (- ;A)!(R;B) ouBest la tribu borelienne deR. On ecrit parfoisX=X(!) pour souligner le fait qu'il s'agit d'une fonction de!2 Lafonction de repartitiond'une variable aleatoireXest la fonctionF:R![0;1] denie parF(x) =P(Xx) =P(!:X(!)x). La fonctionFsera aussi appelee laloi ou ladistributiondeX. La fonction de repartition est une fonction monotone croissante, continue a droite et telle que limx!1F(x) = 0 et limx!1F(x) = 1.

On a, pour touta < b,

P(X=a) =F(a)limt!aF(t);(2.1)

P(X2]a;b]) =F(b)F(a);

P(X2[a;b]) =P(X2]a;b]) +P(X=a) =F(b)limt!aF(t);

P(X2]a;b[) =P(X2]a;b])P(X=b) = limt!bF(t)F(a);

P(X2[a;b[) =P(X2]a;b])P(X=b) +P(X=a) = limt!bF(t)limt!aF(t): Notonspladensitede la loiFpar rapport a une mesure de reference. Plus precisement, pest une fonction-mesurable positive telle que

F(x) =Z

]1;x]pd ;pour toutx2R: 5

Plus generalement, on a pour tout ensembleB2 B,

P(X2B) =Z

B pd : D'apres le theoreme de Radon-Nikodym,pest unique (a egalite-presque partout pres).

On note queZ

R pd= 1: Souvent on noteFXetpXpour la fonction de repartition et la densite d'une variable aleatoireX. Il existe deux principaux types de variables aleatoires : les variables discretes qui admettent une densite par rapport a une mesure de comptage, et les variables continues qui admettent une densite par rapport a la mesure de Lebesgue. Les lois des variables discretes sont entierement denies par les probabilitesP(X=) et les lois des variables continues par leur densitef().

2.1.1 Lois discr

etes On dit queXest unevariable aleatoire discretequand les valeurs deXappartiennent a un ensembleV=fv1;v2;:::gni ou denombrable. Plus precisement, on a

P(X2 V) =X

kP(X=vk) = 1: Autrement dit, la loi deXadmet une densiteppar rapport a la mesureVde comptage surV. Elle veriep(v) =P(X=v) pour toutv2 V, et pour toutx2R

F(x) =Z

]1;x]pdV=X kP(X=vk)1fvkxg=X k:vkxP(X=vk): La fonction de repartition d'une variable aleatoire discrete est une fonction en escalier.

Principales lois discr

quotesdbs_dbs33.pdfusesText_39
[PDF] methode des moments exercices corrigés

[PDF] comment construire un diagramme triangulaire

[PDF] mariage mixte au maroc pièces a fournir

[PDF] mariage mixte marocaine francais

[PDF] témoignage d'un survivant d'auschwitz

[PDF] comment calculer le qaly

[PDF] introduction ? l optimisation

[PDF] optimisation numérique aspects théoriques et pratiques

[PDF] fonction coercive

[PDF] les causes de l'avortement

[PDF] livre d optimisation pdf

[PDF] pdf avortement spontané

[PDF] cours et exercices corrigés doptimisation pdf

[PDF] ivg médicamenteuse

[PDF] optimisation sous contrainte exercice corrigé