[PDF] Statistiques mathématiques L'analyse statistique aura alors





Previous PDF Next PDF



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet



TD no 7 : Information de Fisher et vraisemblance

In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.



Observabilité et inversibilité de la matrice dinformation de Fisher

Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le 



Information de Fisher

En termes simples moins une observation est probable



Mise `a niveau Comparaison destimateurs

Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?) 



Statistiques mathématiques

L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.



Corrigé : Feuille de travaux dirigés 3

Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.



Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum

Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.



UV Statistique Cours n°5/6

Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.

Statistiques mathématiques

Equipe pédagogique: A. Barakat, T. Bonald, A. Sabourin, U. Simsekli, G. Staerman mise à jour: septembre 2019

Table des matières

1 Analyse statistique des données

4

1.1 Objectifs de l"analyse statistique, exemples

4

1.2 Formalisation statistique d"un problème

6

1.2.1 Cadre probabiliste, notations

6

1.2.2 Modèle statistique et paramétrisation

7

1.3 Modèles paramétriques, non-paramétriques; identifiabilité.

8

1.4 Modèles dominés

11

1.5 Nombre d"observations

13

1.6 Actions, procédures de décision, fonction de perte et risque

13

1.7 Règles randomisées (règles mixtes)

?. . . . . . . . . . . . . . . . . . . . . . . .17

1.8 Résumé du chapitre

18

2 Estimation ponctuelle

20

2.1MetZ-estimateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.2 Méthode des moindres carrés

21

2.3 Méthode des moments

22

2.4 Méthode du Maximum de vraisemblance

27

2.5 Famille exponentielle

?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30

2.6 Maximum de vraisemblance pour la famille exponentielle

?. . . . . . . . . . .31

3 Risque quadratique

33

3.1 Risque quadratique

33

3.2 Information de Fisher, Borne de Cramér-Rao

35

3.2.1 Modèle statistique régulier, information de Fisher

35

3.2.2 Borne de Cramér-Rao : paramètre scalaire

37

3.2.3 Borne de Cramér-Rao : paramètre vectoriel

39

3.2.4 Cas des famille exponentielle

40

4 Optimalité des décisions :

cadre classique et cadre bayésien 42

4.1 Difficultés liées à la minimisation uniforme du risque

42

4.2 Optimalité du risque sous contrainte

43

4.3 Risque minimax

44

4.4 La modélisation bayésienne

45

4.4.1 Modèle bayésien

45

4.4.2 Loi jointe, loi marginale des observations

46
1

4.4.3 Conditionnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.4.4 Loi a posteriori

48

4.4.5 Espérance a posteriori

49

4.5 Familles conjuguées

53

4.6 Risque bayésien, risque intégré

54

5 Tests statistiques

58

5.1 Tests statistiques et théorie de la décision

58

5.1.1 Risques et puissance d"un test

58

5.1.2 Tests randomisés

?. . . . . . . . . . . . . . . . . . . . . . . . . . . . .61

5.1.3 Approche de Neyman-Pearson

62

5.2 Test de Neyman-Pearson (Rapport de vraisemblance) : cas d"hypothèses simples

63

5.3 Existence d"un test U.P.P. avec randomisation

?. . . . . . . . . . . . . . . . .64

5.4 Exemples

65

5.5 Rapport de vraisemblance monotone

70

5.6 Approche bayésienne

75

5.7 Lien entre approche bayésienne et approche de Neyman-Pearson

78

6 Intervalles et régions de confiance

82

6.1 Régions et intervalles de confiance

82

6.2 Lien avec la théorie de la décision

83

6.3 Construction à l"aide de fonctions pivotales

84

6.4 Dualité entre régions de confiance et tests d"hypothèse de base simple

89

6.5 Le cas du rapport de vraisemblance monotone

91

A Rappels de probabilité

93

A.1 Espace de probabilité

93

A.2 Probabilité

94

A.3 Variables aléatoires

96

A.4 Quelques inégalités utiles

101
A.5 Mesuresσ-finies. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 A.6 Moments d"ordrep, espacesLpetLp. . . . . . . . . . . . . . . . . . . . . . .103

A.7 Variance, covariance

104

A.8 Indépendance. Mesures produits

105

A.9 Fonction caractéristique

108

A.10 Fonction génératrice des moments

109

A.11 Espérance conditionnelle

109

A.12 Lois usuelles

116

A.12.1 Loi gaussienne

116

A.12.2 Propriétés

118
A.12.3 Vecteurs aléatoires gaussiens et densités 119

A.12.4 Loi Gamma

119
A.12.5 Loi duχ2àkdegrés de liberté. . . . . . . . . . . . . . . . . . . . . . 120

A.12.6 Loi de Student

122

A.12.7 Loi de Fisher

123
2 Ce cours de statistique s"appuie principalement sur les ouvrages deBic keland Doksum 2015

Lehmann and Casella

1998

Lehmann

1959
] et Shao 2008
3

Chapitre 1

Analyse statistique des données

1.1 Objectifs de l"analyse statistique, exemples

La plupart des études et des expériences, commerciales, industrielles, ou scientifiques,

produisent des données. Au cours de la dernière décennie, le volume total des données stockées

a considérablement augmenté, ainsi que les moyens informatiques permettant leur traitement. Une prise de conscience s"opère sur la valeur potentielle de ces grandes masses de données, aussi bien pour le secteur privé que pour le secteur public (par exemple, dans les domaines de la santé publique ou de la gestion des risques industriels, sociétaux ou environnementaux). L"objet des statistiques est d"extraire de ces données " de la valeur », autrement dit des

informations utiles. Le point de vue particulier des statistiques est de considérer ces données

comme la réalisation d"une expérience aléatoire. La modélisation mathématique de celle-

ci permet de conduire une analyse et un traitement adapté des données (le plus souvent automatique) afin de répondre à des objectifs concrets comme l"apprentissage, le contrôle de qualité, etc. La plupart de ces objectifs particuliers ont un point commun : il s"agit de

fournir des outils d"aide à la décision en milieu incertain, en extrayant l"information partielle

contenue dans les données à disposition de l"analyste. Dans la suite de ce cours, on utilisera

indifféremment les termesinférence,apprentissage,analyse statistiquepour faire référence à

un processus automatisé d"extraction d"information à partir des données. Avant de formaliser

cette approche, donnons quelques exemples.

Exemple 1.1(Nombre d"objets défectueux):

Considérons une grande population deNéléments, par exemple des objets manufacturés ou des

clients d"une entreprise, ou des patients exposés à une maladie. Un nombre inconnu de ces objets,

Nθest défectueux (resp.est sur le point de résilier son contrat, c"est-à-dire de " churner », ou est

malade). Il est trop coûteux d"examiner individuellement chacun de ces objets. On s"intéresse à la

proportion de défautsθ. Pour obtenir une information surθ, on tire sans remise un échantillon de

néléments parmiNet l"on observe le nombreXd"éléments défectueux (resp. de churners, ou de

malades) dans cet échantillon. La description mathématique de cet exemple est simple. Le nombreXd"objets défectueux parmi lesnobjets choisis au hasard est appelée "observation". L"observation prend donc ici des valeurs entières, positives. Pourn,Netθfixés, on calcule facilement la loiPθ: 1. T outd"ab ord,Xne "peut pas" valoir plus quen, ni queNθ(la quantité totale d"objets 4

2.D"autre pa rt,Xest positive, et le nombre d"objets non défectueux restants après le tirage,

N(1-θ)-(n-X)est positif. Autrement dit, avec probabilité1,X≥max(0,n-N(1-θ)). 3. Enfin, p ourkun entier entre les deux bornes ci-dessus, la probabilité de choisirkest obtenue par dénombrement : le nombre de choix dekdéfectueux parmiNθ, multiplié par le nombre de choix de(n-k)non-défectueux parmi lesN-Nθéléments non défectueux, divisé par le nombre total de choix possibles denéléments parmiN.

On a montré :

P

θ({k}) =P(X=k) =?

Nθ k)(N-Nθ n-k)( N n),sik? {max(n-N(1-θ),0),...,min(Nθ,n)},

0,sinon

La loiPθdéfinie ci-dessus est appeléehypergéométrique, notéeHyper(Nθ,N,n). Cette loi dépend

den,Netθ. La notationPθrend compte du fait queθest un paramètre inconnu qui détermine (une fois fixésNetn) la loi deX. Dans cet exemple, la description de l"expérience aléatoire

produisant l"observation nous a permis de spécifier la loi de probabilité de l"observation à l"inconnue

θprès. Autrement dit, notre connaissance sur cette loi est qu"elle appartient à une famille P

θ=Hyper(Nθ,N),θ? {0,1N

,2N ,...,1}? L"expérience nous fournira une information permettant par exemple d"estimer la valeur deθ. Par exemple, on peut montrer que l"espérance deXvautnθ. Un estimateur "raisonnable" deθ(au sens où l"estimation est "en moyenne juste", c"est-à-dire "non-biaisée"), est ?θ=X/n. L"estimateur est bien une fonction des données. Exemple 1.2(Modèle à deux échantillons, test A/B): SoientX= (X1,...,Xm)etY= (Y1,...,Yn)les réponses respectivement demsujets ayant

une pathologie particulière à un traitement A et densujets souffrant de la même pathologie à un

traitement B. Par convention, A est un traitement standard ou un placebo etXest la populationquotesdbs_dbs1.pdfusesText_1
[PDF] information de fisher loi normale

[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos