TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet
TD no 7 : Information de Fisher et vraisemblance
In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.
Observabilité et inversibilité de la matrice dinformation de Fisher
Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le
Information de Fisher
En termes simples moins une observation est probable
Mise `a niveau Comparaison destimateurs
Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?)
Statistiques mathématiques
L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.
Corrigé : Feuille de travaux dirigés 3
Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.
Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum
Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.
UV Statistique Cours n°5/6
Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.
Statistiques mathématiques
Equipe pédagogique: A. Barakat, T. Bonald, A. Sabourin, U. Simsekli, G. Staerman mise à jour: septembre 2019Table des matières
1 Analyse statistique des données
41.1 Objectifs de l"analyse statistique, exemples
41.2 Formalisation statistique d"un problème
61.2.1 Cadre probabiliste, notations
61.2.2 Modèle statistique et paramétrisation
71.3 Modèles paramétriques, non-paramétriques; identifiabilité.
81.4 Modèles dominés
111.5 Nombre d"observations
131.6 Actions, procédures de décision, fonction de perte et risque
131.7 Règles randomisées (règles mixtes)
?. . . . . . . . . . . . . . . . . . . . . . . .171.8 Résumé du chapitre
182 Estimation ponctuelle
202.1MetZ-estimateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Méthode des moindres carrés
212.3 Méthode des moments
222.4 Méthode du Maximum de vraisemblance
272.5 Famille exponentielle
?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .302.6 Maximum de vraisemblance pour la famille exponentielle
?. . . . . . . . . . .313 Risque quadratique
333.1 Risque quadratique
333.2 Information de Fisher, Borne de Cramér-Rao
353.2.1 Modèle statistique régulier, information de Fisher
353.2.2 Borne de Cramér-Rao : paramètre scalaire
373.2.3 Borne de Cramér-Rao : paramètre vectoriel
393.2.4 Cas des famille exponentielle
404 Optimalité des décisions :
cadre classique et cadre bayésien 424.1 Difficultés liées à la minimisation uniforme du risque
424.2 Optimalité du risque sous contrainte
434.3 Risque minimax
444.4 La modélisation bayésienne
454.4.1 Modèle bayésien
454.4.2 Loi jointe, loi marginale des observations
461
4.4.3 Conditionnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.4 Loi a posteriori
484.4.5 Espérance a posteriori
494.5 Familles conjuguées
534.6 Risque bayésien, risque intégré
545 Tests statistiques
585.1 Tests statistiques et théorie de la décision
585.1.1 Risques et puissance d"un test
585.1.2 Tests randomisés
?. . . . . . . . . . . . . . . . . . . . . . . . . . . . .615.1.3 Approche de Neyman-Pearson
625.2 Test de Neyman-Pearson (Rapport de vraisemblance) : cas d"hypothèses simples
635.3 Existence d"un test U.P.P. avec randomisation
?. . . . . . . . . . . . . . . . .645.4 Exemples
655.5 Rapport de vraisemblance monotone
705.6 Approche bayésienne
755.7 Lien entre approche bayésienne et approche de Neyman-Pearson
786 Intervalles et régions de confiance
826.1 Régions et intervalles de confiance
826.2 Lien avec la théorie de la décision
836.3 Construction à l"aide de fonctions pivotales
846.4 Dualité entre régions de confiance et tests d"hypothèse de base simple
896.5 Le cas du rapport de vraisemblance monotone
91A Rappels de probabilité
93A.1 Espace de probabilité
93A.2 Probabilité
94A.3 Variables aléatoires
96A.4 Quelques inégalités utiles
101A.5 Mesuresσ-finies. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 A.6 Moments d"ordrep, espacesLpetLp. . . . . . . . . . . . . . . . . . . . . . .103
A.7 Variance, covariance
104A.8 Indépendance. Mesures produits
105A.9 Fonction caractéristique
108A.10 Fonction génératrice des moments
109A.11 Espérance conditionnelle
109A.12 Lois usuelles
116A.12.1 Loi gaussienne
116A.12.2 Propriétés
118A.12.3 Vecteurs aléatoires gaussiens et densités 119
A.12.4 Loi Gamma
119A.12.5 Loi duχ2àkdegrés de liberté. . . . . . . . . . . . . . . . . . . . . . 120
A.12.6 Loi de Student
122A.12.7 Loi de Fisher
1232 Ce cours de statistique s"appuie principalement sur les ouvrages deBic keland Doksum 2015
Lehmann and Casella
1998Lehmann
1959] et Shao 2008
3
Chapitre 1
Analyse statistique des données
1.1 Objectifs de l"analyse statistique, exemples
La plupart des études et des expériences, commerciales, industrielles, ou scientifiques,produisent des données. Au cours de la dernière décennie, le volume total des données stockées
a considérablement augmenté, ainsi que les moyens informatiques permettant leur traitement. Une prise de conscience s"opère sur la valeur potentielle de ces grandes masses de données, aussi bien pour le secteur privé que pour le secteur public (par exemple, dans les domaines de la santé publique ou de la gestion des risques industriels, sociétaux ou environnementaux). L"objet des statistiques est d"extraire de ces données " de la valeur », autrement dit desinformations utiles. Le point de vue particulier des statistiques est de considérer ces données
comme la réalisation d"une expérience aléatoire. La modélisation mathématique de celle-
ci permet de conduire une analyse et un traitement adapté des données (le plus souvent automatique) afin de répondre à des objectifs concrets comme l"apprentissage, le contrôle de qualité, etc. La plupart de ces objectifs particuliers ont un point commun : il s"agit defournir des outils d"aide à la décision en milieu incertain, en extrayant l"information partielle
contenue dans les données à disposition de l"analyste. Dans la suite de ce cours, on utiliseraindifféremment les termesinférence,apprentissage,analyse statistiquepour faire référence à
un processus automatisé d"extraction d"information à partir des données. Avant de formaliser
cette approche, donnons quelques exemples.Exemple 1.1(Nombre d"objets défectueux):
Considérons une grande population deNéléments, par exemple des objets manufacturés ou des
clients d"une entreprise, ou des patients exposés à une maladie. Un nombre inconnu de ces objets,
Nθest défectueux (resp.est sur le point de résilier son contrat, c"est-à-dire de " churner », ou est
malade). Il est trop coûteux d"examiner individuellement chacun de ces objets. On s"intéresse à la
proportion de défautsθ. Pour obtenir une information surθ, on tire sans remise un échantillon de
néléments parmiNet l"on observe le nombreXd"éléments défectueux (resp. de churners, ou de
malades) dans cet échantillon. La description mathématique de cet exemple est simple. Le nombreXd"objets défectueux parmi lesnobjets choisis au hasard est appelée "observation". L"observation prend donc ici des valeurs entières, positives. Pourn,Netθfixés, on calcule facilement la loiPθ: 1. T outd"ab ord,Xne "peut pas" valoir plus quen, ni queNθ(la quantité totale d"objets 42.D"autre pa rt,Xest positive, et le nombre d"objets non défectueux restants après le tirage,
N(1-θ)-(n-X)est positif. Autrement dit, avec probabilité1,X≥max(0,n-N(1-θ)). 3. Enfin, p ourkun entier entre les deux bornes ci-dessus, la probabilité de choisirkest obtenue par dénombrement : le nombre de choix dekdéfectueux parmiNθ, multiplié par le nombre de choix de(n-k)non-défectueux parmi lesN-Nθéléments non défectueux, divisé par le nombre total de choix possibles denéléments parmiN.On a montré :
Pθ({k}) =P(X=k) =?
Nθ k)(N-Nθ n-k)( N n),sik? {max(n-N(1-θ),0),...,min(Nθ,n)},0,sinon
La loiPθdéfinie ci-dessus est appeléehypergéométrique, notéeHyper(Nθ,N,n). Cette loi dépend
den,Netθ. La notationPθrend compte du fait queθest un paramètre inconnu qui détermine (une fois fixésNetn) la loi deX. Dans cet exemple, la description de l"expérience aléatoireproduisant l"observation nous a permis de spécifier la loi de probabilité de l"observation à l"inconnue
θprès. Autrement dit, notre connaissance sur cette loi est qu"elle appartient à une famille Pθ=Hyper(Nθ,N),θ? {0,1N
,2N ,...,1}? L"expérience nous fournira une information permettant par exemple d"estimer la valeur deθ. Par exemple, on peut montrer que l"espérance deXvautnθ. Un estimateur "raisonnable" deθ(au sens où l"estimation est "en moyenne juste", c"est-à-dire "non-biaisée"), est ?θ=X/n. L"estimateur est bien une fonction des données. Exemple 1.2(Modèle à deux échantillons, test A/B): SoientX= (X1,...,Xm)etY= (Y1,...,Yn)les réponses respectivement demsujets ayantune pathologie particulière à un traitement A et densujets souffrant de la même pathologie à un
traitement B. Par convention, A est un traitement standard ou un placebo etXest la populationquotesdbs_dbs1.pdfusesText_1[PDF] information et création numérique
[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos