[PDF] Table des matières 1 Modèles statistiques





Previous PDF Next PDF



Table des matières 1 Modèles statistiques

L'espérance de la moyenne empirique est la moyenne véritable dans la pop- ulation. On peut aussi dire que ¯Xn est un estimateur sans biais de m. • Variance de ¯ 



UNIVERSITÉ DE RENNES I UFR DE MATHEMATIQUES

inconnue donner une estimation non biaisée de l'espérance et de la variance de cette loi. Solution : on a vu en cours que le moyenne empirique est un 



Compléments de probabilités et Statistique Inférentielle

La moyenne empirique d'un n échantillon est souvent utilisé comme estimateur de l'espérance de la loi mère. • La variance empirique et la variance empirique 



Statistique Mathématique

On dit également que c'est la moyenne arith- La variance empirique ou plus simplement



STATISTIQUE : ESTIMATION

Xk est un estimateur de l'espérance mathématique. Comme dans le cas de la moyenne empirique le TCL nous permet de déterminer la loi asymptotique de.



Quelques rappels sur les intervalles de confiance

ce cas la distribution de la moyenne empirique tend vers une loi normale l'intervalle de confiance bilatéral symétrique pour l'espérance d'une loi.



Cours de Statistiques inférentielles

Exemple : pour estimer l'espérance E(X) de la loi de X un estimateur naturel est la moyenne empirique. X qui produit une estimation x



Estimations et intervalles de confiance

Exemple : La moyenne empirique Xn est un estimateur convergent et sans biais de l'espérance mathématique µ. Écart quadratique moyen. Notons que l'on a.



Statistique Mathématique

La variance de la moyenne empirique vaut n?1?2 n d'où le résultat. 2. Remarque 3 L'espérance de la variance empirique n'est pas égale à la vraie va-.



MOYENNE EMPIRIQUE (F3) (30 / 04 / 2018) Une moyenne

MOYENNE EMPIRIQUE (F3). (30 / 04 / 2018). Une moyenne empirique est une statistique naturelle mise en correspondance avec celle d'espérance mathématique.

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE

U.F.R. SEGMI Année universitaire 2019 - 2020

L2 Économie Cours de B. Desgraupes

Méthodes Statistiques

Séance 02: ÉchantillonnageTable des matières

1 Modèles statistiques 1

2 Caractéristiques d"un échantillon 2

2.1 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

2.2 La moyenne empirique . . . . . . . . . . . . . . . . . . . . . . . .

4

2.3 La fréquence empirique . . . . . . . . . . . . . . . . . . . . . . .

5

2.4 La variance empirique . . . . . . . . . . . . . . . . . . . . . . . .

5

3 Échantillons issus d"une variable normale 6

4 Comportement asymptotique 71 Modèles statistiques

On considère dans cette séance un échantillon de taillenextrait d"une popula- tion de tailleNet on s"intéresse à un caractèreXassocié aux éléments de la population (les "individus statistiques"). L"échantillon d"individusrésulte d"un tirage avec remise dans la population. À cet échantillon correspond unéchantillon de valeursprises par la caractère X. Le caractèreXest considéré comme une variable aléatoire et l"échantillon de valeurs est consitué denréalisations de cette variable. C"est sur cet échantillon que se font les calculs. On représente cette situation au moyen d"unmodèle statistiquequi comporte en particulier une famille de lois de probabilité parmi lesquelles se trouve la loi suivie par la variableX. Ces lois de probabilité dépendent en général d"un ou plusieurs paramètres notés. Dans ce cas, on dit qu"on a unmodèle statistique paramétrique.

Par exemple :

pour une loi normale, les paramètres sont la moyennemet l"écart-type pour une loi de Bernoulli ou une loi binomiale, c"est la probablilitép. 1 Un des problèmes les plus courants en statistique consiste à trouver la valeur du ou des paramètres pour la population. Mais comme on ne peut pas en général avoir l"information nécessaire, on doit ce contenter des valeurs fournies par l"échantillon. À partir de l"échantillon de valeurs, on essaie de résoudre divers types de problèmes : 1. les problèmes de test: choix entre deux éventualités dont une seule est vraie. 2. les problèmes d" estimation ponctuelle: choisir une valeur du paramètre. À partir des données de l"échantillon, il faut définir une fonction (appelée aussi une statistique) dont la valeur estime. 3. les problèmes d" estimation ensembliste: déterminer un sous-ensemble de l"ensemble des paramètres représentant un ensemble d"éventualités. Cela conduit à la détermination d"intervalles de confiance. L"expérience aléatoire consiste ennexpériences élémentairesidentiqueset indépendantes. On considère que chaqueXiest une variable aléatoire et on suppose qu"elles sontindépendantesentre elles. D"autre part, elles sont identiquement distribuées (puisque distribuées commeXelle-même). En abrégé, on dit que lesXisonti.i.d.qui est l"abréviation deindépendantes et identiquement distribuées.

On a donc :

E(Xi) =metVar(Xi) =28i= 1;:::;n

2 Caractéristiques d"un échantillon

2.1 Estimateurs

On notera(X1;:::;Xn)l"échantillon de valeurs. Les statistiques calculées à partir de cet échantillon dépendent évidemment de l"échantillon qui a été tiré. On dit qu"il s"agit de quantitésempiriquespuisqu"elles résultent de l"expérience (tirage, observation, mesure, etc.). On va voir en particulier les quantités empiriques les plus couramment util- isées : 1. la moyenne empirique; 2. la variance empirique; 3. la fréquence empirique. Si on avait tiré un autre échantillon, la statistique empirique aurait certaine- ment une autre valeur. Il s"agit donc d"une valeur aléatoire et on s"intéressera à son espérance et à sa variance. 2

Exemple

Comment estimer la taille moyenne d"un étudiant de l"université Paris-Ouest On peut procéder en prenant 10 étudiants au hasard et en mesurant la taille moyenne parmi ces dix étudiants. Notre estimateur serait ici la moyenne de l"échantillon.

Deux questions viennent à l"esprit :

1. la taille de l"éc hantillonest-elle imp ortante? Intuitivement, on sent bien que plus l"échantillon sera grand et meilleure sera l"estimation. 2. le nom bred"éc hantillonstirés est-il imp ortant? Intuitivement encore, on se dit que si on arrive à accumuler beaucoup de valeurs de la statistique qui sert d"estimateur (en tirant beaucoup d"échantillons), à la fin, en moyenne, on aura une "bonne" estimation de la vraie valeur du paramètre qui nous intéresse. On verra plus loin, à travers les propriétés asymptotiques, dans quelle mesure la théorie vient confirmer ces intuitions.

Notion de biais

On peut construire beaucoup d"estimateurs différents pour estimer un paramètre donné. Certains seront considérés comme meilleurs que d"autres selon différents critères. Une bonne manière de quantifier cette propriété est de calculer l"espérance de l"estimateur (c"est-à-dire sa valeur moyenne compte-tenu de sa distribution probabiliste) et de voir si elle fournit la vraie valeur. Si on appelleTl"estimateur etle paramètre, on se demande si :

E(T)?=

Ce n"est pas nécessairement le cas.

Définition 2.1.On dit que l"estimateurTest sans biais lorsqueE(T) =. La quantitéb() =E(T)s"appelle lebiaisde l"estimateur. Sib()6= 0, on dit que l"estimateur estbiaisé. Un estimateur est donc sans biais lorsque son espérance est égale à ce qu"il estime. 3

2.2 La moyenne empirique

Définition 2.2.La moyenne empirique de l"échantillon est Xn=1n n X i=1X i Cette moyenne empirique est utilisée comme estimateur de la moyenne véri- table de la population.

Espérance deXn

E Xn=E 1n n X i=1X i! 1n n X i=1EXi 1n n X i=1m 1n nm =m L"espérance de la moyenne empirique est la moyenne véritable dans la pop- ulation. On peut aussi dire queXnest un estimateur sans biais dem.

Variance deXn

Les variables étant indépendantes, on sait que la variance de la somme est égale à la somme des variances. On écrit : Var

Xn= Var

1n n X i=1X i! 1n 2n X i=1VarXi 1n 2n X i=1 2 1n 2n2 2n Autrement dit, plus la taille de l"échantillon est grande plus la variance de l"estimateurXnest faible. 4 Si on prend la racine carrée, on voit que l"écart-type de la moyenne empirique est égal àpn : pour diviser l"écart-type par 2, il faut multiplier la taille de l"échantillon par 4.

2.3 La fréquence empirique

Dans le cas particulier d"une expérience de Bernoulli, c"est-à-dire d"une variable aléatoireXqui peut prendre seulement les valeurs 0 ou 1, la moyenne empirique est appeléefréquence empirique. On la noteFnplutôt queXn. Puisque les valeurs de l"échantillon prennent la valeur 0 ou 1, leur somme est le nombre de fois où la valeur est 1. En divisant parn, on obtient donc la proportion des variables qui prennent la valeur 1. Supposons queX B(p). On prend la fréquence empirique comme estima- teur du paramètrep.

Rappel

L"espérance d"une loi de BernoulliB(p)est égale àpet la variance àp(1p). On déduit donc des calculs sur la moyenne empirique que : 8< :EFn=p Var

Fn=p(1p)n

On peut donc dire queFnest un estimateur sans biais de la proportionp dans la population.

2.4 La variance empirique

Définition 2.3.On appelle variance empirique d"une échantillon(X1;:::;Xn) la quantité S 2n=1n n X i=1(XiX)2 C"est la somme des carrés des écarts à la moyenne empirique (qu"on note ici simplementXau lieu deXn). La variance est une quantité au carré. Cela signifie que si les valeursXi sont, par exemple, mesurées en mètres, alors la variance est en mètres carrés. La racineSns"appelle l"écart-type empirique. Il est mesuré dans la même unité que lesXi.

Lorsque la variance2de la population est inconnue, on peut utiliserS2ncomme estimateur mais on va voir que c"est un estimateur biaisé.

Il existe une autre formule (diteformule développée) pour calculer la variance d"un échantillon : S 2n=1n n X i=1X 2iX2 5

On interprète cette formule en disant que

la variance est égale à la moyenne des carrés moins le carré de la moyenne. L"espérance de la variance empirique n"est pas égale à la variance véritable dans la population.

ES2n=n1n

2 C"est une valeur un peu plus petite à cause du terme n1n . C"est donc un estimateur biaisé. Pour cette raison, on définit lavariance empirique modifiéecomme ceci : s

2n=nn1S2n=1n1n

X i=1(XiX)2 La variance empirique modifiée est un estimateur non biaisé de la variance de la population :

Es2n=2

3 Échantillons issus d"une variable normale

Dans certains cas, on dispose d"informations exactes concernant les estimateurs : c"est en particulier le cas, si l"échantillon est extrait d"une population gaussienne. Cela se produit lorsque toutes les variablesXisuivent une loi normale N(m;). On dit que ce sont des variablesgaussiennes. On obtient alors des propriétés précises sur la distribution des moyennes et des variances empiriques et des propriétés intéressantes concernant l"indépendance.

Loi deXn

On sait que toute combinaison linéaire de lois normales est normale. On en déduit queXnsuit une loi normale lorsque toutes lesXisont gaussiennes. On a calculé précédemment l"espérance et la variance deXn. On a donc : Xn N m;pn On peut aussi écrire ce résultat sous la forme : pn(Xnm) N(0;1)

Loi des2n

La loi de la variance empirique est aussi connue dans le cas d"un échantillon issu d"une variable normale. On a le résultat suivant : 6 Théorème 3.1(de Fisher).Si(X1;:::;Xn)est un échantillon de variables gaussiennes i.i.d. de loiN(m;), alors les variablespn(Xnm) et(n1)s2n 2 suiventindépendammentune loiN(0;1)et une loi du2àn1degrés de liberté.

4 Comportement asymptotique

L"étude du comportement asymptotique est celui des propriétés probabilistes des estimateurs lorsque la taille des échantillonsnaugmente et tend vers l"infini. On cherche à savoir s"il existe une limite et comment sont distribuées les valeurs empiriques calculées. Il y a deux résultats importants qui précisent le comportement asymptotique de la moyenne empirique lorsquen!+1: la loi des grands nombres justifie l"intuition selon laquelle plus l"échantillon est grand, plus la moyenne empirique se rapproche de l"espérance ; le théorème central limite indique comment sont réparties les valeurs obtenues à partir de différents échantillons.

Loi des grands nombres

Théorème 4.1.SifXigi1est une suite de variables aléatoires réelles in- dépendantes et identiquement distribuées, alors la moyenne empiriqueXntend presque sûrement vers la moyennemlorsquen!+1. Ce théorème stipule donc que plus l"échantillon est grand et plus (il est prob- able que) la moyenne empirique se rapproche de la moyenne de la population.

Remarques :

La moyennemest l"espérance des variables aléatoiresXi: elles ont toutes la même puisqu"elles sont identiquement distribuées. La notion de "convergence presque sûre" évoquée par ce théorème sera expliquée dans le Cours de Probabilités. Elle signifie que ce résultat est probabiliste : il veut dire qu"il y a une probabilité 100% que la limite deXnsoitmlorsquen!+1.

Exemple

On cherche à connaître la répartition de la taille moyenne en centimètres des étudiants de l"université Paris-Ouest. On a donc sélectionné 200 groupes de 10 étudiants et pour chacun d"eux on a calculé la moyenne des tailles. Voici l"histogramme des 200 moyennes obtenues (centrées et réduites comme dans le théorème) : 7 n=10 -3 -2 -1 0 1 2 3

0.0 0.1 0.2 0.3 0.4Sur la figure suivante, on a ajouté en surimpression la densité de la loi

normaleN(0;1): n=10 -3 -2 -1 0 1 2 3

0.0 0.1 0.2 0.3 0.4On a ensuite recommencé l"expérience en prenant des échantillons de tailles

de plus en plus grandes :n= 100, puisn= 200, puisn= 500. On obtient les histogrammes suivants et on observe l"adéquation de plus en plus grande entre la densité empirique représentée par l"histogramme et la 8 densité réelle de la loiN(0;1).n=100 -2 0 2 4

0.0 0.1 0.2 0.3 0.4

n=200 -3 -2 -1 0 1 2 3

0.0 0.1 0.2 0.3 0.49

n=500 -3 -2 -1 0 1 2 3

0.0 0.1 0.2 0.3 0.4Théorème central limite

Théorème 4.2.SifXigi1est une suite de variables aléatoires réelles indépen- dantes et identiquement distribuées avecE(Xi) =metVar(Xi) =2pour tout i, alors la loi de probabilité de la quantitépn Xnm se rapproche de la loi normaleN(0;1)lorsquen!+1. Ce théorème renseigne donc sur la distribution de pn Xnm . Une autre manière d"utiliser cet énoncé consiste à dire que "sinest assez grand" alors la moyenne empirique suit "approximativement" une loi normaleN(m;pn

Remarques :

On a vu précédemment queEXn=metXn=pn

. L"expression pn Xnm représente doncXnEXn

Xn, autrement dit c"est la vari-

able aléatoire

Xnqui est centrée et réduite.

La notion de "convergence en loi" évoquée par ce théorème sera expliquée dans le Cours de Probabilités. Elle signifie que la fonction de répartition de la variablepn Xnm tend (en tant que fonction) vers la fonction de répartition de la loi normaleN(0;1). 10 Le théorème central limite renseigne aussi sur lavitesse de convergence: on dit qu"on a une vitesse de convergence enpn. Le théorème central limite est souvent énoncé de la manière suivante : pn Xnm

L! N(0;1)lorsquen!+1La notation "

L!" signifie "convergence en loi".

Le point le plus remarquable dans ce théorème est qu"il est valablequelle que soit la loi de probabilitésuivie par les variablesXi, la seule condition étant qu"elles aient la même loi avec une espérance et une variance finies.

Conclusion

Les deux théorèmes précédents (LGN et TCL) décrivent le comportement asymtotique de la moyenne empiriqueXnen montrant que celle-ci tend presque sûrement versmet en précisant la manière dont elle est dispersée autour dem. 11quotesdbs_dbs19.pdfusesText_25
[PDF] esperance de la tunisie 1994

[PDF] esperance sportive de tunisie wikipedia

[PDF] espresso english grammar level 1 pdf

[PDF] espresso english grammar level 2 pdf

[PDF] espresso english grammar level 3 pdf

[PDF] esprit : ecole sup privée d'ingénierie et de technologies

[PDF] esprit tunisie frais scolarité

[PDF] essada net

[PDF] essai cloche sprinkler

[PDF] essai sur le partage bac lettre

[PDF] essais 24 heures du mans 2016

[PDF] essec

[PDF] essec alternance admission

[PDF] essect

[PDF] essence 95 e10 pour quelle voiture