[PDF] [PDF] Intervalles de fluctuations et intervalles de confiance





Previous PDF Next PDF



Intervalles de confiance dune proportion et lois binomiales ]

et lois binomiales. Que ce soit en Seconde avec les fourchettes de sondage



Intervalle de fluctuation à 95 % dune fréquence et loi binomiale

Monsieur Z chef du gouvernement d'un pays lointain



Intervalle de fluctuation Intervalle de confiance

Interv. de fluctuation. Interv. de confiance. Seconde. [ p ? 1. ? n. ; p + 1. ? n. ] Sensibilisation. Première. Avec la loi binomiale xxx. Terminale.



Quelques rappels sur les intervalles de confiance

Les bornes de l'intervalle de confiance IC dépendent de l'échantillon elles sont donc En approchant une loi binomiale vers une loi normale



Intervalles de confiance

Déterminer un intervalle de confiance par l'inégalité de Bienaymé-Tchebychev. convergence d'une loi binomiale vers la loi normale.



II - Estimation dun paramètre par intervalle de confiance

2°) - Estimation d'une proportion par intervalle de confiance a) - Problème ? Dans tous les cas la loi de n F est la loi binomiale B (n ; p).



Intervalle de confiance dune proportion binomiale: quels enjeux et

24 ene 2018 Enjeux dans l'estimation des intervalles de confiance . ... vant une même loi binomiale se retrouvera en bas du dispositif.



FLUCTUATION ET ESTIMATION

intervalle appelé intervalle de fluctuation de l'aide d'un intervalle de confiance. ... et Xn une variable aléatoire qui suit une loi binomiale.





METHODES STATISTIQUES

Statistique B8 - Quelques rappels sur les intervalles de confiance (S.Rousseau) En approchant une loi binomiale vers une loi normale (valable si np³5 et ...



[PDF] Quelques rappels sur les intervalles de confiance - Cedric-Cnam

Quand la variance est connue l'intervalle de confiance bilatéral symétrique pour l'espérance d'une loi normale s'écrit donc au niveau 1?? sous la forme 



[PDF] Estimations et intervalles de confiance

La connaissance des lois de ce estimateurs permet l'estimation par in- tervalle de confiance et donc de préciser l'incertitude sur ces esti- mations : 



[PDF] Intervalles de confiance dune proportion et lois binomiales ]

Comme nous allons le voir dans cet article on peut tout de même déterminer un intervalle de confiance mais en utilisant une loi "exacte" en l'occurrence une 



[PDF] Intervalle de fluctuation Intervalle de confiance - Euler Versailles

Intervalle de fluctuation - Intervalle de confiance On utilise un intervalle de fluctuation lorsque la proportion p dans la population est connue ou si 



[PDF] Estimation par intervalle de confiance

Intervalle de confiance pour les paramètres d'une loi normale Intervalle de confiance pour la moyenne d'une loi quelconque Intervalle de confiance pour 



[PDF] Intervalles de fluctuations et intervalles de confiance

Il s'agit d'une variable aléatoire `a valeurs dans {01 n} de loi Binomiale B(n p) car on rép`ete de façon indépendante n fois la même expérience de 



[PDF] Intervalles de confiance - Mathieu Mansuy

Il introduit ce que nous venons d'appeler un intervalle de confiance et démontre la convergence d'une loi binomiale vers la loi normale Il faudra attendre 2004 



[PDF] Intervalles de confiance - Université de Rennes

est un intervalle de confiance pour ? de probabilité de confiance asymptotique 1 ? ? si r = ??1(1 ? ?/2) (o`u ? est la fonction de répartition de la loi 



[PDF] : tdr27 ————— Intervalles de Confiance —————

L'objectif est de représenter les intervalles de confiance d'une moyenne d'une proportion Table des mati`eres 1 Intervalle de confiance de la moyenne



[PDF] 4 Intervalles de confiance - ENS Rennes

On peut aussi baser la construction des intervalles de confiance sur la loi de la statistique qui est une loi binomiale dans notre étude

:
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.Complements en Statistique

Preparation au Capes

Universite de Rennes 1

Intervalles de fluctuations et intervalles de confiance

Table des matieres

1 Introduction2

2 Moyenne empirique2

2.1 Denition et proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

2.2 Loi des grands nombres (version faible) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

2.3 Theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

3 Intervalles de

uctuations 6

3.1 Calcul direct . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

3.2 En utilisant le theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

3.3 Comparaison des intervalles proposes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

3.4 Erreurs possibles dans la prise de decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

4 Intervalles de conance 11

4.1 Premiere approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

4.2 Seconde approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

4.3 Comparaison des intervalles de conance proposes . . . . . . . . . . . . . . . . . . . . . . . .

13

4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

5 Generalisation a d'autres lois 14

5.1 Intervalles de conance de la moyenne a variance connue . . . . . . . . . . . . . . . . . . . . .

15

5.2 Intervalles de conance de la moyenne a variance inconnue . . . . . . . . . . . . . . . . . . . .

15

5.3 Lorsque la variance est de la forme2=g(m) . . . . . . . . . . . . . . . . . . . . . . . . . . .16

5.4 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

6 Codes de simulation20

6.1 Codes enR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20

6.2 Codes enScilab. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 11

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.

1 Introduction

On considere un espace de probabilite (

;F;P).

Une experience aleatoire est une experience realisee selon des regles bien denies mais dont on ne peut pas

predire le resultat de facon certaine.

On considere dans ce document le cas d'une experience aleatoire qui n'a que deux resultats possibles : succes

(on obtient le resultat espere) et echec (on n'obtient pas le resultat espere). On peut par exemple prendre

l'exemple du jeu "Pile ou Face", de la roulette au casino, du loto, d'une election entre deux candidats ...

La recherche d'intervalles de conance pour des lois plus generales sera rapidement abordee dans la section

5.

La probabilite de succes de l'experience est noteep. On repete l'experience plusieurs fois de facon independante.

On denitXile resultat de laiemerealisation :

X i(!) =(

1 si laiemerealisation est un succes,

0 si laiemerealisation est un echec.

Par consequent, pour chaquei>1,Xisuit la loi de BernoulliB(p). On en deduit que pour chaquei>1,

E[Xi] =petV ar(Xi) =p(1p).

Le nombre total de succes au bout denrealisations est S n=nX i=1X i:

Il s'agit d'une variable aleatoire a valeurs dansf0;1;:::;ngde loi BinomialeB(n;p) car on repete de facon

independantenfois la m^eme experience de Bernoulli.

Plus le nombre de realisationsnest grand plusSnpeut prendre des grandes valeurs. Regardons maintenant

la frequence de succes sur lesnrealisations.

2 Moyenne empirique

2.1 Denition et proprietes

Denition 1.On considere des variablesX1;X2;:::;Xnindependantes et de m^eme loi.

Lamoyenne empiriqueassociee, noteeX

n, est denie parX n=P n i=1Xin

Dans le cas qui nous interesse, chaqueXiest le resultat d'une m^eme experience ayant deux issus. La moyenne

empirique est alors aussi appeleefrequence de succes. Il s'agit dans ce cas d'une variable aleatoire a valeurs

dansf0;1n ;2n ;:::;1g. Propriete 2.SoitX1;X2;:::;Xndes variables independantes et de m^eme loi, d'esperancemet de variance

2nies. AlorsX

nest une variable aleatoire d'esperancemet de variance2=n. Demonstration.Par linearite de l'esperance et comme les variablesXisont d'esperancem, on a E[X n] =1n n X i=1E[Xi] =m:

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 12

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Par independance des variablesXiet comme les variablesXisont de variance2, on a

V ar(X

n) =1n 2n X i=1V ar(Xi) =2n :Par consequent, lorsque les variablesXisuivent la loi de BernoulliB(p),X nest une variable aleatoire qui oscille autour depet dont la variancep(1p)n diminue lorsquengrandit, ce qui signie que pourngrand les oscillations sont d'amplitude de plus en plus faible.

Exemple.Considerons l'exemple du jeu "Pile ou Face" avec une piece bien equilibree. La probabilite de

tomber sur "Pile" est alorsp= 1=2. Le joueur mise sur "Pile". On repete 10 fois l'experience et on obtient

les resultats suivant : Pile, Face, Face, Pile, Face, Pile, Face, Face, Face, Face,

Tracons sur des graphiques l'evolution du nombre de "Pile" obtenus et de la frequence de succes en fonction

du nombre de lancers.0246810 0 2 4 6 8 10 Nombre de succès en fonction du nombre de lancers

Nombre de lancers

Nombre de succès obtenus

l l l l l l l l l l ll

0246810

0.0 0.4 0.8 Fréquence de succès en fonction du nombre de lancers

Nombre de lancers

Moyenne empirique13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 13

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.

2.2 Loi des grands nombres (version faible)

On etudie l'evolution de la moyenne empirique quand on augmente le nombre de realisations de l'experience.

Exemple.On reprend l'exemple precedent et on augmente le nombrende lancers. On obtient les courbes suivantes pour la frequence du nombre de succes :01020304050 0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

p= 0.5

Moyenne empirique

0100200300400500

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

p= 0.5

Moyenne empirique

0200040006000800010000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

p= 0.5 Moyenne empiriquepourn= 50 pourn= 500 pourn= 10000. En regardant ces graphiques, on a l'impression que la frequence de succes converge versp= 1=2 quandn devient tres grand. Cette convergence est formalisee par le theoreme de la loi des grands nombres.

Theoreme 3(Loi des Grands Nombres).toto

On considere(Xi)i>1une suite de variables aleatoires independantes et de m^eme loi, telle queE[jX1j]<1.

On notem=E[X1]leur esperance commune.

AlorsX

nconverge en probabilite versmlorsquen!+1:

Donc dans la situation qui nous interesse ou lesXisuivent la loiB(p), la loi de grands nombres nous permet

d'armer que la frequence de succes converge versplorsquentend vers l'inni,petant la probabilite de succes.

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 14

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.

2.3 Theoreme central limite

On peut alors se demander a quelle vitesse cette convergence a lieu. Exemple.On reprend notre exemple et on trace plusieurs realisations de la trajectoirealeatoiren7!X n

(chaque realisation ayant une couleur dierente sur le graphique). On obtient le resultat suivant0100200300400500

0.0 0.2 0.4 0.6 0.8 1.0 Fréquence de succès en fonction du nombre de lancers

Nombre de lancers

Moyenne empiriqueOn observe que la convergence est plut^ot lente. Essayons dierentes fonctionnelles pour evaluer la vitesse de

convergence (courbe tracee en noir).

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

p+1n p-1n

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

p+1log(n) p-1log(n)la vitesse semble moins rapide quenla vitesse semble plus rapide que ln(n)

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

p+log(n)n p-log(n)n

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

p+1n p-1nla vitesse semble moins rapide que nln(n)la vitesse semble de l'ordre depn.

Regardons maintenant si la vitesse de convergence depend peut-^etre de la valeur de la probabilitepde succes,

i.e. regardons si la vitessepnest toujours satisfaisante lorsqu'on prend dierentes valeurs dep.

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 15

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Dans les graphiques ci-dessous, on a trace plusieurs realisations de la trajectoiren7!X net les courbes d'equationn7!p1pn (en noir), pour dierentes valeurs dep:02004006008001000 0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empirique

02004006008001000

0.0 0.2 0.4 0.6 0.8 1.0

Nombre de lancers

Moyenne empiriquepourp= 0:1, pourp= 0:5, pourp= 0:9.

La vitesse semble toujours en

pnquelque soit la valeur dep, m^eme si elle est mieux adaptee lorsquep= 1=2.

La vitesse de convergence reelle de la moyenne empirique vers l'esperance est donnee par le theoreme central

limite.

Theoreme 4(Theoreme Central Limite).toto

On considere(Xi)i>1une suite de variables aleatoires independantes et de m^eme loi, telle queE[X21]<1.

On notem=E[X1]et2=V ar(X1)leur esperance et leur variance commune. Alors rn 2X nmconverge en loi vers la loi normale centree reduiteN(0;1)lorsquen!+1:

Par consequent, d'apres le theoreme central limite, dans la situation qui nous interesse ou lesXisuivent la

loiB(p), la frequence de succes converge verspa vitessepnpp(1p).

3 Intervalles de

uctuations

On considere toujours la situation d'une experience aleatoire qui n'a que deux resultats possibles : succes et

echec.La probabilite de succespest connue.

On repete l'experiencenfois de facon independante et on se demande ou se situe la frequence de succes en

fonction du nombre de realisationsn. Denition 5.SoitX1;:::;Xndes variables independantes de loi de BernoulliB(p). Unintervalle de uctuationsde la frequence de succes au niveau de conance1est un intervalle deterministeIf= [a;b], aveca;b2Rtel que P(X n2If) = 1:

La quantiteest l'erreur que l'on s'autorise, elle est appelee niveau de risque. Elle est en general petite.

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 16

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.

3.1 Calcul direct

Dans la situation que l'on considereSn=Pn

i=1Xisuit la loi BinomialeB(n;p), qui est une loi bien connue.

Par consequent, pour trouver un intervalle de

uctuationsIf= [a;b] de la frequence de succes, il faut trouver, a l'aide de la fonction de repartition de la loi binomiale, des reelsa;btels que

P(na6Sn6nb) =P(Sn6nb)P(Sn< na)

= 1:

Les valeurs deaetbvont dependre dep,net de.

A l'aide d'un tableur, on obtient les valeurs de la fonction de repartition de la loi binomialeB(n;p) pour

dierentes valeurs denet dep.Il n'y a pas unicite des valeurs deaetbsatisfaisant les conditions de l'intervalle de

uctuation. Il faut par consequent faire un choix.

Exemple.Une personne achete toutes les semaines un jeu de grattage. La probabilite de succes du jeu est

10%. Cette personne aimerait connaitre au niveau de risque 5% qu'elle va ^etre sa frequence de succes sur une

annee. On a doncn= 52 etp= 0:1. Comme il n'y a pas unicite deaetb, on fait le choix de prendreatel que P(S52<52a) soit de l'ordre de 0:025 etbtel queP(S52652b) de l'ordre de 0:975. On aura alors P(X

522[a;b]) = 0:95.

En utilisant le tableur, on trouve les valeurs de la fonction de repartitionF(k) =P(S526k) de la loi

B(52;0:1). On obtient pour les premieres valeurs

k0 1 2 3 4 5 6 7 8 9

F(k)0:00417 0:02829 0:09663 0:22319 0:39544 0:57918 0:73910 0:85586 0:92884 0:96849k10 11 12 13 14 15 16

F(k)0:98743 0:99546 0:99851 0:99956 0:99988 0:99997 0:99999 On remarque que pour 52a= 2 et 52b= 10, on obtientP(X

522[a;b])'0:96. Par consequent, au

niveau de risque 4%, la personne aura une frequence de succes comprise entre 2=52 et 10=52.

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 17

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.

Lorsque le nombre de realisationsnest grand, le calcul de la fonction de repartition de la loi binomiale est

fastidieux. Au vu des graphiques presentes dans la section 2.3, on peut supposer, pournassez grand, avec

un niveau de risque assez faible (mais dont on ne conna^t pas la valeur), que la frequence de succes est dans

l'intervalle I f= p1pn ;p+1pn :(1)

Cependant, d'apres les derniers graphiques de la section 2.3, ces intervalles ne sont pas forcement optimaux

pour toutes les valeurs dep. En eet, quandpest proche de 0 ou de 1, on a tendance a encadrer de facon

trop grossiere la frequence de succes.

3.2 En utilisant le theoreme central limite

D'apres le theoreme central limite, lorsquenest grand, la loi deqn p(1p)X npest proche de la loi normale

N(0;1).

Sur les graphiques ci-dessous, on a trace l'evolution de l'histogramme (en rouge) associe a la variable

qn p(1p)X np, pourp= 0:3, en fonction den. On observe qu'il converge vers la densite normaleN(0;1) (courbe tracee en noir). n= 1 , p= 0.3 -0.50.00.51.01.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 n= 5 , p= 0.3 -10123 0.0 0.2 0.4 0.6 n= 10 , p= 0.3 -201234 0.0 0.1 0.2 0.3 0.4 0.5 n= 50 , p= 0.3 -2024 0.0 0.1 0.2 0.3 0.4 0.5 n= 100 , p= 0.3 -4-202 0.0 0.1 0.2 0.3 0.4 0.5 n= 1000 , p= 0.3 -4-2024 0.0 0.1 0.2 0.3

0.4Si on trouve un intervalleIf= [a;b] tel queP(Z2[a;b]) = 1ouZ N(0;1), alors pournsusamment

grand P ppp(1p)pn a6X n6p+pp(1p)pn b! =P rn p(1p)X np2[a;b] 'P(Z2[a;b]) = 1:

13 mars 2017. Copyright

c

Helene Guerin. Universite de Rennes 18

Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Il n'y a pas unicite deaetbveriantP(Z2[a;b]) = 1. On peut par exemple prendrea=b(ce choix depend en fait de la situation consideree). Par symetrie de la loi normaleN(0;1), on a

P(jZj6t) = 2P(Z6t)1:

Par consequent, il faut trouverttel queP(Z6t) = 1=2. Cette valeur est obtenue en utilisant une table de la loi normale. Par exemple, pour= 5%, on obtientt= 1:96.

ConclusionSoittchoisit tel queP(jZj6t) = 1.

Pournassez grand,

I f=" ptpp(1p)pn ;p+tpp(1p)pn (2) est un intervalle de uctuations de la frequence de succes au niveau de conance de l'ordre de 1.

3.3 Comparaison des intervalles proposes

On a propose deux intervalles de

uctuations donnes par les formules (1) et (2). Peut-on comparer ces intervalles? On remarque que la fonctionp7!p(1p) est positive et atteint la valeur maximale 1=4 enp= 1=2. On a

8p2[0;1];pp(1p)612

Lorsque= 5%, on at= 1:96 et donc

8p2[0;1];1:96pp(1p)61:

Par consequent, pour= 5%, on en deduit

8p2[0;1];"

p1:96pp(1p)pn ;p+ 1:96pp(1p)pn p1pn ;p+1pn Quand= 5%, l'intervalle denit par (2) est un meilleur intervalle de uctuations que celui denit par (1) et quand6= 5%, l'intervalle (1) n'a pas de sens. Sur les graphiques ci-dessous, on compare les intervalles dequotesdbs_dbs16.pdfusesText_22
[PDF] intervalle de confiance de la variance

[PDF] intervalle de confiance de l'écart type

[PDF] intervalle de confiance d'une moyenne

[PDF] intervalle de confiance loi normale centrée réduite

[PDF] intervalle de confiance student

[PDF] intervalle de confiance d'une moyenne excel

[PDF] unité commerciale définition

[PDF] climat définition cycle 3

[PDF] definition de meteorologie

[PDF] unité commerciale physique et virtuelle complémentaire

[PDF] definition meteo

[PDF] dispense cap petite enfance

[PDF] deaes

[PDF] formule variance

[PDF] problème du second degré seconde