Intervalles de confiance dune proportion et lois binomiales ]
et lois binomiales. Que ce soit en Seconde avec les fourchettes de sondage
Intervalle de fluctuation à 95 % dune fréquence et loi binomiale
Monsieur Z chef du gouvernement d'un pays lointain
Intervalle de fluctuation Intervalle de confiance
Interv. de fluctuation. Interv. de confiance. Seconde. [ p ? 1. ? n. ; p + 1. ? n. ] Sensibilisation. Première. Avec la loi binomiale xxx. Terminale.
Quelques rappels sur les intervalles de confiance
Les bornes de l'intervalle de confiance IC dépendent de l'échantillon elles sont donc En approchant une loi binomiale vers une loi normale
Intervalles de confiance
Déterminer un intervalle de confiance par l'inégalité de Bienaymé-Tchebychev. convergence d'une loi binomiale vers la loi normale.
II - Estimation dun paramètre par intervalle de confiance
2°) - Estimation d'une proportion par intervalle de confiance a) - Problème ? Dans tous les cas la loi de n F est la loi binomiale B (n ; p).
Intervalle de confiance dune proportion binomiale: quels enjeux et
24 ene 2018 Enjeux dans l'estimation des intervalles de confiance . ... vant une même loi binomiale se retrouvera en bas du dispositif.
FLUCTUATION ET ESTIMATION
intervalle appelé intervalle de fluctuation de l'aide d'un intervalle de confiance. ... et Xn une variable aléatoire qui suit une loi binomiale.
Une propriété peu connue : lintervalle de confiance de la médiane
de la loi binomiale (n p) la relation : Si
METHODES STATISTIQUES
Statistique B8 - Quelques rappels sur les intervalles de confiance (S.Rousseau) En approchant une loi binomiale vers une loi normale (valable si np³5 et ...
[PDF] Quelques rappels sur les intervalles de confiance - Cedric-Cnam
Quand la variance est connue l'intervalle de confiance bilatéral symétrique pour l'espérance d'une loi normale s'écrit donc au niveau 1?? sous la forme
[PDF] Estimations et intervalles de confiance
La connaissance des lois de ce estimateurs permet l'estimation par in- tervalle de confiance et donc de préciser l'incertitude sur ces esti- mations :
[PDF] Intervalles de confiance dune proportion et lois binomiales ]
Comme nous allons le voir dans cet article on peut tout de même déterminer un intervalle de confiance mais en utilisant une loi "exacte" en l'occurrence une
[PDF] Intervalle de fluctuation Intervalle de confiance - Euler Versailles
Intervalle de fluctuation - Intervalle de confiance On utilise un intervalle de fluctuation lorsque la proportion p dans la population est connue ou si
[PDF] Estimation par intervalle de confiance
Intervalle de confiance pour les paramètres d'une loi normale Intervalle de confiance pour la moyenne d'une loi quelconque Intervalle de confiance pour
[PDF] Intervalles de fluctuations et intervalles de confiance
Il s'agit d'une variable aléatoire `a valeurs dans {01 n} de loi Binomiale B(n p) car on rép`ete de façon indépendante n fois la même expérience de
[PDF] Intervalles de confiance - Mathieu Mansuy
Il introduit ce que nous venons d'appeler un intervalle de confiance et démontre la convergence d'une loi binomiale vers la loi normale Il faudra attendre 2004
[PDF] Intervalles de confiance - Université de Rennes
est un intervalle de confiance pour ? de probabilité de confiance asymptotique 1 ? ? si r = ??1(1 ? ?/2) (o`u ? est la fonction de répartition de la loi
[PDF] : tdr27 ————— Intervalles de Confiance —————
L'objectif est de représenter les intervalles de confiance d'une moyenne d'une proportion Table des mati`eres 1 Intervalle de confiance de la moyenne
[PDF] 4 Intervalles de confiance - ENS Rennes
On peut aussi baser la construction des intervalles de confiance sur la loi de la statistique qui est une loi binomiale dans notre étude
Preparation au Capes
Universite de Rennes 1
Intervalles de fluctuations et intervalles de confianceTable des matieres
1 Introduction2
2 Moyenne empirique2
2.1 Denition et proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22.2 Loi des grands nombres (version faible) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42.3 Theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53 Intervalles de
uctuations 63.1 Calcul direct . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73.2 En utilisant le theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83.3 Comparaison des intervalles proposes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93.4 Erreurs possibles dans la prise de decision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
103.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104 Intervalles de conance 11
4.1 Premiere approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
124.2 Seconde approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
124.3 Comparaison des intervalles de conance proposes . . . . . . . . . . . . . . . . . . . . . . . .
134.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
135 Generalisation a d'autres lois 14
5.1 Intervalles de conance de la moyenne a variance connue . . . . . . . . . . . . . . . . . . . . .
155.2 Intervalles de conance de la moyenne a variance inconnue . . . . . . . . . . . . . . . . . . . .
155.3 Lorsque la variance est de la forme2=g(m) . . . . . . . . . . . . . . . . . . . . . . . . . . .16
5.4 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
165.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
176 Codes de simulation20
6.1 Codes enR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20
6.2 Codes enScilab. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20
13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 11
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.1 Introduction
On considere un espace de probabilite (
;F;P).Une experience aleatoire est une experience realisee selon des regles bien denies mais dont on ne peut pas
predire le resultat de facon certaine.On considere dans ce document le cas d'une experience aleatoire qui n'a que deux resultats possibles : succes
(on obtient le resultat espere) et echec (on n'obtient pas le resultat espere). On peut par exemple prendre
l'exemple du jeu "Pile ou Face", de la roulette au casino, du loto, d'une election entre deux candidats ...
La recherche d'intervalles de conance pour des lois plus generales sera rapidement abordee dans la section
5.La probabilite de succes de l'experience est noteep. On repete l'experience plusieurs fois de facon independante.
On denitXile resultat de laiemerealisation :
X i(!) =(1 si laiemerealisation est un succes,
0 si laiemerealisation est un echec.
Par consequent, pour chaquei>1,Xisuit la loi de BernoulliB(p). On en deduit que pour chaquei>1,E[Xi] =petV ar(Xi) =p(1p).
Le nombre total de succes au bout denrealisations est S n=nX i=1X i:Il s'agit d'une variable aleatoire a valeurs dansf0;1;:::;ngde loi BinomialeB(n;p) car on repete de facon
independantenfois la m^eme experience de Bernoulli.Plus le nombre de realisationsnest grand plusSnpeut prendre des grandes valeurs. Regardons maintenant
la frequence de succes sur lesnrealisations.2 Moyenne empirique
2.1 Denition et proprietes
Denition 1.On considere des variablesX1;X2;:::;Xnindependantes et de m^eme loi.Lamoyenne empiriqueassociee, noteeX
n, est denie parX n=P n i=1XinDans le cas qui nous interesse, chaqueXiest le resultat d'une m^eme experience ayant deux issus. La moyenne
empirique est alors aussi appeleefrequence de succes. Il s'agit dans ce cas d'une variable aleatoire a valeurs
dansf0;1n ;2n ;:::;1g. Propriete 2.SoitX1;X2;:::;Xndes variables independantes et de m^eme loi, d'esperancemet de variance2nies. AlorsX
nest une variable aleatoire d'esperancemet de variance2=n. Demonstration.Par linearite de l'esperance et comme les variablesXisont d'esperancem, on a E[X n] =1n n X i=1E[Xi] =m:13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 12
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Par independance des variablesXiet comme les variablesXisont de variance2, on aV ar(X
n) =1n 2n X i=1V ar(Xi) =2n :Par consequent, lorsque les variablesXisuivent la loi de BernoulliB(p),X nest une variable aleatoire qui oscille autour depet dont la variancep(1p)n diminue lorsquengrandit, ce qui signie que pourngrand les oscillations sont d'amplitude de plus en plus faible.Exemple.Considerons l'exemple du jeu "Pile ou Face" avec une piece bien equilibree. La probabilite de
tomber sur "Pile" est alorsp= 1=2. Le joueur mise sur "Pile". On repete 10 fois l'experience et on obtient
les resultats suivant : Pile, Face, Face, Pile, Face, Pile, Face, Face, Face, Face,Tracons sur des graphiques l'evolution du nombre de "Pile" obtenus et de la frequence de succes en fonction
du nombre de lancers.0246810 0 2 4 6 8 10 Nombre de succès en fonction du nombre de lancersNombre de lancers
Nombre de succès obtenus
l l l l l l l l l l ll0246810
0.0 0.4 0.8 Fréquence de succès en fonction du nombre de lancersNombre de lancers
Moyenne empirique13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 13
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.2.2 Loi des grands nombres (version faible)
On etudie l'evolution de la moyenne empirique quand on augmente le nombre de realisations de l'experience.
Exemple.On reprend l'exemple precedent et on augmente le nombrende lancers. On obtient les courbes suivantes pour la frequence du nombre de succes :01020304050 0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
p= 0.5Moyenne empirique
0100200300400500
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
p= 0.5Moyenne empirique
0200040006000800010000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
p= 0.5 Moyenne empiriquepourn= 50 pourn= 500 pourn= 10000. En regardant ces graphiques, on a l'impression que la frequence de succes converge versp= 1=2 quandn devient tres grand. Cette convergence est formalisee par le theoreme de la loi des grands nombres.Theoreme 3(Loi des Grands Nombres).toto
On considere(Xi)i>1une suite de variables aleatoires independantes et de m^eme loi, telle queE[jX1j]<1.
On notem=E[X1]leur esperance commune.
AlorsX
nconverge en probabilite versmlorsquen!+1:Donc dans la situation qui nous interesse ou lesXisuivent la loiB(p), la loi de grands nombres nous permet
d'armer que la frequence de succes converge versplorsquentend vers l'inni,petant la probabilite de succes.13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 14
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.2.3 Theoreme central limite
On peut alors se demander a quelle vitesse cette convergence a lieu. Exemple.On reprend notre exemple et on trace plusieurs realisations de la trajectoirealeatoiren7!X n(chaque realisation ayant une couleur dierente sur le graphique). On obtient le resultat suivant0100200300400500
0.0 0.2 0.4 0.6 0.8 1.0 Fréquence de succès en fonction du nombre de lancersNombre de lancers
Moyenne empiriqueOn observe que la convergence est plut^ot lente. Essayons dierentes fonctionnelles pour evaluer la vitesse de
convergence (courbe tracee en noir).02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
p+1n p-1n02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
p+1log(n) p-1log(n)la vitesse semble moins rapide quenla vitesse semble plus rapide que ln(n)02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
p+log(n)n p-log(n)n02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
p+1n p-1nla vitesse semble moins rapide que nln(n)la vitesse semble de l'ordre depn.Regardons maintenant si la vitesse de convergence depend peut-^etre de la valeur de la probabilitepde succes,
i.e. regardons si la vitessepnest toujours satisfaisante lorsqu'on prend dierentes valeurs dep.13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 15
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Dans les graphiques ci-dessous, on a trace plusieurs realisations de la trajectoiren7!X net les courbes d'equationn7!p1pn (en noir), pour dierentes valeurs dep:02004006008001000 0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empirique
02004006008001000
0.0 0.2 0.4 0.6 0.8 1.0Nombre de lancers
Moyenne empiriquepourp= 0:1, pourp= 0:5, pourp= 0:9.La vitesse semble toujours en
pnquelque soit la valeur dep, m^eme si elle est mieux adaptee lorsquep= 1=2.La vitesse de convergence reelle de la moyenne empirique vers l'esperance est donnee par le theoreme central
limite.Theoreme 4(Theoreme Central Limite).toto
On considere(Xi)i>1une suite de variables aleatoires independantes et de m^eme loi, telle queE[X21]<1.
On notem=E[X1]et2=V ar(X1)leur esperance et leur variance commune. Alors rn 2X nmconverge en loi vers la loi normale centree reduiteN(0;1)lorsquen!+1:Par consequent, d'apres le theoreme central limite, dans la situation qui nous interesse ou lesXisuivent la
loiB(p), la frequence de succes converge verspa vitessepnpp(1p).3 Intervalles de
uctuationsOn considere toujours la situation d'une experience aleatoire qui n'a que deux resultats possibles : succes et
echec.La probabilite de succespest connue.On repete l'experiencenfois de facon independante et on se demande ou se situe la frequence de succes en
fonction du nombre de realisationsn. Denition 5.SoitX1;:::;Xndes variables independantes de loi de BernoulliB(p). Unintervalle de uctuationsde la frequence de succes au niveau de conance1est un intervalle deterministeIf= [a;b], aveca;b2Rtel que P(X n2If) = 1:La quantiteest l'erreur que l'on s'autorise, elle est appelee niveau de risque. Elle est en general petite.
13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 16
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.3.1 Calcul direct
Dans la situation que l'on considereSn=Pn
i=1Xisuit la loi BinomialeB(n;p), qui est une loi bien connue.Par consequent, pour trouver un intervalle de
uctuationsIf= [a;b] de la frequence de succes, il faut trouver, a l'aide de la fonction de repartition de la loi binomiale, des reelsa;btels queP(na6Sn6nb) =P(Sn6nb)P(Sn< na)
= 1:Les valeurs deaetbvont dependre dep,net de.
A l'aide d'un tableur, on obtient les valeurs de la fonction de repartition de la loi binomialeB(n;p) pour
dierentes valeurs denet dep.Il n'y a pas unicite des valeurs deaetbsatisfaisant les conditions de l'intervalle de
uctuation. Il faut par consequent faire un choix.Exemple.Une personne achete toutes les semaines un jeu de grattage. La probabilite de succes du jeu est
10%. Cette personne aimerait connaitre au niveau de risque 5% qu'elle va ^etre sa frequence de succes sur une
annee. On a doncn= 52 etp= 0:1. Comme il n'y a pas unicite deaetb, on fait le choix de prendreatel que P(S52<52a) soit de l'ordre de 0:025 etbtel queP(S52652b) de l'ordre de 0:975. On aura alors P(X522[a;b]) = 0:95.
En utilisant le tableur, on trouve les valeurs de la fonction de repartitionF(k) =P(S526k) de la loiB(52;0:1). On obtient pour les premieres valeurs
k0 1 2 3 4 5 6 7 8 9F(k)0:00417 0:02829 0:09663 0:22319 0:39544 0:57918 0:73910 0:85586 0:92884 0:96849k10 11 12 13 14 15 16
F(k)0:98743 0:99546 0:99851 0:99956 0:99988 0:99997 0:99999 On remarque que pour 52a= 2 et 52b= 10, on obtientP(X522[a;b])'0:96. Par consequent, au
niveau de risque 4%, la personne aura une frequence de succes comprise entre 2=52 et 10=52.13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 17
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017.Lorsque le nombre de realisationsnest grand, le calcul de la fonction de repartition de la loi binomiale est
fastidieux. Au vu des graphiques presentes dans la section 2.3, on peut supposer, pournassez grand, avec
un niveau de risque assez faible (mais dont on ne conna^t pas la valeur), que la frequence de succes est dans
l'intervalle I f= p1pn ;p+1pn :(1)Cependant, d'apres les derniers graphiques de la section 2.3, ces intervalles ne sont pas forcement optimaux
pour toutes les valeurs dep. En eet, quandpest proche de 0 ou de 1, on a tendance a encadrer de facon
trop grossiere la frequence de succes.3.2 En utilisant le theoreme central limite
D'apres le theoreme central limite, lorsquenest grand, la loi deqn p(1p)X npest proche de la loi normaleN(0;1).
Sur les graphiques ci-dessous, on a trace l'evolution de l'histogramme (en rouge) associe a la variable
qn p(1p)X np, pourp= 0:3, en fonction den. On observe qu'il converge vers la densite normaleN(0;1) (courbe tracee en noir). n= 1 , p= 0.3 -0.50.00.51.01.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 n= 5 , p= 0.3 -10123 0.0 0.2 0.4 0.6 n= 10 , p= 0.3 -201234 0.0 0.1 0.2 0.3 0.4 0.5 n= 50 , p= 0.3 -2024 0.0 0.1 0.2 0.3 0.4 0.5 n= 100 , p= 0.3 -4-202 0.0 0.1 0.2 0.3 0.4 0.5 n= 1000 , p= 0.3 -4-2024 0.0 0.1 0.2 0.30.4Si on trouve un intervalleIf= [a;b] tel queP(Z2[a;b]) = 1ouZ N(0;1), alors pournsusamment
grand P ppp(1p)pn a6X n6p+pp(1p)pn b! =P rn p(1p)X np2[a;b] 'P(Z2[a;b]) = 1:13 mars 2017. Copyright
cHelene Guerin. Universite de Rennes 18
Compl ements en statistique. Preparation au Capes. Universite de Rennes 1. 2017. Il n'y a pas unicite deaetbveriantP(Z2[a;b]) = 1. On peut par exemple prendrea=b(ce choix depend en fait de la situation consideree). Par symetrie de la loi normaleN(0;1), on aP(jZj6t) = 2P(Z6t)1:
Par consequent, il faut trouverttel queP(Z6t) = 1=2. Cette valeur est obtenue en utilisant une table de la loi normale. Par exemple, pour= 5%, on obtientt= 1:96.ConclusionSoittchoisit tel queP(jZj6t) = 1.
Pournassez grand,
I f=" ptpp(1p)pn ;p+tpp(1p)pn (2) est un intervalle de uctuations de la frequence de succes au niveau de conance de l'ordre de 1.3.3 Comparaison des intervalles proposes
On a propose deux intervalles de
uctuations donnes par les formules (1) et (2). Peut-on comparer ces intervalles? On remarque que la fonctionp7!p(1p) est positive et atteint la valeur maximale 1=4 enp= 1=2. On a8p2[0;1];pp(1p)612
Lorsque= 5%, on at= 1:96 et donc
8p2[0;1];1:96pp(1p)61:
Par consequent, pour= 5%, on en deduit
8p2[0;1];"
p1:96pp(1p)pn ;p+ 1:96pp(1p)pn p1pn ;p+1pn Quand= 5%, l'intervalle denit par (2) est un meilleur intervalle de uctuations que celui denit par (1) et quand6= 5%, l'intervalle (1) n'a pas de sens. Sur les graphiques ci-dessous, on compare les intervalles dequotesdbs_dbs16.pdfusesText_22[PDF] intervalle de confiance de l'écart type
[PDF] intervalle de confiance d'une moyenne
[PDF] intervalle de confiance loi normale centrée réduite
[PDF] intervalle de confiance student
[PDF] intervalle de confiance d'une moyenne excel
[PDF] unité commerciale définition
[PDF] climat définition cycle 3
[PDF] definition de meteorologie
[PDF] unité commerciale physique et virtuelle complémentaire
[PDF] definition meteo
[PDF] dispense cap petite enfance
[PDF] deaes
[PDF] formule variance
[PDF] problème du second degré seconde