[PDF] Cours de Statistiques inférentielles





Previous PDF Next PDF



5. Quelques lois discrètes

Loi de Bernoulli. 2. Loi binomiale. 3. Loi géométrique. 4. Loi hypergéométrique. 5. Loi de Poisson. MTH2302D: Lois discr`etes.



Loi hypergéométrique et loi normale. Comparaison dans les grands

19 août 2017 La différence vient uniquement du fait que le tirage est exhaustif dans un cas et non-exhaustif dans l'autre. La loi binomiale suppose en.



Cours de Statistiques inférentielles

Exemple de la loi binomiale : On réalise n expériences indépendantes et on suppose Remarque : lorsque n est grand la différence entre n et n?1 devient ...



? = ? = ? xn? p yp ? =

En résumé: la loi hypergéométrique H(N ; n ; p) tend vers la loi binomiale. B(n ; p) quand N tend vers l'infini. La différence entre un tirage avec.



7 Lois de probabilité

La variable aléatoire X suit une loi Binomiale de paramètres n et ? qui passe le cap des 2 ans a une probabilité de 2/3 de devenir une grande entre-.



Cours de Probabilités

Il y a une bijection entre l'ensemble des p-combinaisons avec répétition de E et Lorsque n devient grand le calcul des probabilités d'une loi binomiale ...



STT1000 Loi binomiale Loi hypergéométrique Loi géométrique Loi

Quelle est la probabilité que 2 d'entre elles se cassent ? Page 3. Chapitre 2 Lois discrètes 35. A16 c) Vous 



Comment mémoriser les lois de probabilité discrètes usuelles sans

on récolte 4 lois principales: binômiale hypergéométrique



Note sur lapproximation de la loi hypergéométrique par la formule

28 nov. 2012 increase in corpuses and secondly





[PDF] 5 Quelques lois discrètes - GERAD

Loi de Bernoulli 2 Loi binomiale 3 Loi géométrique 4 Loi hypergéométrique 5 Loi de Poisson MTH2302D: Lois discr`etes



[PDF] Chapitre 6 : Quelques lois discrètes - JavMathch

En résumé: la loi hypergéométrique H(N ; n ; p) tend vers la loi binomiale B(n ; p) quand N tend vers l'infini La différence entre un tirage avec



[PDF] Probabilités - Université de Limoges

4 8 Approximation de la loi binomiale par une loi de Poisson noter que dans le cas discret il y a une différence entre P(X < x) et Fx(x) = P(X ? x) 



[PDF] Loi hypergéométrique et loi normale Comparaison dans les - HAL

19 août 2017 · La différence vient uniquement du fait que le tirage est exhaustif Le même parallélisme est constaté entre la loi hypergéométrique et la



[PDF] Probabilités de base

4 5 1 Approximation de la loi hypergéométrique par la binomiale 88 1ère boule noire; f (2) comme le nombre de boules blanches entre les 2 pre-



[PDF] STT1000 Loi binomiale Loi hypergéométrique Loi géométrique Loi

Quelle est la probabilité que 2 d'entre elles se cassent ? Page 3 Chapitre 2 Lois discrètes 35 A16 c) Vous 



[PDF] Probabilités et statistique

Fonction de masse de la loi binomiale n=20 et p=0 5 24 Lorsque A est grand comparé `a n la distribution hypergéométrique est prati-



[PDF] Notions de probabilités - Fès

19 mar 2020 · VIII Approximation de la loi Binomiale par la loi de Poisson A \ B est appelé différence simple entre A et B

La différence entre la loi binômiale classique et la loi hypergéométrique est que le tirage des éléments se fait avec remise dans la population pour la loi binômiale et sans remise dans la population pour la loi hypergéométrique. Cette loi est souvent utilisée dans la théorie des sondages.
  • Quelle est la différence entre la loi binomiale et la loi de Bernoulli ?

    Pour chaque expérience appelée épreuve de Bernoulli, on utilise une variable aléatoire qui prend la valeur 1 lors d'un succès et la valeur 0 sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et suit une loi binomiale.
  • Quand utiliser la loi hypergéométrique ?

    Utilisez la loi hypergéométrique avec des populations très faibles afin que le résultat d'un essai ait un effet important sur la probabilité selon laquelle le résultat suivant sera un événement ou un non-événement. Par exemple, dans une population de 10 personnes, 7 sont du groupe sanguin O+.
  • Comment savoir si c'est une loi binomiale ?

    En résumé, pour justifier que X suit une loi binomiale, il suffit de dire que :

    1on répète des épreuves identiques et indépendantes.2chaque épreuve comporte deux issues (Succès ou Echec).3X compte le nombre de succès à la fin de la répétition des épreuves.
  • La loi binomiale s'applique donc quand il y a un nombre défini de répétitions d'une même expérience dans les mêmes conditions. La probabilité de succès est constante à chaque tirage.

Licence 2-S4 SI-MASS

Année 2018Cours de Statistiques inférentielles

Pierre DUSART

2

Chapitre1Lois statistiques

1.1 Introduction

Nous allons voir que si une variable aléatoire suit une certaine loi, alors ses réalisations (sous forme

d"échantillons) sont encadrées avec des probabilités de réalisation. Par exemple, lorsque l"on a une énorme

urne avec une proportionpde boules blanches alors le nombre de boules blanches tirées sur un échan-

tillon de taillenest parfaitement défini. En pratique, la fréquence observée varie autour depavec des

probabilités fortes autour depet plus faibles lorsqu"on s"éloigne dep.

Nous allons chercher à faire l"inverse : l"inférence statistique consiste à induire les caractéristiques in-

connues d"une population à partir d"un échantillon issu de cette population. Les caractéristiques de

l"échantillon, une fois connues, reflètent avec une certaine marge d"erreur possible celles de la population.

1.1.1 Fonction de répartition

La densité de probabilitép(x)ou la fonction de répartitionF(x)définissent la loi de probabilité d"une

variable aléatoire continueX. Elles donnent lieu aux représentations graphiques suivantes :Figure1.1 - fonction répartition

La fonction de distribution cumuléeF(x)exprime la probabilité queXn"excède pas la valeurx:

F(x) =P(Xx):

De même, la probabilité que X soit entreaetb(b > a) vaut

P(a < X < b) =F(b)F(a):

4CHAPITRE 1. LOIS STATISTIQUES1.1.2 Grandeurs observées sur les échantillons

L"espéranceE(X)d"une variable aléatoire discrèteXest donnée par la formule

E(X) =X

ix iP(xi): L"espérance est également appelée moyenne et notée dans ce casX. Sa variance2Xest l"espérance des carrés des écarts avec la moyenne :

2X=E[(XX)2] =X

i(xiX)2P(xi) =X ix

2iP(xi)2X:

Son écart-typeXest la racine positive de la variance.

1.2 Lois usuelles

1.2.1 Loi normale ou loi de Gauss

Une variable aléatoire réelleXsuit une loi normale (ou loi gaussienne, loi de Laplace-Gauss) d"espérance

et d"écart type(nombre strictement positif, car il s"agit de la racine carrée de la variance2) si cette

variable aléatoire réelleXadmet pour densité de probabilité la fonctionp(x)définie, pour tout nombre

réelx, par : p(x) =1 p2e12 (x )2: Une telle variable aléatoire est alors dite variable gaussienne.

Une loi normale sera notée de la manière suivanteN(;)car elle dépend de deux paramètres(la

moyenne) et(l"écart-type). Ainsi si une variable aléatoireXsuitN(;)alors

E(X) =etV(X) =2:

Lorsque la moyennevaut 0, et l"écart-type vaut 1, la loi sera notéeN(0;1)et sera appelée loi normale

standard. Sa fonction caractéristique vautet2=2. Seule la loiN(0;1)est tabulée car les autres lois (c"est-

à-dire avec d"autres paramètres) se déduise de celle-ci à l"aide du théorème suivant : SiYsuitN(;)

alorsZ=Y suitN(0;1). On notela fonction de répartition de la loi normale centrée réduite : (x) =P(Z < x) avecZune variable aléatoire suivantN(0;1).

Propriétés et Exemples :(x) = 1(x),

(0) = 0:5;(1:645)0:95;(1:960)0:9750

Pourjxj<2, une approximation depeut être utilisée; il s"agit de son développement de Taylor à

l"ordre 5 au voisinage de 0 : (x)0:5 +1p2 xx36 +x540

Inversement, à partir d"une probabilité, on peut chercher la borne pour laquelle cette probabilité est

effective. Cours Proba-Stat / Pierre DUSART5Notation : on noteraz=2le nombre pour lequel

P(Z > z=2) ==2

lorsque la variable aléatoire suit la loi normale standard.risque0:010:020:050:10valeur critiquez=22:582:331:961:645coefficient de sécuritéc99%98%95%90%

A l"aide des propriétés de la loi normale standard, on remarque que le nombrez=2vérifie également

P(Z < z=2) =

P(Z

P(z=2< Z < z=2) =

P(jZj> z=2) =

La somme de deux variables gaussiennes indépendantes est elle-même une variable gaussienne (stabilité) :

SoientXetYdeux variables aléatoires indépendantes suivant respectivement les loisN(1;1)et N(2;2). Alors, la variable aléatoireX+Ysuit la loi normaleN(1+2;p

21+22).

1.2.2 Loi du2(khi-deux)

Définition 1SoitZ1;Z2;:::;Zune suite de variables aléatoires indépendantes de même loiN(0;1).

Alors la variable aléatoireP

i=1Z2isuit une loi appeléeloi du Khi-deuxàdegrés de liberté, notée 2(). Proposition 1.2.11. Sa fonction caractéristique est(12it)=2.

2. La densité de la loi du2()est

f (x) = 12 =2(=2)x=21ex=2pourx >0

0sinon.

oùest la fonction Gamma d"Euler définie par(r) =R1

0xr1exdx.

3. L"espérance de la loi du2()est égale au nombrede degrés de liberté et sa variance est2.

4. La somme de deux variables aléatoires indépendantes suivant respectivement2(1)et2(2)suit

aussi une loi du2avec1+2degrés de liberté. PreuveCalculons la fonction caractéristique deZ2lorsqueZsuitN(0;1). '(t) =E(eitZ2) =Z 1 1 eitz21p2ez2=2dz 1p2Z 1 1 e12 (12it)z2dz 1p2Z 1 1e 12 u2(12it)1=2dten posantu= (12it)1=2z '(t) = (12it)1=2 Maintenant pour la somme devariablesZ2iindépendantes, on a '(t) = (12it)=2:

6CHAPITRE 1. LOIS STATISTIQUESMontrons maintenant que la fonction de densité est correcte. Pour cela, calculons la fonction caractéris-

tique à partir de la densité : '(t) =E(eitx) =Z +1 0 eitx12 =2(=2)x=21ex=2dx 12 =2(=2)Z +1 0 x(1=2it)xdx 12 =2(=2)1(1=2it)(1=2it)=21Z +1 0 u=21euduen posantu= (1=2it)x 12 =2(=2)1(1=2it)=2Z +1 0 u=21eudu |{z} =(=2) '(t) =1(12it)=2

Calculons maintenant l"espérance et la variance. Selon la définition de la loi du2, chaque variable

Z isuit la loi normale centrée réduite. AinsiE(Z2i) =V ar(Zi) = 1etE(P i=1Z2i) =. De même, V(Zir) =E(Z4i)(E(Z2i))2=41:On sait que pour une loi normale centrée réduite4= 3donc

V ar(Z2i) = 2etV ar(P

i=1Z2i) = 2: La dernière proposition est évidente de par la définition de la loi du2.

Fonction inverse: on peut trouver une tabulation de la fonction réciproque de la fonction de répartition

de cette loi dans une table (en annexe) ou sur un logiciel tableur :

7!2;(FonctionKHIDEUX.inverse(;));

c"est-à-dire la valeur de2;telle queP(2()> 2;) =. Exemple : Pour= 0:990et= 5,2= 0:554 =20:99;5.Figure1.2 - fonction2inverse

1.2.3 Loi de Student

Définition 2SoientZetQdeux variables aléatoires indépendantes telles queZsuitN(0;1)etQsuit

2(). Alors la variable aléatoire

T=ZpQ=

suit une loi appeléeloi de Studentàdegrés de liberté, notéeSt().

Cours Proba-Stat / Pierre DUSART7Proposition 1.2.21. La densité de la loi de la loi de Student àdegrés de liberté est

f(x) =1p +12 )(=2)1(1 +x2=)+12

2. L"espérance n"est pas définie pour= 1et vaut 0 si2. Sa variance n"existe pas pour2et

vaut=(2)pour3.

3. La loi de Student converge en loi vers la loi normale centrée réduite.

Remarque : pour= 1, la loi de Student s"appelle loi de Cauchy, ou loi de Lorentz.

1.2.4 Loi de Fisher-Snedecor

Définition 3SoientQ1etQ2deux variables aléatoires indépendantes telles queQ1suit2(1)etQ2 suit2(2)alors la variable aléatoire

F=Q1=1Q

2=2 suit une loi de Fisher-Snedecor à(1;2)degrés de liberté, notéeF(1;2).

Proposition 1.2.3La densité de la loiF(1;2)est

f(x) =(1+22 )(1=2)(2=2) 1 2

1=2x1=21(1 +

1 2x) 1+22 six >0 (0sinon):

Son espérance n"existe que si23et vaut2

22. Sa variance n"existe que si25et vaut22

2(1+22)

1(22)2(24).

Proposition 1.2.41. SiFsuit une loi de FisherF(1;2)alors1F suit une loi de FisherF(2;1).

2. SiTsuit une loi de Student àdegrés de liberté alorsT2suit une loi de FisherF(1;).

1.2.5 Fonctions inverses et TableurLoiNotationVariableFct RépartitionV. critiqueFonction inverse

GaussN(0;1)Zloi.normale.standard(z)z

loi.normale.standard.inverse(1)Khi-Deux 2()K

2khideux(k;;1)

;1;2inverse.Loi.f(;1;2))

8CHAPITRE 1. LOIS STATISTIQUES

Chapitre2Convergences

2.1 Convergence en probabilité

2.1.1 Inégalités utiles

Inégalité de Markov simplifiée

SoitYune v.a.r.,gune fonction croissante et positive ou nulle sur l"ensemble des réels, vérifiantg(a)>0,

alors

8a >0;P(Ya)E(g(Y))g(a):

Preuve

E(g(Y)) =Z

g(y)f(y)dy=Z Y Yag(y)f(y)dy

Z

Yag(y)f(y)dycargest positive ou nulle

g(a)Zquotesdbs_dbs35.pdfusesText_40
[PDF] fonction de répartition loi de bernoulli

[PDF] résultat d'une multiplication

[PDF] loi hypergéométrique calculatrice

[PDF] loi de bernoulli exemple

[PDF] nom resultat addition

[PDF] loi uniforme exemple

[PDF] variance loi uniforme démonstration

[PDF] fonction de répartition loi uniforme discrète

[PDF] variable statistique discrète

[PDF] la leçon (pièce de théâtre)

[PDF] ionesco la cantatrice chauve

[PDF] ionesco mouvement littéraire

[PDF] ionesco rhinocéros résumé

[PDF] fonction de service technologie 5ème

[PDF] fonction de service d'une maison