[PDF] [PDF] Variables aléatoires discrètes Espérance-Variance Loi des - LMPT

est très bien approchée par la loi de Poisson de paramètre λ = 10 Ce fait est exploité dans la construction des tables de la loi binomiale 4 Espérance, variance 



Previous PDF Next PDF





[PDF] Variables aléatoires discrètes Espérance-Variance Loi des - LMPT

est très bien approchée par la loi de Poisson de paramètre λ = 10 Ce fait est exploité dans la construction des tables de la loi binomiale 4 Espérance, variance 



[PDF] Probabilités

4 2 3 Loi binomiale 4 4 Espérance et variance des lois fondamentales Bernoulli Elle suit donc la loi binomiale B(n, p) et son espérance est np soit n/2 28 



[PDF] Cours 1: lois discrétes classiques en probabilités - Institut de

Lois classiques discrétes Approximation en loi Loi uniforme Loi de Bernoulli Loi binomiale Loi de Poisson Loi uniforme, paramétres Proposition (Espérance  



[PDF] Espérance dune variable aléatoire - LAMA - Univ Savoie

Pour éviter cette théorie, nous allons définir l'espérance d'une variable aléatoire seulement dans 4° Soit X une v a r suivant la loi de Poisson de paramètre λ > 0 Loi binomiale, B(n, p), n ≥ 1, 0 ≤ p ≤ 1 : pour k = 0, ,n, P(X = k)=Ck



[PDF] 1 Espérance

n = nCk−1 n−1, 1 ≤ k ≤ n, (2) en écrivant une variable de loi binomiale comme la somme de variables de Bernoulli Exercice 5 En 



[PDF] Couples et vecteurs de variables aléatoires Préparation `a l

La loi trinomiale est une extension de la loi binomiale Imaginons en Définition 1 6 • L'espérance du couple (X, Y ) est définie si X et Y sont intégrables et on



[PDF] Probabilités continues

Espérance Definition Soit X une variable aléatoire continue de densité fX , son espérance est E[X] = Espérance et variance d'une variable de loi exponentielle Exercice On note Sn = X1 + ··· + Xn Sn suit une loi binômiale Sn ∼ B(n,p)



[PDF] Variables aléatoires discrètes : loi et espérance

c) Calculer la fonction GX lorsque X suit l'une des lois suivantes : (i) Bernoulli de paramètre p ∈ [0,1], 5 Page 6 (ii) binomiale de paramètres n ≥ 0 et p ∈ [0,1], (  



[PDF] Les Lois de Probabilité Discrètes

Loi Uniforme 2 1 Définition 2 2 Espérance et Variance 3 Loi de Bernouilli 3 1 Définition 3 2 Espérance et Variance 4 Loi Binomiale 4 1 Définition

[PDF] esperance loi conjointe

[PDF] espérance loi normale centrée réduite

[PDF] espérance mathématique

[PDF] espérance matlab

[PDF] espérance mouvement brownien

[PDF] esperto di marketing territoriale

[PDF] espl eduservice

[PDF] esplanade de la paix caen

[PDF] esprit coubertin définition

[PDF] esprit d'entreprendre définition

[PDF] esprit d'entrepreneuriat

[PDF] esprit d'entrepreneuriat ppt

[PDF] esprit d'entreprise et esprit d'entreprendre

[PDF] esprit entrepreneurial définition

[PDF] esprit entrepreneurial pdf

Chapitre 3:

Variables aléatoires discrètes

Espérance-Variance

Loi des grands nombres

1 Introduction

Le nombre de piles obtenus au cours d"une série denlancers de pile ou face ou plus généralement dans un jeu de hasard (roulette,dés,...), le gain d"un parieur est une grandeur variable qui dépend du déroulement aléatoire du jeu. Une telle grandeur numérique qui est fonction des éventualités d"une expérience aléatoire s"appelle une variable aléatoire. Pour rendre compte mathématiquement d"une variable aléatoire, on doit la considérer comme une applicationX:ω?→X(ω)définie sur un univers des possiblesΩest à valeurs réelles. Dans ce chapitre, et pour des raisons de simplicité, toutes les variables aléatoires considérées serontdiscrètes(i.e. l"ensembleX(Ω)des valeurs prises parXest fini ou dénombrable).

2 Généralités

Soit(Ω,F,P)un espace probabilisé modélisant une certaine expé- rience aléatoire. Dans ce chapitre l"espaceΩsera le plus souvent discret et dans ce cas on supposera que la tribuFdes événements est égale à l"ensembleP(Ω)de tous les sous-ensembles deΩ. Définition 2.1: 1) On appellevariable aléatoire(v.a.en abrégé) discrètedéfinie surΩtoute applicationX: Ω→Rtelle que a) L"ensembleX(Ω) ={xi;i?D}des valeurs prises1parXest fini ou dénombrable. b) (condition de mesurabilité) Pour toutxi?X(Ω), l"ensemble [X=xi] :={ω?Ω;X(ω) =xi}? Notes du cours de Probabilités de M1 de M. L. Gallardo, Université de Tours, année 2008-2009. Les démonstrations sont détaillées dans le cours oral.

1On suppose queD={1,2,...N}(resp.N?) si l"ensembleX(Ω)est fini (resp.

dénombrable) 1 est un événement (i.e. appartient à la tribuF)2. On l"appelle événement "Xprend la valeurxi».

4) La famille(pi)i?Ddes nombrespi=P(X=xi)(i?D) s"appelle la

distribution de probabilité(ou loi de probabilité) de la v.a.X. Remarque 2.2:Il est important de noter que les événements[X=xi] (i?D) forment un système complet d"événements et par conséquent? i?Dpi= 1. Exemple 2.3:On lance trois fois une pièce régulière. Lorsqu"il sort pile, on gagne1E, s"il sort face0E. SoitXle gain obtenu par le joueur. L"expérience aléatoire considérée a8éventualités équi-probables :

Ω ={000,001,010,100,011,101,110,111}

et à chaque éventualitéω?Ω, correspond une valeurX(ω)du gainX. On peut résumer ceci par un tableau:ω000001010100011101110111

X(ω)01112223

P(ω)1/81/81/81/81/81/81/81/8

On voit queX(Ω) ={0,1,2,3}et on détermine aussitôt les événe- ments[X=xi]: [X= 0] ={000} [X= 1] ={001,010,100} [X= 2] ={011,101,110} [X= 3] ={111}

On en déduit la loi de probabilité deX:x

i0123 p i=P(X=xi)1/83/83/81/8 Définition 2.4: Supposons que les valeurs prises par la v.a.Xpuissent s"écrire dans l"ordre croissantx1< x2< x3<···< xn<···(ce qui est le cas par exemple siX(Ω) =N). On appelle alorsprobabilités cumuléesla suite (finie ou infinie)(ak)des nombres a i=1p i. Remarque 2.5:Pour les v.a. dont les lois sont tabulées, les probabi- lités cumulées sont intéressantes du point de vue pratique car pour des valeursxl< xm, on a aussitôt cette condition est toujours satisfaite siΩest discret etF=P(Ω). 2

3 Les lois classiques

3.1 Loi de Bernoulli

SoitAun événement relatif à une expérience aléatoire modélisée par un espace(Ω,F,P). Définition 3.1: On appellev.a. indicatricede l"événementAla v.a. définie surΩpar 1

A(ω) = 1siω?A

1

A(ω) = 0siω?¯A.

Si on notep=P(A)la probabilité de l"événementA. La loi de proba- bilité de la v.a.1A(appellée loi de BernoulliB(1,p)) est donnée par1 A01 p i1-pp

3.2 Loi binomiale

On considère une expérience aléatoire à deux issuesS(=succès) et titions indépendantes de cette expérience qu"on modélise par l"espace produitΩ ={S,E}nmuni de la probabilité produit comme expliqué au chapitre 2. Définition 3.2: La variable aléatoireX="nombre total de succès» (au cours desnrépétitions) est appeléev.a. binomiale de para- mètres(n,p). Pour abréger la loi d"une telle v.a. sera désignée par

B(n,p)3.

Proposition 3.3: L"expression de la loiB(n,p)est

p k=P(X=k) =Cknpk(1-p)n-k(k= 0,1,...,n). démonstration: L"événement[X=k]est l"ensemble desn-uplets composés deklettresSetn-klettresEqui sont au nombre deCkn. Tous cesnuplets ont la même probabilitépk(1-p)n-k(par définition de la probabilité produit). D"où le résultat.?

3.3 Loi géomètrique (ou loi de Pascal)

On considère une infinité de répétitions indépendantes d"une ex- périence à deux issuesSetEmodélisée par l"espace produit infini Ω ={S,E}N?des suites infiniesω= (xk)k≥1(xk? {S,E}), muni de la3

Sin= 1, c"est la loi de Bernoulli.

3 probabilité produit comme expliqué au chapitre 1. On considère la v.a. X="instant du premier succès»4qui est telle que (1)X(ω) =nsi?k? {1,...n-1}, xk=Eetxn=S. Si on considère les événementsEi="échec aui-ème coup» etSi="succès aui-ème coup», on peut écrire l"événement[X=n]sous la forme (2)[X=n] =E1∩E2∩ ··· ∩En-1∩Sn (intersection d"événements indépendants) d"où il résulte aussitôt que (3)P(X=n) = (1-p)n-1p(n?N?). Définition 3.4: La loi de probabilité (3) de la v.a. "instant du premier succès» considérée en (1) s"appelleloi géométrique(ou loi de Pascal).

3.4 Loi de Poisson

Définition 3.5: Soitλ >0un paramètre fixé. On dit qu"une v.a.X à valeurs dans l"ensemble des entiersNsuit laloi de Poisson de paramètreλsi ?n?N,P(X=n) =e-λλnn!· Remarque 3.6:On notera que les nombrespn=e-λλnn!(n?N) constituent bien une loi de probabilité surNpuisqu"ils sont positifs et de somme?+∞ n=0pn=e-λ?+∞ n=0λnn!=e-λeλ= 1. Proposition 3.7(les succès rares et la loi de Poisson) : Soitn?N et0< p <1. Supposons quentende vers+∞et queptende vers0 de telle sorte quenptende vers une constanteλ >0. Alors pour tout k?Nfixé, C knpk(1-p)n-k→e-λλkk!· démonstration: C knpk(1-p)n-k=1k![(n-k+ 1)(n-k+ 2)···n]pk(1-p)n-k

1k!(np)k(1-p)n?

1-k-1n

1-2n (1-p)-k.(4)

Si on posenp=λ+?oùlim?= 0, alors

(1-p)n=?

1-λn

+?n n →e-λ(?→0) et comme les facteurs à la droite de(1-p)ndans la formule (4) tendent tous vers1, le résultat en découle.?4 attentionXest bien discrète mais ici l"espaceΩoùXest définie n"est pas discret! il convient de vérifier la condition de mesurabilité de la définition 2.1 b) . Mais c"est évident car pour toutn?N?, l"ensemble[X=n]est cylindrique d"après la formule (2) donc il appartient à la tribu produit. 4 Remarque 3.8:La loi de Poisson apparaît donc comme une approxi- mation de la loi binomiale quandnest "grand" etpest "petit" (succès rare). Par exemple sin= 100etp= 0,1la loi binomialeB(100; 0,1) est très bien approchée par la loi de Poisson de paramètreλ= 10. Ce fait est exploité dans la construction des tables de la loi binomiale.

4 Espérance, variance et moments d"une v.a.

4.1 Introduction

SoitXune v.a. prenant un nombre fini de valeursx1,x2,...,xnavec les probabilités respectivesp1,p2,...,pn. La somme p

1x1+p2x2+···+pnxn

peut être interprêtée de deux manières : a)mathématiquementc"est une moyenne pondérée. Plus précisé- ment, c"est le barycentre du système(xi,pi)(i= 1,...,n), le "point» x iétant affecté de la "masse»pi. b)heuristiquementsupposons qu"on répèteNfois l"expérience aléa- toire attachée àXet soitNile nombre de fois oùXprend la valeurxi (i= 1,...,n). La moyenne arithmétique des valeurs deXobservées au cours desNessais est : N

1x1+N2x2+···+NnxnN

=N1N x1+N2N x2+···+NnN xn, qui puisque NiN est proche depisiNest grand (loi empirique des grands nombres

5), est pratiquement égale àp1x1+p2x2+···+pnxnsiNest

grand.

4.2 Généralités

4.2.1 Définitions de l"espérance et des moments

Considérons une v.a.Xdiscrète prenant les valeursxiavec la pro- babilitépi(i?D, oùDest fini ou infini dénombrable)6.

Définition 4.1: 1) Si?

i?Dpi|xi|<+∞7, on dit queXa unmo- ment d"ordre un. Dans ce cas, le nombre réel

E(X) =?

i?Dp ixi (somme finie siDest fini et somme d"une série convergente siDest dénombrable) est appeléespérance(ou moyenne) de la v.a.X.

2) SiE(X) = 0on dit que la v.a. estcentrée.5

voir le chapitre 1

6on peut supposerD={1,...,N}siDest fini etD=NsiDest dénombrable.

7ce qui est toujours le cas siDest fini.

5

3) Pourr >0, le nombreE(Xr), lorsqu"il existe, est appelémoment

d"ordrerde la v.a.X.

4) Le nombreV ar(X) =E((X-E(X))2), lorsqu"il existe, est appelé

variancedeXet le nombreσX=?V ar(X)estl"écart typedeX.

5) Une v.a.Xtelle queE(X) = 0etσX= 1est ditecentrée et

réduite.

Remarque 4.2:SiDest dénombrable, la condition?

i?Dpi|xi|< +∞(i.e. la convergence absolue de la série? i?Dpixi) est fondamentale pour la définition de l"espérance. En effet on sait (cours d"analyse du L2) que lorsqu"une série est absolument convergente, elle est évidemment convergente mais elle est surtout commutativement convergente, c"est

à dire que la somme?

i?Dpixiest la même quel que soit l"ordre dans lequel on écrit les termes. Cette propriété est indispensable, comme on va le voir ci-dessous. Proposition 4.3(Autre formule pour exprimerE(X)) : Supposons que l"universΩoù la v.a.Xest définie, est un espacediscret. L"es- pérance deXexistesi et seulement sila série?

ω?ΩX(ω)P(ω)est

absolument convergente

8et dans ce cas on peut la calculer par la for-

mule 9 (5)E(X) =?

ω?ΩX(ω)P(ω).

démonstration: 1)(?) Supposons que l"espérance deXexiste. Comme les événements[X=xi](xi?X(Ω)) forment une partition deΩ, laquotesdbs_dbs21.pdfusesText_27