[PDF] [PDF] Variables aléatoires discrètes Espérance-Variance Loi des - LMPT

On en déduit la loi de probabilité de X : xi 0 1 2 3 pi = P(X = xi) 1/8 3/8 3/8 1/8 Définition 2 4 : Supposons que les valeurs prises par la v a X puissent s'écrire 



Previous PDF Next PDF





[PDF] Cours de Probabilités

Cette formule permet de calculer la probabilité d'un événement B en le La variance mathématique d'une variable aléatoire suivant une loi B(n, p) est : V (X)  



[PDF] Calculer une variance - Optimal Sup Spé

Lorsque l'existence de la variance de X a été établie, on a alors le choix entre utiliser la définition (rare) ou la formule de Huygens : Optimal Sup/Spé - 11, rue 



[PDF] Probabilités et variables aléatoires - Institut de Mathématiques de

variance d'une variable aléatoires sont définies, avant de signaler 2 3 Probabilité Définition DÉFINITION 6 — Soit Ω un univers associé à une expérience 



[PDF] Mesure de la variabilité

que si Varλ(X) = 0 l'év`enement {X = λ} est de probabilité nulle Définition : On appelle variance de la v a unidimensionnelle X et on note Var(X) le nombre 



[PDF] Variance et écart type - Parfenoff

Autre formule pour calculer la variance : V = ⋯ ⋯ Exemple : Démonstration : En reprenant la formule de définition : V = ̅



[PDF] Variables aléatoires discrètes Espérance-Variance Loi des - LMPT

On en déduit la loi de probabilité de X : xi 0 1 2 3 pi = P(X = xi) 1/8 3/8 3/8 1/8 Définition 2 4 : Supposons que les valeurs prises par la v a X puissent s'écrire 



[PDF] Probabilités continues

Si X a une loi continue, la probabilité que X prenne une valeur bien précise a est en général nulle remarque : on peut prendre a = −∞ ou b = +∞ dans cette formule b a Soit X une variable aléatoire continue de densité fX , sa variance est



[PDF] Formulaire de Probabilités et Statistiques - EPFL

Formule des probabilités totales Soit (Bi)1≤i≤n une partition de Quantile Pour une probabilité 0



[PDF] Cours de probabilités et statistiques

duire de cette définition qu'une probabilité doit être entre 0 et 1 et que la probabilité L'espérance et sa variance ne dépendent de X qu'`a travers sa loi : deux 

[PDF] qu'est ce que l'influx nerveux

[PDF] transmission influx nerveux

[PDF] influx nerveux pdf

[PDF] influx nerveux potentiel d'action

[PDF] propagation de l'influx nerveux dans le neurone

[PDF] transmission de l'influx nerveux au niveau de la synapse

[PDF] calcul profondeur moho

[PDF] onde pmp definition

[PDF] forme indéterminée infini moins infini

[PDF] longueur masse durée 6ème exercices

[PDF] comment calculer moyenne fst tanger

[PDF] fst marrakech seuil 2017

[PDF] calculer moyenne fst mip

[PDF] seuil fst marrakech 2016

[PDF] calculer seuil fst

Chapitre 3:

Variables aléatoires discrètes

Espérance-Variance

Loi des grands nombres

1 Introduction

Le nombre de piles obtenus au cours d"une série denlancers de pile ou face ou plus généralement dans un jeu de hasard (roulette,dés,...), le gain d"un parieur est une grandeur variable qui dépend du déroulement aléatoire du jeu. Une telle grandeur numérique qui est fonction des éventualités d"une expérience aléatoire s"appelle une variable aléatoire. Pour rendre compte mathématiquement d"une variable aléatoire, on doit la considérer comme une applicationX:ω?→X(ω)définie sur un univers des possiblesΩest à valeurs réelles. Dans ce chapitre, et pour des raisons de simplicité, toutes les variables aléatoires considérées serontdiscrètes(i.e. l"ensembleX(Ω)des valeurs prises parXest fini ou dénombrable).

2 Généralités

Soit(Ω,F,P)un espace probabilisé modélisant une certaine expé- rience aléatoire. Dans ce chapitre l"espaceΩsera le plus souvent discret et dans ce cas on supposera que la tribuFdes événements est égale à l"ensembleP(Ω)de tous les sous-ensembles deΩ. Définition 2.1: 1) On appellevariable aléatoire(v.a.en abrégé) discrètedéfinie surΩtoute applicationX: Ω→Rtelle que a) L"ensembleX(Ω) ={xi;i?D}des valeurs prises1parXest fini ou dénombrable. b) (condition de mesurabilité) Pour toutxi?X(Ω), l"ensemble [X=xi] :={ω?Ω;X(ω) =xi}? Notes du cours de Probabilités de M1 de M. L. Gallardo, Université de Tours, année 2008-2009. Les démonstrations sont détaillées dans le cours oral.

1On suppose queD={1,2,...N}(resp.N?) si l"ensembleX(Ω)est fini (resp.

dénombrable) 1 est un événement (i.e. appartient à la tribuF)2. On l"appelle événement "Xprend la valeurxi».

4) La famille(pi)i?Ddes nombrespi=P(X=xi)(i?D) s"appelle la

distribution de probabilité(ou loi de probabilité) de la v.a.X. Remarque 2.2:Il est important de noter que les événements[X=xi] (i?D) forment un système complet d"événements et par conséquent? i?Dpi= 1. Exemple 2.3:On lance trois fois une pièce régulière. Lorsqu"il sort pile, on gagne1E, s"il sort face0E. SoitXle gain obtenu par le joueur. L"expérience aléatoire considérée a8éventualités équi-probables :

Ω ={000,001,010,100,011,101,110,111}

et à chaque éventualitéω?Ω, correspond une valeurX(ω)du gainX. On peut résumer ceci par un tableau:ω000001010100011101110111

X(ω)01112223

P(ω)1/81/81/81/81/81/81/81/8

On voit queX(Ω) ={0,1,2,3}et on détermine aussitôt les événe- ments[X=xi]: [X= 0] ={000} [X= 1] ={001,010,100} [X= 2] ={011,101,110} [X= 3] ={111}

On en déduit la loi de probabilité deX:x

i0123 p i=P(X=xi)1/83/83/81/8 Définition 2.4: Supposons que les valeurs prises par la v.a.Xpuissent s"écrire dans l"ordre croissantx1< x2< x3<···< xn<···(ce qui est le cas par exemple siX(Ω) =N). On appelle alorsprobabilités cumuléesla suite (finie ou infinie)(ak)des nombres a i=1p i. Remarque 2.5:Pour les v.a. dont les lois sont tabulées, les probabi- lités cumulées sont intéressantes du point de vue pratique car pour des valeursxl< xm, on a aussitôt cette condition est toujours satisfaite siΩest discret etF=P(Ω). 2

3 Les lois classiques

3.1 Loi de Bernoulli

SoitAun événement relatif à une expérience aléatoire modélisée par un espace(Ω,F,P). Définition 3.1: On appellev.a. indicatricede l"événementAla v.a. définie surΩpar 1

A(ω) = 1siω?A

1

A(ω) = 0siω?¯A.

Si on notep=P(A)la probabilité de l"événementA. La loi de proba- bilité de la v.a.1A(appellée loi de BernoulliB(1,p)) est donnée par1 A01 p i1-pp

3.2 Loi binomiale

On considère une expérience aléatoire à deux issuesS(=succès) et titions indépendantes de cette expérience qu"on modélise par l"espace produitΩ ={S,E}nmuni de la probabilité produit comme expliqué au chapitre 2. Définition 3.2: La variable aléatoireX="nombre total de succès» (au cours desnrépétitions) est appeléev.a. binomiale de para- mètres(n,p). Pour abréger la loi d"une telle v.a. sera désignée par

B(n,p)3.

Proposition 3.3: L"expression de la loiB(n,p)est

p k=P(X=k) =Cknpk(1-p)n-k(k= 0,1,...,n). démonstration: L"événement[X=k]est l"ensemble desn-uplets composés deklettresSetn-klettresEqui sont au nombre deCkn. Tous cesnuplets ont la même probabilitépk(1-p)n-k(par définition de la probabilité produit). D"où le résultat.?

3.3 Loi géomètrique (ou loi de Pascal)

On considère une infinité de répétitions indépendantes d"une ex- périence à deux issuesSetEmodélisée par l"espace produit infini Ω ={S,E}N?des suites infiniesω= (xk)k≥1(xk? {S,E}), muni de la3

Sin= 1, c"est la loi de Bernoulli.

3 probabilité produit comme expliqué au chapitre 1. On considère la v.a. X="instant du premier succès»4qui est telle que (1)X(ω) =nsi?k? {1,...n-1}, xk=Eetxn=S. Si on considère les événementsEi="échec aui-ème coup» etSi="succès aui-ème coup», on peut écrire l"événement[X=n]sous la forme (2)[X=n] =E1∩E2∩ ··· ∩En-1∩Sn (intersection d"événements indépendants) d"où il résulte aussitôt que (3)P(X=n) = (1-p)n-1p(n?N?). Définition 3.4: La loi de probabilité (3) de la v.a. "instant du premier succès» considérée en (1) s"appelleloi géométrique(ou loi de Pascal).

3.4 Loi de Poisson

Définition 3.5: Soitλ >0un paramètre fixé. On dit qu"une v.a.X à valeurs dans l"ensemble des entiersNsuit laloi de Poisson de paramètreλsi ?n?N,P(X=n) =e-λλnn!· Remarque 3.6:On notera que les nombrespn=e-λλnn!(n?N) constituent bien une loi de probabilité surNpuisqu"ils sont positifs et de somme?+∞ n=0pn=e-λ?+∞ n=0λnn!=e-λeλ= 1. Proposition 3.7(les succès rares et la loi de Poisson) : Soitn?N et0< p <1. Supposons quentende vers+∞et queptende vers0 de telle sorte quenptende vers une constanteλ >0. Alors pour tout k?Nfixé, C knpk(1-p)n-k→e-λλkk!· démonstration: C knpk(1-p)n-k=1k![(n-k+ 1)(n-k+ 2)···n]pk(1-p)n-k

1k!(np)k(1-p)n?

1-k-1n

1-2n (1-p)-k.(4)

Si on posenp=λ+?oùlim?= 0, alors

(1-p)n=?

1-λn

+?n n →e-λ(?→0) et comme les facteurs à la droite de(1-p)ndans la formule (4) tendent tous vers1, le résultat en découle.?4 attentionXest bien discrète mais ici l"espaceΩoùXest définie n"est pas discret! il convient de vérifier la condition de mesurabilité de la définition 2.1 b) . Mais c"est évident car pour toutn?N?, l"ensemble[X=n]est cylindrique d"après la formule (2) donc il appartient à la tribu produit. 4 Remarque 3.8:La loi de Poisson apparaît donc comme une approxi- mation de la loi binomiale quandnest "grand" etpest "petit" (succès rare). Par exemple sin= 100etp= 0,1la loi binomialeB(100; 0,1) est très bien approchée par la loi de Poisson de paramètreλ= 10. Ce fait est exploité dans la construction des tables de la loi binomiale.

4 Espérance, variance et moments d"une v.a.

4.1 Introduction

SoitXune v.a. prenant un nombre fini de valeursx1,x2,...,xnavec les probabilités respectivesp1,p2,...,pn. La somme p

1x1+p2x2+···+pnxn

peut être interprêtée de deux manières : a)mathématiquementc"est une moyenne pondérée. Plus précisé- ment, c"est le barycentre du système(xi,pi)(i= 1,...,n), le "point» x iétant affecté de la "masse»pi. b)heuristiquementsupposons qu"on répèteNfois l"expérience aléa- toire attachée àXet soitNile nombre de fois oùXprend la valeurxi (i= 1,...,n). La moyenne arithmétique des valeurs deXobservées au cours desNessais est : N

1x1+N2x2+···+NnxnN

=N1N x1+N2N x2+···+NnN xn, qui puisque NiN est proche depisiNest grand (loi empirique des grands nombres

5), est pratiquement égale àp1x1+p2x2+···+pnxnsiNest

grand.

4.2 Généralités

4.2.1 Définitions de l"espérance et des moments

Considérons une v.a.Xdiscrète prenant les valeursxiavec la pro- babilitépi(i?D, oùDest fini ou infini dénombrable)6.

Définition 4.1: 1) Si?

i?Dpi|xi|<+∞7, on dit queXa unmo- ment d"ordre un. Dans ce cas, le nombre réel

E(X) =?

i?Dp ixi (somme finie siDest fini et somme d"une série convergente siDest dénombrable) est appeléespérance(ou moyenne) de la v.a.X.

2) SiE(X) = 0on dit que la v.a. estcentrée.5

voir le chapitre 1

6on peut supposerD={1,...,N}siDest fini etD=NsiDest dénombrable.

7ce qui est toujours le cas siDest fini.

5

3) Pourr >0, le nombreE(Xr), lorsqu"il existe, est appelémoment

d"ordrerde la v.a.X.quotesdbs_dbs11.pdfusesText_17