[PDF] PROBABILITE ET STATISTIQUES



Previous PDF Next PDF







PROBABILITES - 1ère partie

où 1A s'appelle fonction indicatrice de la partie A Elle est définie de la façon suivante : 1A: Ω → {0,1} x → 1 si x ∈ A 0 si x ∉ A Par définition, on exige également que la probabilité de l'événement certain soit égale à 1 Il en résulte que les pi doivent être de somme égale à 1 P(Ω) = 1 = ∑ i=1 n pi EXEMPLE :



Probabilit es et Statistiques - idpoissonfr

Probabilit es et Statistiques Licence 3 eme ann ee Universit e d’Orl eans Nils Berglund Version de Mars 2010



Cours de probabilité et simulation Licence de mathématiques

Soit a∈Ω On définit la fonction d’ensembles δa: A→{0,1}par δa(A) = ˆ 1 si a∈A 0 sinon, A∈A On appelle δa la masse de Dirac au point a Exercice 1 13 (a) Vérifier que δa est une mesure de probabilité sur A (b) Si on prend trois éléments distincts a,bet cde Ω,alors P = 1 7 δa+ 4 7 δb+ 2 7 δcest aussi une mesure de



PROBABILITE ET STATISTIQUES

1 2 Espace des issues Avant de calculer les probabilit es d’ ev enements, il faut d e nir l’espace des issues de fa˘con commode et compl ete



TD de Probabilités - Université de Poitiers

1 Calculer la probabilité de A p lorsque p est un diviseur de n 2 Montrerquesi p 1,···,p k sontdesdiviseurspremiersde ndistincts,lesévénements A p 1,···,A p k sont indépendants 3 On appelle fonction indicatrice d'Euler la fonction φ dé nie sur les entiers naturels dont



PRINCIPALES DISTRIBUTIONS DE PROBABILITÉS

Ce succès a une probabilité de réalisation de p Puisque c’est le premier, il a été précédé de (n-1) échecs qui ont chacun eu la probabilité q de se produire Étant donné l’indépendance des épreuves, on peut dire que la probabilité de réalisation de (n-1) échecs suivis d’un succès



Chapitre 19 : Variables aléatoires

Certaines lois de probabilité interviennent suffisamment régulièrement lorsqu’on étudie des va-riables aléatoires dans des cas classiques (lancers de dés ou de pièces, tirages de boules dans des urnes, bref toutes les bêtises qu’on aime bien vous infliger dans les exercices de probas) pour qu’il



Espérance - univ-lillefr

probabilité«valant1 fxdx»etonremplacelasomme de la fonction de répartition F: t Figure7 6–Espérancedelav a indicatrice X 1 A



Cours de Probabilités - MDI 104–114

La probabilité d’un événement y était définie comme le rapport du nombre de cas favorables sur le nombre total de cas Au début du XIXe siècle, les « probabilités géométriques » firent leur apparition Dans ce cadre, la probabilité d’un événement s’exprime comme un rapport de volumes ou d’aires

[PDF] fonction indicatrice de a union b

[PDF] fonction indicatrice cours

[PDF] la classe de maitre moda questions reponse

[PDF] construction du mot pharaonique

[PDF] athéna en latin

[PDF] athena attribut

[PDF] exposé sur zeus

[PDF] jupiter zeus

[PDF] l histoire de l anthropologie pdf

[PDF] rapport entre l anthropologie et l histoire

[PDF] origine de l'anthropologie

[PDF] evolution de l'anthropologie

[PDF] la théorie des quatre éléments

[PDF] reconstitution criminelle

[PDF] reconstitution judiciaire definition

Licence 2eme annee.

PROBABILIT

E ET STATISTIQUES.

Bruno SCHAPIRA

Table des matieres

1 Espace de probabilite et variables aleatoires discretes. 1

1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Espace des issues. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3 Probabilites. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.4 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.4.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.4.2 Loi d'une variable aleatoire . . . . . . . . . . . . . . . . . . . . . . . 5

1.4.3 Fonction de repartition . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.4.4 Fonction indicatrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Esperance, variance, ecart type. 9

2.1 Esperance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.1.1 Denitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.1.2 Proprietes de l'esperance. . . . . . . . . . . . . . . . . . . . . . . . . 11

2.2 Variance, covariance, et ecart type. . . . . . . . . . . . . . . . . . . . . . . . 11

2.3 Esperance et variance de quelques lois classiques. . . . . . . . . . . . . . . . 13

3 Independance, Probabilites Conditionnelles. 17

3.1 Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.2 Probabilites Conditionnelles. . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.1 Motivation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.2 Probabilite conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.3 Formules des probabilites totales et des probabilites composees. . . . 23

4 Fonction generatrice. 25

4.1 Fonction generatrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.2 Somme d'un nombre aleatoire de variables aleatoires. . . . . . . . . . . . . . 27

4.3 Evolution des Populations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.3.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.3.2 Probabilite d'extinction. . . . . . . . . . . . . . . . . . . . . . . . . . 29

4.3.3 Exemple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Variables continues. Loi normale. 31

5.1 Axiomatique des probabilites. . . . . . . . . . . . . . . . . . . . . . . . . . . 31

5.2 Variables aleatoires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

5.2.1 Denition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

5.2.2 Variables a densite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3

5.2.3 Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5.2.4 Esperance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5.3 Lois Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

6 Theoremes limites. 39

6.1 Loi des grands nombres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.1.1 Motivation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.1.2 Esperance et variance d'une moyenne empirique. . . . . . . . . . . . 40

6.1.3 Inegalites de Markov et de Chebyshev. . . . . . . . . . . . . . . . . . 41

6.1.4 Loi faible des grands nombres. . . . . . . . . . . . . . . . . . . . . . 41

6.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

6.3 Theoreme central limite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

6.3.1Enonce general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

6.3.2 Approximations de la loi binomiale . . . . . . . . . . . . . . . . . . . 44

7 Concepts de base de la statistique. 45

7.1 Modeles Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

7.2 Quel genre d'informations tirer d'un modele statistique? . . . . . . . . . . . 46

7.3 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

7.3.1 Estimateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

7.3.2 Construction d'estimateurs . . . . . . . . . . . . . . . . . . . . . . . 47

7.3.3 Biais et risque d'un estimateur . . . . . . . . . . . . . . . . . . . . . 49

8 Intervalles de conance 51

8.1 Echantillon de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

8.2 Denitions generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

8.3Echantillons gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

8.3.1 Estimateurs de la moyenne et de la variance. . . . . . . . . . . . . . 53

8.3.2 Intervalle de conance pouravecconnu. . . . . . . . . . . . . . . 54

8.3.3 Intervalle de conance pouravecinconnu. . . . . . . . . . . . . . 54

8.3.4 Intervalle de conance pour2. . . . . . . . . . . . . . . . . . . . . . 55

9 Premiers tests : echantillons de Bernoulli et echantillons gaussiens 57

9.1Echantillons de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

9.2Echantillons gaussiens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

9.2.1 Test suravecconnu. . . . . . . . . . . . . . . . . . . . . . . . . . 61

9.2.2 Test suravecinconnu. . . . . . . . . . . . . . . . . . . . . . . . . 62

9.2.3 Test sur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

10 Tests du265

10.1 Test du2d'ajustement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

10.1.1 Test du2d'ajustement a une loi sur un espace ni. . . . . . . . . . 65

10.1.2 Test du2d'ajustement a une loi quelconque . . . . . . . . . . . . . 66

10.1.3 Test du2d'ajustement a une famille de loi. . . . . . . . . . . . . . 67

10.2 Test du2d'independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

Chapitre 1

Espace de probabilite et variables

aleatoires discretes.

1.1 Introduction

La theorie des probabilites a pour objectif de modeliser des experiences ou plusieurs issues sont possibles, mais ou leur realisation n'est pas determinee a l'avance (par exemple un lancer de des), ceci eventuellement en vue d'evaluer les risques ou de mettre sur pieds des strategies pour faire face aux aleas. La theorie des probabilites ne va pas permettre de predire quelle issue va se realiser, mais quelle chance a chaque issue (ou ensemble d'issues) de se realiser. Ainsi, dans un premier temps (plus exactement lorsque l'ensemble des issues est au plus denombrable), on va associer a chaque issue possible un nombre entre 0 et 1 qui traduit notre estimation des chances que cette issue a de se realiser : on appelle ce nombrela pro- babilitede cette issue. On appelle \evenement" un ensemble d'issues. La probabilite qu'on associe a un evenement est la somme des probabilites de chaque issue de cet ensemble. Typiquement, la question est de determiner la probabilite d'un evenement, et la diculte est d'une part de decrire l'experience de facon commode an d'enumerer toutes les is- sues possibles et leur probabilite respective, et d'autre part de decomposer l'evenement considere en issues. Lorsque l'ensemble des issues est ni, et dans le cas ou chaque issue a la m^eme probabi- lite, on dispose d'une formule bien connue pour le calcul de la probabilite d'un evenement : nombre de cas favorablesnombre de cas total et l'on voit alors que l'on peut se ramener a un calcul purement combinatoire. Toutefois les choses se compliquent serieusement lorsque l'ensemble des issues devient inni, et en particulier lorsqu'il est non denombrable, car alors les notions m^eme de pro- babilite et d'evenement sont beaucoup moins claires. Pour s'en convaincre on pourra se pencher sur le fameux paradoxe de Bertrand (1888) (dont on trouvera de nombreux details sur internet). Aujourd'hui les probabilistes utilisent le formalisme introduit par Kolmogo- rov (1928). Nous y reviendrons dans la suite de ce cours au chapitre 5. 1

1.2 Espace des issues.

Avant de calculer les probabilites d'evenements, il faut denir l'espace des issues de facon commode et complete. Cet espace comprendra toutes les issues possibles du jeu, ou de l'experience aleatoire que l'on considere, m^eme eventuellement celles qui ne nous interessent pas, a priori. Dans chaque situation, l'espace des issues sera note (grand omega), alors que les issues seront notees!(petit omega). Exemple 1.1On lance une piece de monnaie. L'ensemble des issues est alors fPile, Faceg, ou plus formellement l'ensemble =f0;1g, avec la convention que 0 represente l'issue Face, et 1 l'issue Pile. Exemple 1.2On lance un de a 6 faces, numerotees de 1 a 6. L'ensemble des issues possibles est alors =f1;2;3;4;5;6g. Exemple 1.3On lance deux des l'un a la suite de l'autre, et l'on note le resultat des deux lancers. L'ensemble des issues est alors =f(1;1);(1;2);(2;1);:::;(6;6)g=f(i;j) :i;j2 f1;:::;6gg; etj j= 36. Maintenant si l'on lance les deux des en m^eme temps, et qu'ils sont indistin- guables, alors cette fois l'ensemble des issues est

0=ffi;jg: 1i;j6g;

etj

0j= 21.

Exemple 1.4On jette une piece jusqu'a ce que Face sorte. Une facon de decrire l'experience est de donner le nombre de lancers eectues. Ainsi, l'espace est ici l'ensembleNdes entiers naturels strictement positifs. Terminons enn par l'experience (imaginaire) ou l'on lancerait une piece une innite de fois. Dans ce cas =f0;1gN.

1.3 Probabilites.

On considere dans un premier temps (et en particulier dans tout ce chapitre) des experiences avec unnombre ni ou denombrable d'issues. On note cet ensemble d'issues etP( ) l'ensemble desevenements, c'est-a-dire l'ensemble des parties de . Si =f1;2;3g, alors P( ) =f;;f1g;f2g;f3g;f1;2g;f2;3g;f1;3g;f1;2;3gg; ou;est l'ensemble vide.

SiAetBsont deux sous-ensembles de

, on note

A[B=f!:!2Aou!2Bg;

A\B=f!:!2Aet!2Bg;

AnB=f!:!2Aet!62BglorsqueBA;

2 A c= nA: Noter que (Ac)c=Apour toutA. On interpreteA\Bcomme \AetBse realisent"; A[Bcomme \AouBse realisent". On appelleAcle complementaire deA.Acs'interprete comme \l'evenementAne se realise pas". Deux evenementsAetBsontdisjointss'ils n'ont aucune issue en commun, c'est-a- dire queA\B=;. Par exemple,AetAcsont disjoints, ainsi que;etA.

Exercice :Montrer que pour tous evenementsAetB,

(A[B)c=Ac\Bc:

Denition 1.5UneprobabilitePsur

est une fonction deP( )dans[0;1]telle que |P( ) = 1; | Si(Ai)i2Iest une famille denombrable d'evenements disjoints, (i.e.Ai\Aj=;si i6=j), alors

P([i2IAi) =X

i2IP(Ai):(1.1)

Le triplet(

;P( );P)est appele unespace de probabilite.

Pour souligner que l'ensemble

est au plus denombrable, nous dirons aussi parfois queP est uneprobabilite discrete, et de m^eme que ( ;P( );P) unespace de probabilite discret. Nous verrons dans la suite du cours une denition plus generale de ces notions. De cette denition, decoulent les proprietes suivantes :

Proposition 1.6.

1.P(;) = 0.

2. Pour tout evenementA,P(A) +P(Ac) = 1.

3. SiAetBsont deux evenements tels queAB, alors

P(B) =P(A) +P(BnA):

4. Pour deux evenements quelconquesAetB

P(A[B) =P(A) +P(B)P(A\B):

5. Si(An)n1est une suite croissante d'evenements (i.eAnAn+1pour toutn),

alors

P([n1An) = limn!1P(An):

6. Si(Bn)n1est une suite decroissante d'evenements (i.eBn+1Bnpour toutn),

alors

P(\n1Bn) = limn!1P(Bn):

Preuve.

Preuve de 2.AetAcsont deux evenements disjoints tels queA[Ac= . On a donc 1 =P( ) =P(A[Ac) =P(A) +P(Ac):

Preuve de 1.Il sut de prendreA=;dans 2.

3 Preuve de 3.Il sut de remarquer queAetBnAsont deux evenements disjoints dont l'union estB. Preuve de 4.Il sut la encore de remarquer queAetBn(A\B) sont deux ensembles disjoints dont l'union estA[B, puis d'appliquer le resultat du point 3. Preuve de 5.On poseC1=A1et pourn2,Cn=AnnAn1. Les evenementsCn sont deux a deux disjoints. De plus, on montre immediatement par recurrence que pour toutn1,[nk=1Ck=[nk=1Ak=An, puis que[n1Cn=[n1An. Par consequent,

P([n1An) =P([n1Cn) =X

n1P(Cn) = limn!1n X k=1P(Ck) = limn!1P([nk=1Ck) = lim n!1P(An): Preuve de 6.On poseAn=Bcn. La suite (An)n1est alors une suite croissante et on peut appliquer le resultat du point 5 :

P([n1An) = limn1P(An):

On utilse ensuite que pour tout ensembleA,P(Ac) = 1P(A), et le point 6 decoule alors de la formule ([n1An)c=\n1Bn.Remarque. etant un ensemble ni ou denombrable, se donner une probabilitePsur l'ensemble des parties de n'est rien d'autre que se donner la fonction sur :!2

7!p(!) =P(f!g). En eet, pour tout evenementA, on peut ecrireAcomme la

reunion disjointe et au plus denombrable des singletons des elements qui le composent :

A=[!2Af!g. Par la propriete (1.1),P(A) =P

!2Ap(!).

Cette fonction verie les proprietes suivantes :

|p:

7![0;1];

|P !2 p(!) = 1. Une telle fonction est unedistribution de probabilite. Exemple 1.7Reprenons l'exemple du lancer de de. Si le de est bien equilibre, il est raisonable d'associer a chaque issuei2 =f1;:::;6g, la probabilitep(i) = 1=6. Quelle est maintenant la probabilite qu'un nombre pair sorte? Il sut de decomposer cet evenement A suivant les dierentes issues qu'il contient :A=f2;4;6g, et on trouve

P(A) =p(2) +p(4) +p(6) = 1=2:(1.2)

Exemple 1.8Reprenons l'exemple ou l'on lance une piece jusqu'a obtenir Face. Si l'on fait l'hypothese que Pile et Face ont la m^eme probabilite 1=2 de sortir, alors on trouve que pour toutk2N, p(k) =12 12 |{z} k1 fois P12 |{z}

1 fois F=12

k

On verie bien que

P1 k=1p(k) =P1 k=112 k=12 P 1 k=012 k=12 1112
= 1. 4

1.4 Variables aleatoires

1.4.1 Denition

Denition 1.9Une fonctionX:

!R, est appeleevariable aleatoire(v.a.). De m^eme que pour la notion de probabilite, pour souligner que est au plus denombrable, on parle aussi parfois devariable aleatoire discrete. Une denition plus generale sera donnee dans la suite du cours. Ainsi, une variable aleatoire (discrete) n'est rien d'autre qu'une fonction tout a fait classique. Pourquoi donc une denition de plus? En analyse, il est fondamental de savoir quel est le domaine de denition d'une fonction comme sin(x), ou log(x). On doit savoir ou se trouvex: sur [0;[, ou sur ]0;1[, etc... En probabilite, ce qui est important ce sont lesvaleursde la fonction, et les probabilites que l'on associe a chacune de ces valeurs. En revanche la connaissance precise de importe peu, et depend de notre facon de decrire le jeu, ou l'experience que l'on modelise. Convention. Les variables aleatoires sont en general notees par des lettres majuscules X;Y;:::et les valeurs qu'elles prennent lorsque l'issue!se realise parX(!);Y(!);::: Exemple 1.10Dans l'exemple 1.3 de deux lancers d'un de, la somme des faces est une variable aleatoire : X: !N (i;j)7!i+j:

1.4.2 Loi d'une variable aleatoire

Soit un espace d'issues (ni ou denombrable),Pune probabilite sur , etXune variable aleatoire denie sur . SoitX( ) l'ensemble des valeurs distinctes prises parX.

Par convention, six2X(

), on note fX=xg=f!:X(!) =xgetP(X=x) =P(f!:X(!) =xg); fXxg=f!:X(!)xgetP(Xx) =P(f!:X(!)xg); fX < xg=f!:X(!)< xgetP(X < x) =P(f!:X(!)< xg); etc...De m^eme, siAest un sous-ensemble deX( fX2Ag=f!:X(!)2AgetP(X2A) =P(f!:X(!)2Ag): En general siAest un sous-ensemble quelconque deR, on denitfX2Agcomme l'en- semblefX2A\X( )g.

Denition 1.11La loi deXest la probabilitePXsurX(

), donnee par : 8AX( ); PX(A) =P(X2A):(1.3) Remarque.Verier quePXdenie par (1.3), denit bien une probabilite surX( Remarque.On rencontrera souvent des enonces du type : \SoitXune variable aleatoire de loi ...". Il faut comprendre ici que ce qui nous interesse est la loi deX(les valeurs prises 5 parXet les probabilites associees), et pas du tout l'espace sur lequel est denieX.

Dans beaucoup de situations, l'espace

ne sera m^eme pas explicite. Remarque.En pratique lorsque l'on demande de donner la loi d'une variable aleatoire discrete, on pourra se contenter de donner sa distribution de probabilite, c'est-a-dire l'en- semble des probabilitesP(X=x), pourx2X( ). En eet ces nombres determinent completement la probabilitePX.A titre d'exercice donner la loi de probabilite de la va- riableXdans l'exemple 1.10. Exemple 1.12 (Loi uniforme)La loi uniforme sur un ensemble niE, est la loi d'une variable aleatoireXa valeurs dansE, qui prend chacune des valeurs deEavec la m^eme probabilite 1=Card(E). Par exemple siE=f1;:::;ng,Xsuit une loi uniforme surE, siPX(k) = 1=npour toutk2 f1;:::;ng. On note alorsXU(f1;:::;ng), ou plus generalementXU(E). Exemple 1.13 (Loi de Bernoulli)La loi de Bernoulli de parametrep2[0;1] est la loi d'une variable aleatoire a valeurs dansf0;1g, qui prend la valeur 1 avec probabilitep(et donc la valeur 0 avec probabilite 1p). SiXsuit cette loi, on noteXB(p). Exemple 1.14 (Loi binomiale)La loi binomiale de parametresn2Netp2[0;1] est la loi d'une variable aleatoire a valeurs dansf0;1;:::;ng, qui prend la valeurkavec probabiliteCknpk(1p)nk(ou l'on rappelle queCkn=n!k!(nk)!). C'est la loi du nombre de gains lorsque l'on jouenfois de suite a un jeu ou la probabilite de gagner estp. SiXsuit cette loi, on noteXB(n;p). Exemple 1.15 (Loi geometrique)La loi geometrique de parametrep2]0;1], est la loi d'une variable aleatoire a valeurs dansN=f1;2;:::g, qui prend la valeurkavec probabilitep(1p)k1. C'est la loi du nombre de tentatives que l'on doit faire avant d'obtenir le premier gain, lorsque l'on joue successivement a un jeu ou la probabilite de gagner estp. SiXsuit cette loi, on noteXG(p). Exemple 1.16 (Loi de Poisson)La loi de Poisson de parametre >0 est la loi d'une variable aleatoire a valeurs dansN, qui prend la valeurkavec probabiliteek=k!. SiX suit cette loi, on noteXP(). Cette loi est aussi appelee la loi des evenements rares, car elle attribue une forte probabilite aux petites valeurs deket une faible probabilite aux grandes valeurs dek(le termek=k! convergeant tres vite vers 0 lorsquekgrandit). C'est par exemple le type de loi qui peut ^etre utilise pour modeliser le nombre d'enfants d'un couple choisi au hasard dans une population donnee.

1.4.3 Fonction de repartition

Denition 1.17Lafonction de repartitiond'une variable aleatoireXest la fonction F

Xdenie par :

F

X:R![0;1]

x7!P(Xx) Proposition 1.18SoitFXla fonction de repartition d'une variable aleatoireX.

1. Sixy,FX(x)FX(y).FXest une fonction croissante.

6

2.FXest continue a droite en tout point.

3.limx!1FX(x) = 0.

4.limx!+1FX(x) = 1.

5.8x2R,P(X=x) =FX(x)limy!x;y

Preuve.

Preuve de 1.Sixy,fXxg fXyg. Par consequentFX(x) =P[Xx]

P[Xy] =FX(y).

Preuve de 2.Pour toutx2R,fXxg=\n2NXx+1n

. De plus cette inter- section est une intersection decroissante d'evenements. En utilisant la propriete 6 de la proposition 1.6, on a donc F

X(x) =P(Xx) = limn!1P(Xx+1n

) = limn!1FX(x+1n ce qui prouve la continuite a droite deFX(en utilisant queFXest croissante). Preuve de 3.Soit (yn)n2Nune suite decroissant vers1. On a;=\n2NfXyng, et cette intersection est une intersection decroissante d'evenements. On a donc

0 =P(;) = limn!1P(Xyn) = limx!1FX(x):

Preuve de 4.Soit (yn)n2Nune suite croissant vers +1. On a =[n2NfXyng, et cette union est une union croissante d'evenements. On a donc 1 =P( ) = limn!1P(Xyn) = limx!+1FX(x): Preuve de 5.Soitx2Rxe. On afX=xg=fXxg n fX < xg. On a donc

P(X=x) =P(Xx)P(X < x):

On observe ensuite que

fX < xg=[n1fX < x1n g;

ce qui permet de conclure avec la propriete 5 de la proposition 1.6 et la croissance deFX.Proposition 1.19La fonction de repartition d'une variable aleatoire determine sa loi.

Preuve.Il s'agit de voir qu'a partir de la donnee de la fonctionFX, on est capable de retrouver l'ensemble des valeurs prises parX, et leurs probabilites associees. Or d'apres la proposition precedente, les valeurs prises parXsont les points ouFXest discontinue, et

les probabilites associees sont les amplitudes des sauts en ces points de discontinuite.Remarque.En fait dans le cas ou l'on peut ordonner l'ensemble des valeurs prises par

Xen une suite croissante (:::;x1;x0;x1;:::), les resultats precedents montrent que la fonctionFXest constante sur chaque intervalle [xn;xn+1[. 7

1.4.4 Fonction indicatrice.

Lafonction indicatrice1IAd'un evenementA

, est la variable aleatoire 1I A: ! f0;1g !7!1 si!2A

0 si! =2A

La loi de cette variable est donc laloi de Bernoullide parametrep=P(A). Nous allons voir que toute variable aleatoire (discete) peut s'ecrire comme une combinaison lineaire de fonctions indicatrices, d'ou leur importance.

On rappelle tout d'abord qu'unepartitionde

est une suite de sous-ensembles (Ai)i2I disjoints deux a deux, de reunion . En d'autres termes,

Pour toutidierent dej; Ai\Aj=;et[i2IAi=

La proposition suivante est elementaire.

Proposition 1.201. 1IA\B=1IA1IB.

2. SiA\B=;, alors 1IA[B=1IA+1IB.

3. 1I

Ac= 11IA.

4. Si(Ai)i2Iest une partition de

, alors1 =P i2I1IAi. Preuve.Nous ne demontrons que le point 4. Soit!un element xe de . (Ai)i2Ietant une partition,!appartient a un et un seul des ensemblesAi. Autrement dit, il existe un uniqueitel que 1IAi(!) = 1. Ainsi, dans la sommeP i2i1IAi(!) = 1, un seul des termes est non nul, et vaut 1.Denition 1.21Soit(Ai)i2Iune partition de . On dit queXse decompose sur la partition(Ai)i2IsiXpeut s'ecrire sous la forme X=X i2Ix i1IAi; (1.4) ce qui signie queXest constante sur les evenementsAiet prend la valeurxisurAi. Maintenant a toute v.a.X, on peut associer une partition de de la facon suivante : soitfxigi2I, l'ensemble des valeurs distinctes prises parX. Posons A i=f!:X(!) =xig: Il est facile de voir que lesAiforment une partition de (exercice : le verier!). De plus, par denition desAi, on aX=P i2Ixi1IAi. En revanche, l'ecriture (1.4) n'est pas unique. Par exemple, siA;B;Cforment unequotesdbs_dbs8.pdfusesText_14