ESPACES PRÉHILBERTIENS RÉELS
(iii). X? = Vect(X)? et. X ? X??. 7. Page 8. Christophe Bertault — Mathématiques en MPSI. L'égalité X
INÉGALITÉ DE CAUCHY-SCHWARZ ORTHOGONALITÉ
Christophe Bertault — Mathématiques en MPSI. ESPACES PRÉHILBERTIENS RÉELS Soient E un espace préhilbertien réel et x y ? E non nuls.
POSITION ET DISPERSION DUNE VARIABLE ALÉATOIRE
Christophe Bertault — Mathématiques en MPSI Dans tout ce chapitre (?
Christophe Bertault Mathématiques en MPSI
POSITION ET DISPERSION
D"UNE VARIABLE ALÉATOIRE
Dans tout ce chapitre,(Ω,P)est un espace probabilisé fini.1 ESPÉRANCE D"UNE VARIABLE ALÉATOIRE COMPLEXE
Définition(Espérance d"une variable aléatoire complexe)SoitXune variable aléatoire complexe surΩ. On appelle
espérance de Xle nombre complexe E(X) =? x?X(Ω)P(X=x)x.On dit queXestcentréesi E(X) =0.
L"espérance deXest une moyenne des valeurs deX, donc unindicateur de position. Précisément, chaque valeurx,x
décrivantX(Ω), s"y trouve comptabilisée en proportion de sa probabilité d"occurrenceP(X=x). Ainsi, plusP(X=x)est
proche de 1, plusxa d"importance dans le calcul.ExempleUn dé à 6 faces numérotées de 1 à 6 a été truqué de telle sorte queles faces 1, 2 et 3 tombent avec probabilité
16, les faces 4 et 5 avec probabilité112et la face 6 avec probabilité13. Quel numéro obtient-on en moyenne?
DémonstrationCet énoncé a du sens car 3×16+2×112+13=1. NotonsXle numéro obtenu avec un tel dé
après un lancer. Par hypothèse :P(X=1) =P(X=2) =P(X=3) =16,P(X=4) =P(X=5) =112et
P(X=6) =1
3, donc E(X) =6
k=1P(X=k)k=1+2+36+4+512+63=1+34+2=3,75. Théorème(Espérance des lois usuelles)SoitXune variable aléatoire surΩ. (i)Variables aléatoires constantes :SiXest constante de valeurm: E(X) =m.(ii)Loi uniforme :SoitE=x1,...,xnune partie de?. SiX≂ ?(E), E(X)est la moyenne " naturelle » des
valeursx1,...,xndeX: E(X) =1 nn k=1x k. (iii)Loi de Bernoulli :Soitp?[0,1]. SiX≂ ?(p), alors E(X) =p. Exemple fondamental :Pour tout événementA? ?(Ω): E( ?A) =P(A). (iv)Loi binomiale :Soientn???etp?[0,1]. SiX≂ ?(n,p), alors E(X) =np.Démonstration
(i) Par hypothèseX(Ω) =metP(X=m) =P(Ω) =1, donc E(X) =m×1=m. (ii) Pour toutk??1,n?:P(X=xk) =1 n, donc E(X) =n k=1x kn=1nn k=1x k. (iii) Par hypothèseX(Ω) =0,1, donc E(X) =P(X=1)×1+P(X=0)×0=p. Dans le cas oùX= ?Apour un certainA? ?(Ω), nous savons déjà que ?A≂ ?P(A), donc E( ?A) =P(A). (iv) On peut travailler dans l"anneau?[T]:(T+1-p)n=n k=0! n k! T k(1-p)n-k, dériver, puis évaluer en p, ou bien utiliser la formule du capitaine.E(X) =n
k=0P(X=k)k=n k=0! n k! kp k(1-p)n-kCapitaine=nn k=1! n-1 k-1! p k(1-p)n-k i=k-1=npn-1? i=0! n-1 i! p i(1-p)(n-1)-i=np×p+(1-p)n-1=np. 1Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de l"espérance)SoientXetYdeux variables aléatoires complexes surΩ.
(i)Une autre expression :E(X) =?ω?ΩPωX(ω).
(ii)Linéarité :Pour tousλ,μ??: E(λX+μY) =λE(X)+μE(Y). (iii)Inégalité triangulaire :??E(X)???E|X|. (iv)Lien avec les parties réelle et imaginaire :E(X) =ERe(X)+iEIm(X). La dernière propriété concerne les variables aléatoires réelles. (v)Positivité :SiX?0, alors E(X)?0.Croissance :SiX?Y, alors E(X)?E(Y).Démonstration
(i) Les événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :?
ω?ΩPωX(ω) =?
x?X(Ω)?ω?{X=x}PωX(ω) =?
x?X(Ω)?ω?{X=x}Pωx=?
x?X(Ω)P(X=x)x=E(X). (ii) E(λX+μY)(i)=?ω?ΩPω(λX+μY)(ω) =λ?
ω?ΩPωX(ω)+μ?
ω?ΩPωY(ω) =λE(X)+μE(Y).
(iii) ?E(X)??(i)=?????ω?ΩPωX(ω)????
ω?ΩPω??X(ω)??(i)=E|X|.
(iv) E(X)(i)=?ω?ΩPωX(ω) =?
ω?ΩPω
Re(X)(ω)+iIm(X)(ω)
ω?ΩPωRe(X)(ω) +i?
(v) Positivité évidente par définition de l"espérance. Pourla croissance, siX?Y, alorsY-X?0, donc par
linéarité et positivité : E(Y)-E(X) =E(Y-X)?0.ExempleQu"obtient-on en moyenne quand on lance 2 fois un dé à 6 faces et qu"on additionne les résultats obtenus?
DémonstrationNotonsX1(resp.X2) le résultat du premier (resp. deuxième) lancer etS=X1+X2leur somme.
On cherche à calculer E(S). Bien sûr :X1≂ ??1,6?etX2≂ ??1,6?.Il ne fautSURTOUT PASici calculer la loi deSpour en déduire son espérance. Ce serait se donner beaucoup de
peine pour rien. Plus simplement, par linéarité : E(S) =E(X1)+E(X2) =1 66k=1k+166 k=1k=2×16×6×72=7.
ExempleSoientp?[0,1]etX1,...,Xndes variables de Bernoulli indépendantes de paramètrepdéfinies sur un même
espace probabilisé fini. Nous savons déjà queX1+...+Xn≂ ?(n,p). Un nouveau calcul de l"espérance de la loi binomiale
en découle : E" n? i=1X i" =n i=1E(Xi) =n i=1p=np. Exemple(Formule du crible)Pour tousA1,...,An? ?(Ω):P" n?i=1A i" =n k=1(-1)k+1?1?i1<... DémonstrationCette formule hors programme a été énoncée sans preuve au chapitre " Espaces probabilisés
finis et variables aléatoires ». On commence par un calcul d"indicatrices : ?A1?...?An=1- ?A1?...?An=1- ?A1∩...∩An=1-n i=1 ?Ai=1-n i=1 1- ?Ai=n k=1(-1)k+1? 1?i1<... ?Ai1∩...∩Aik et on conclut par linéarité de l"espérance :P" n? i=1A i" =E ?A1?...?An=n k=1(-1)k+1? 1?i1<... ?Ai1∩...∩Aik n k=1(-1)k+1? 1?i1<... Théorème(Formule de transfert)SoientXune variable aléatoire surΩetf:X(Ω)-→?une fonction. L"espérance
def(X)est entièrement déterminée parfet la loi deX: Ef(X)=? x?X(Ω)P(X=x)f(x). 2 Christophe Bertault Mathématiques en MPSI
DémonstrationLes événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :
Ef(X)=?
ω?ΩPωfX(ω)=?
x?X(Ω)? ω?{X=x}PωfX(ω)=?
x?X(Ω)? ω?{X=x}Pωf(x) =?
x?X(Ω)P(X=x)f(x). On dispose bien sûr d"une version de la formule de transfert pour les couples. SiXetYsont deux variables aléatoires sur
Ωet sif:(X,Y)(Ω)-→?est une fonction, alors Ef(X,Y)=? (x,y)?(X,Y)(Ω)P(X=xetY=y)f(x,y). ExempleSoitXnune variable uniforme sur?1,n?. La variable aléatoireUn=Xnnest alors clairement uniforme sur!k
n??? k??1,n?! et pour toute fonctionf? ??[0,1],?, d"après la formule de transfert et le théorème sur les sommes
de Riemann : E f(Un)=n k=1P(Xn=k)f!k n! =1nn k=1f!kn! n→+∞? 1 0 f(x)dx. Théorème(Espérance du produit de deux variables aléatoires indépendantes)SoientXetYdeux variables
aléatoires complexes surΩ. SiXetYsontINDÉPENDANTES: E(XY) =E(X)E(Y). Ce résultat s"étend naturellement à un nombre fini quelconque de variables aléatoires indépendantes.
DémonstrationE(X)E(Y) =?
x?X(Ω)P(X=x)x×? y?Y(Ω)P(Y=y)y=? (x,y)?X(Ω)×Y(Ω)P(X=x)P(Y=y)x y Indép.
(x,y)?(X,Y)(Ω)P(X=xetY=y)x yTransfert=E(XY). ?Attention !L"identité E(XY) =E(X)E(Y)est fausse en général. Par exemple, pour toute variable de RademacherX,
i.e. uniforme sur-1,1: E(X) =0 donc E(X)2=0, mais EX2=E(1) =1. 2 VARIANCE,ÉCART-TYPE,COVARIANCE
Nous avons introduit l"espérance d"unevariable aléatoireCOMPLEXE,mais nous nous contenterons d"introduire la variance
d"une variable aléatoireRÉELLE. Définition(Moments, variance et écart-type d"une variable aléatoireréelle)SoitXune variable aléatoire réelle.
Moments :Pour toutk??, EXkest appelé lemoment d"ordre k de Xet EX-E(X)k sonmoment centré d"ordre k. Variance :Onappellevariance de Xle réel positifV(X) =EX-E(X)2 etécart-typede Xleréelσ(X) = V(X). On dit queXestréduitesi V(X) =1.
L"espérance deXest un indicateur de position, mais les valeurs deXsont-elles plutôt proches de cette valeur moyenne
ou plutôt éloignées? Toute mesure de cette proximité à la moyenne est appelée unindicateur de dispersion. L"écart le plus
naturel entreXet son espérance est??X-E(X)??, donc l"écart moyen deXà sa moyenne est E??X-E(X)??
, mais ce n"est pourtant pas l"indicateur de dispersion que les mathématiciens ont choisi de mettre en avant. Ils lui ont préféré la variance,
c"est-à-dire l"écartQUADRATIQUEmoyen à la moyenne quadratique parce qu"on passe au carré. Pourquoi ce choix moins
naturel au premier abord? Parce que la variance est plus facile à manipuler d"un point de vue calculatoire, comme on va le
voir. Vive les identités remarquables! Et l"écart-type, quelle différence avec la variance? Si parexempleXreprésente une longueur, V(X)représente une lon-
gueurAU CARRÉ, donc il n"est pas possible de comparer directement la position moyenne E(X)et sa dispersion moyenne
V(X) un physicien dirait que l"espérance et la variance ne sont pas homogènes. L"écart-type, au contraire, est homogène
à une longueur, donc comparable à l"espérance d"où son intérêt. 3 Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de la variance)SoitXune variable aléatoire réelle surΩ. (i)Expression développée :V(X) =EX2-E(X)2. (ii)Effet d"une transformation affine :Pour tousa,b??: V(aX+b) =a2V(X). En particulier, siσ(X)>0, la variable aléatoireX-E(X) σ(X)est centrée réduite.
(iii)Nullité :V(X) =0 si et seulement si l"événementX=E(X)estpresque certain, i.e. de probabilité 1. On dit
alors queXestpresque sûrement constante. Démonstration
(i) V(X) =E X2-2Constante
E(X)X+Constante
E(X)2 =EX2-2E(X)E(X) +E(X)2=EX2-E(X)2. (ii) E(aX+b) =aE(X)+b, donc V(aX+b) =EaX+b-aE(X)-b2 =a2EX-E(X)2 =a2V(X). Enfin, siσ(X)>0 : E!X-E(X)
σ(X)!
=E(X)-E(X)σ(X)=0 et V!X-E(X)σ(X)! =V(X)σ(X)2=1. (iii) D"après la formule de transfert : V(X) =? x?X(Ω)P(X=x)x-E(X)2et les termes sommés sont tous positifs, donc : V(X) =0?? ?x?X(Ω),P(X=x) =0 oux=E(X)?? ?x?X(Ω)\E(X),P(X=x) =0 ??PX=E(X)=1 car? x?X(Ω)P(X=x) =1. ?Attention !L"événement certainΩest de probabilité 1 :P(Ω) =1, mais un événement peut être de probabilité 1
sans être égal àΩtout entier. Vous travaillerez en deuxième année avec des espaces probabilisés quelconques, éventuellement infinis. Intéressons-
nous au tirage aléatoire d"un pointMdans le disque?de?de centre 0 et de rayon 1. Intuitivement, et sous réserve
qu"on puisse donner un sens à tout cela, la probabilité de tirer un point dans une partie?de?vaut :
P(M? ?) =Aire(?)
Aire(?)=Aire(?)π.
En particulierP(M=0) =0, doncP(M?=0) =1. L"événementM?=0 N"estPAScertain car rien n"empêcheMde
valoir 0, mais il est proche deΩen ce sens qu"il est de probabilité 1, on dit qu"il est presquecertain. On dit ausi que
M?=0presque sûrement.
Autre exemple très différent. SoitA? ?(Ω)un événement pour lequelP(A)?]0,1[. En particulierA?=Ω, autrement
ditAn"est pas l"événement certain. PourtantPA(A) =1, doncAest presque certain au sens de la probabilitéPA.
Définition-théorème(Covariance de deux variables aléatoires réelles)SoientXetYdeux variables aléatoires
réelles surΩ. On appellecovariance de X et Yle réel cov(X,Y) =EX-E(X)Y-E(Y) On dit queXetYsontdécorréléessi cov(X,Y) =0. Clairement : V(X) =cov(X,X)et cov(Y,X) =cov(X,Y).
(i)Expression développée :cov(X,Y) =E(XY)-E(X)E(Y). (ii)Lien avec l"indépendance :SiXetYsont indépendantes,XetYsont décorrélées. (iii)Variance d"une somme :V(X+Y) =V(X)+2cov(X,Y)+V(Y). Plus généralement, pour des variables aléatoiresX1,...,XnsurΩ: V" n? i=1X i" =n i=1V(Xi) +2? 1?i D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi). Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ». ?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=1 3×23?=0.
4 Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =E XY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y). Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p). Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p). (ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X 1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale. 3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|. Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements, on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω: ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ. ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5 Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance des lancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500
n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons. Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2. Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X 1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ 2=σ2n,
doncσ!Sn n! =σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type. Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Il en existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 1 6? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait1 6même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 1 6à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29
DémonstrationCette formule hors programme a été énoncée sans preuve au chapitre " Espaces probabilisés
finis et variables aléatoires ». On commence par un calcul d"indicatrices : ?A1?...?An=1- ?A1?...?An=1- ?A1∩...∩An=1-n i=1 ?Ai=1-n i=1 1- ?Ai=n k=1(-1)k+1?1?i1<... ?Ai1∩...∩Aik et on conclut par linéarité de l"espérance :P" n? i=1A i" =E ?A1?...?An=n k=1(-1)k+1? 1?i1<... ?Ai1∩...∩Aik n k=1(-1)k+1? 1?i1<... Théorème(Formule de transfert)SoientXune variable aléatoire surΩetf:X(Ω)-→?une fonction. L"espérance
def(X)est entièrement déterminée parfet la loi deX: Ef(X)=? x?X(Ω)P(X=x)f(x). 2 Christophe Bertault Mathématiques en MPSI
DémonstrationLes événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :
Ef(X)=?
ω?ΩPωfX(ω)=?
x?X(Ω)? ω?{X=x}PωfX(ω)=?
x?X(Ω)? ω?{X=x}Pωf(x) =?
x?X(Ω)P(X=x)f(x). On dispose bien sûr d"une version de la formule de transfert pour les couples. SiXetYsont deux variables aléatoires sur
Ωet sif:(X,Y)(Ω)-→?est une fonction, alors Ef(X,Y)=? (x,y)?(X,Y)(Ω)P(X=xetY=y)f(x,y). ExempleSoitXnune variable uniforme sur?1,n?. La variable aléatoireUn=Xnnest alors clairement uniforme sur!k
n??? k??1,n?! et pour toute fonctionf? ??[0,1],?, d"après la formule de transfert et le théorème sur les sommes
de Riemann : E f(Un)=n k=1P(Xn=k)f!k n! =1nn k=1f!kn! n→+∞? 1 0 f(x)dx. Théorème(Espérance du produit de deux variables aléatoires indépendantes)SoientXetYdeux variables
aléatoires complexes surΩ. SiXetYsontINDÉPENDANTES: E(XY) =E(X)E(Y). Ce résultat s"étend naturellement à un nombre fini quelconque de variables aléatoires indépendantes.
DémonstrationE(X)E(Y) =?
x?X(Ω)P(X=x)x×? y?Y(Ω)P(Y=y)y=? (x,y)?X(Ω)×Y(Ω)P(X=x)P(Y=y)x y Indép.
(x,y)?(X,Y)(Ω)P(X=xetY=y)x yTransfert=E(XY). ?Attention !L"identité E(XY) =E(X)E(Y)est fausse en général. Par exemple, pour toute variable de RademacherX,
i.e. uniforme sur-1,1: E(X) =0 donc E(X)2=0, mais EX2=E(1) =1. 2 VARIANCE,ÉCART-TYPE,COVARIANCE
Nous avons introduit l"espérance d"unevariable aléatoireCOMPLEXE,mais nous nous contenterons d"introduire la variance
d"une variable aléatoireRÉELLE. Définition(Moments, variance et écart-type d"une variable aléatoireréelle)SoitXune variable aléatoire réelle.
Moments :Pour toutk??, EXkest appelé lemoment d"ordre k de Xet EX-E(X)k sonmoment centré d"ordre k. Variance :Onappellevariance de Xle réel positifV(X) =EX-E(X)2 etécart-typede Xleréelσ(X) = V(X). On dit queXestréduitesi V(X) =1.
L"espérance deXest un indicateur de position, mais les valeurs deXsont-elles plutôt proches de cette valeur moyenne
ou plutôt éloignées? Toute mesure de cette proximité à la moyenne est appelée unindicateur de dispersion. L"écart le plus
naturel entreXet son espérance est??X-E(X)??, donc l"écart moyen deXà sa moyenne est E??X-E(X)??
, mais ce n"est pourtant pas l"indicateur de dispersion que les mathématiciens ont choisi de mettre en avant. Ils lui ont préféré la variance,
c"est-à-dire l"écartQUADRATIQUEmoyen à la moyenne quadratique parce qu"on passe au carré. Pourquoi ce choix moins
naturel au premier abord? Parce que la variance est plus facile à manipuler d"un point de vue calculatoire, comme on va le
voir. Vive les identités remarquables! Et l"écart-type, quelle différence avec la variance? Si parexempleXreprésente une longueur, V(X)représente une lon-
gueurAU CARRÉ, donc il n"est pas possible de comparer directement la position moyenne E(X)et sa dispersion moyenne
V(X) un physicien dirait que l"espérance et la variance ne sont pas homogènes. L"écart-type, au contraire, est homogène
à une longueur, donc comparable à l"espérance d"où son intérêt. 3 Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de la variance)SoitXune variable aléatoire réelle surΩ. (i)Expression développée :V(X) =EX2-E(X)2. (ii)Effet d"une transformation affine :Pour tousa,b??: V(aX+b) =a2V(X). En particulier, siσ(X)>0, la variable aléatoireX-E(X) σ(X)est centrée réduite.
(iii)Nullité :V(X) =0 si et seulement si l"événementX=E(X)estpresque certain, i.e. de probabilité 1. On dit
alors queXestpresque sûrement constante. Démonstration
(i) V(X) =E X2-2Constante
E(X)X+Constante
E(X)2 =EX2-2E(X)E(X) +E(X)2=EX2-E(X)2. (ii) E(aX+b) =aE(X)+b, donc V(aX+b) =EaX+b-aE(X)-b2 =a2EX-E(X)2 =a2V(X). Enfin, siσ(X)>0 : E!X-E(X)
σ(X)!
=E(X)-E(X)σ(X)=0 et V!X-E(X)σ(X)! =V(X)σ(X)2=1. (iii) D"après la formule de transfert : V(X) =? x?X(Ω)P(X=x)x-E(X)2et les termes sommés sont tous positifs, donc : V(X) =0?? ?x?X(Ω),P(X=x) =0 oux=E(X)?? ?x?X(Ω)\E(X),P(X=x) =0 ??PX=E(X)=1 car? x?X(Ω)P(X=x) =1. ?Attention !L"événement certainΩest de probabilité 1 :P(Ω) =1, mais un événement peut être de probabilité 1
sans être égal àΩtout entier. Vous travaillerez en deuxième année avec des espaces probabilisés quelconques, éventuellement infinis. Intéressons-
nous au tirage aléatoire d"un pointMdans le disque?de?de centre 0 et de rayon 1. Intuitivement, et sous réserve
qu"on puisse donner un sens à tout cela, la probabilité de tirer un point dans une partie?de?vaut :
P(M? ?) =Aire(?)
Aire(?)=Aire(?)π.
En particulierP(M=0) =0, doncP(M?=0) =1. L"événementM?=0 N"estPAScertain car rien n"empêcheMde
valoir 0, mais il est proche deΩen ce sens qu"il est de probabilité 1, on dit qu"il est presquecertain. On dit ausi que
M?=0presque sûrement.
Autre exemple très différent. SoitA? ?(Ω)un événement pour lequelP(A)?]0,1[. En particulierA?=Ω, autrement
ditAn"est pas l"événement certain. PourtantPA(A) =1, doncAest presque certain au sens de la probabilitéPA.
Définition-théorème(Covariance de deux variables aléatoires réelles)SoientXetYdeux variables aléatoires
réelles surΩ. On appellecovariance de X et Yle réel cov(X,Y) =EX-E(X)Y-E(Y) On dit queXetYsontdécorréléessi cov(X,Y) =0. Clairement : V(X) =cov(X,X)et cov(Y,X) =cov(X,Y).
(i)Expression développée :cov(X,Y) =E(XY)-E(X)E(Y). (ii)Lien avec l"indépendance :SiXetYsont indépendantes,XetYsont décorrélées. (iii)Variance d"une somme :V(X+Y) =V(X)+2cov(X,Y)+V(Y). Plus généralement, pour des variables aléatoiresX1,...,XnsurΩ: V" n? i=1X i" =n i=1V(Xi) +2? 1?i D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi). Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ». ?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=1 3×23?=0.
4 Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =E XY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y). Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p). Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p). (ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X 1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale. 3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|. Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements, on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω: ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ. ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5 Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance des lancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500
n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons. Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2. Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X 1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ 2=σ2n,
doncσ!Sn n! =σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type. Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Il en existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 1 6? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait1 6même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 1 6à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29
1?i1<... ?Ai1∩...∩Aik n k=1(-1)k+1? 1?i1<... Théorème(Formule de transfert)SoientXune variable aléatoire surΩetf:X(Ω)-→?une fonction. L"espérance
def(X)est entièrement déterminée parfet la loi deX: Ef(X)=? x?X(Ω)P(X=x)f(x). 2 Christophe Bertault Mathématiques en MPSI
DémonstrationLes événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :
Ef(X)=?
ω?ΩPωfX(ω)=?
x?X(Ω)? ω?{X=x}PωfX(ω)=?
x?X(Ω)? ω?{X=x}Pωf(x) =?
x?X(Ω)P(X=x)f(x). On dispose bien sûr d"une version de la formule de transfert pour les couples. SiXetYsont deux variables aléatoires sur
Ωet sif:(X,Y)(Ω)-→?est une fonction, alors Ef(X,Y)=? (x,y)?(X,Y)(Ω)P(X=xetY=y)f(x,y). ExempleSoitXnune variable uniforme sur?1,n?. La variable aléatoireUn=Xnnest alors clairement uniforme sur!k
n??? k??1,n?! et pour toute fonctionf? ??[0,1],?, d"après la formule de transfert et le théorème sur les sommes
de Riemann : E f(Un)=n k=1P(Xn=k)f!k n! =1nn k=1f!kn! n→+∞? 1 0 f(x)dx. Théorème(Espérance du produit de deux variables aléatoires indépendantes)SoientXetYdeux variables
aléatoires complexes surΩ. SiXetYsontINDÉPENDANTES: E(XY) =E(X)E(Y). Ce résultat s"étend naturellement à un nombre fini quelconque de variables aléatoires indépendantes.
DémonstrationE(X)E(Y) =?
x?X(Ω)P(X=x)x×? y?Y(Ω)P(Y=y)y=? (x,y)?X(Ω)×Y(Ω)P(X=x)P(Y=y)x y Indép.
(x,y)?(X,Y)(Ω)P(X=xetY=y)x yTransfert=E(XY). ?Attention !L"identité E(XY) =E(X)E(Y)est fausse en général. Par exemple, pour toute variable de RademacherX,
i.e. uniforme sur-1,1: E(X) =0 donc E(X)2=0, mais EX2=E(1) =1. 2 VARIANCE,ÉCART-TYPE,COVARIANCE
Nous avons introduit l"espérance d"unevariable aléatoireCOMPLEXE,mais nous nous contenterons d"introduire la variance
d"une variable aléatoireRÉELLE. Définition(Moments, variance et écart-type d"une variable aléatoireréelle)SoitXune variable aléatoire réelle.
Moments :Pour toutk??, EXkest appelé lemoment d"ordre k de Xet EX-E(X)k sonmoment centré d"ordre k. Variance :Onappellevariance de Xle réel positifV(X) =EX-E(X)2 etécart-typede Xleréelσ(X) = V(X). On dit queXestréduitesi V(X) =1.
L"espérance deXest un indicateur de position, mais les valeurs deXsont-elles plutôt proches de cette valeur moyenne
ou plutôt éloignées? Toute mesure de cette proximité à la moyenne est appelée unindicateur de dispersion. L"écart le plus
naturel entreXet son espérance est??X-E(X)??, donc l"écart moyen deXà sa moyenne est E??X-E(X)??
, mais ce n"est pourtant pas l"indicateur de dispersion que les mathématiciens ont choisi de mettre en avant. Ils lui ont préféré la variance,
c"est-à-dire l"écartQUADRATIQUEmoyen à la moyenne quadratique parce qu"on passe au carré. Pourquoi ce choix moins
naturel au premier abord? Parce que la variance est plus facile à manipuler d"un point de vue calculatoire, comme on va le
voir. Vive les identités remarquables! Et l"écart-type, quelle différence avec la variance? Si parexempleXreprésente une longueur, V(X)représente une lon-
gueurAU CARRÉ, donc il n"est pas possible de comparer directement la position moyenne E(X)et sa dispersion moyenne
V(X) un physicien dirait que l"espérance et la variance ne sont pas homogènes. L"écart-type, au contraire, est homogène
à une longueur, donc comparable à l"espérance d"où son intérêt. 3 Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de la variance)SoitXune variable aléatoire réelle surΩ. (i)Expression développée :V(X) =EX2-E(X)2. (ii)Effet d"une transformation affine :Pour tousa,b??: V(aX+b) =a2V(X). En particulier, siσ(X)>0, la variable aléatoireX-E(X) σ(X)est centrée réduite.
(iii)Nullité :V(X) =0 si et seulement si l"événementX=E(X)estpresque certain, i.e. de probabilité 1. On dit
alors queXestpresque sûrement constante. Démonstration
(i) V(X) =E X2-2Constante
E(X)X+Constante
E(X)2 =EX2-2E(X)E(X) +E(X)2=EX2-E(X)2. (ii) E(aX+b) =aE(X)+b, donc V(aX+b) =EaX+b-aE(X)-b2 =a2EX-E(X)2 =a2V(X). Enfin, siσ(X)>0 : E!X-E(X)
σ(X)!
=E(X)-E(X)σ(X)=0 et V!X-E(X)σ(X)! =V(X)σ(X)2=1. (iii) D"après la formule de transfert : V(X) =? x?X(Ω)P(X=x)x-E(X)2et les termes sommés sont tous positifs, donc : V(X) =0?? ?x?X(Ω),P(X=x) =0 oux=E(X)?? ?x?X(Ω)\E(X),P(X=x) =0 ??PX=E(X)=1 car? x?X(Ω)P(X=x) =1. ?Attention !L"événement certainΩest de probabilité 1 :P(Ω) =1, mais un événement peut être de probabilité 1
sans être égal àΩtout entier. Vous travaillerez en deuxième année avec des espaces probabilisés quelconques, éventuellement infinis. Intéressons-
nous au tirage aléatoire d"un pointMdans le disque?de?de centre 0 et de rayon 1. Intuitivement, et sous réserve
qu"on puisse donner un sens à tout cela, la probabilité de tirer un point dans une partie?de?vaut :
P(M? ?) =Aire(?)
Aire(?)=Aire(?)π.
En particulierP(M=0) =0, doncP(M?=0) =1. L"événementM?=0 N"estPAScertain car rien n"empêcheMde
valoir 0, mais il est proche deΩen ce sens qu"il est de probabilité 1, on dit qu"il est presquecertain. On dit ausi que
M?=0presque sûrement.
Autre exemple très différent. SoitA? ?(Ω)un événement pour lequelP(A)?]0,1[. En particulierA?=Ω, autrement
ditAn"est pas l"événement certain. PourtantPA(A) =1, doncAest presque certain au sens de la probabilitéPA.
Définition-théorème(Covariance de deux variables aléatoires réelles)SoientXetYdeux variables aléatoires
réelles surΩ. On appellecovariance de X et Yle réel cov(X,Y) =EX-E(X)Y-E(Y) On dit queXetYsontdécorréléessi cov(X,Y) =0. Clairement : V(X) =cov(X,X)et cov(Y,X) =cov(X,Y).
(i)Expression développée :cov(X,Y) =E(XY)-E(X)E(Y). (ii)Lien avec l"indépendance :SiXetYsont indépendantes,XetYsont décorrélées. (iii)Variance d"une somme :V(X+Y) =V(X)+2cov(X,Y)+V(Y). Plus généralement, pour des variables aléatoiresX1,...,XnsurΩ: V" n? i=1X i" =n i=1V(Xi) +2? 1?i D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi). Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ». ?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=1 3×23?=0.
4 Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =E XY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y). Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p). Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p). (ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X 1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale. 3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|. Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements, on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω: ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ. ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5 Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance des lancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500
n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons. Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2. Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X 1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ 2=σ2n,
doncσ!Sn n! =σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type. Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Il en existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 1 6? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait1 6même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 1 6à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29
1?i1<... Théorème(Formule de transfert)SoientXune variable aléatoire surΩetf:X(Ω)-→?une fonction. L"espérance
def(X)est entièrement déterminée parfet la loi deX: Ef(X)=? x?X(Ω)P(X=x)f(x). 2 Christophe Bertault Mathématiques en MPSI
DémonstrationLes événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :
Ef(X)=?
ω?ΩPωfX(ω)=?
x?X(Ω)? ω?{X=x}PωfX(ω)=?
x?X(Ω)? ω?{X=x}Pωf(x) =?
x?X(Ω)P(X=x)f(x). On dispose bien sûr d"une version de la formule de transfert pour les couples. SiXetYsont deux variables aléatoires sur
Ωet sif:(X,Y)(Ω)-→?est une fonction, alors Ef(X,Y)=? (x,y)?(X,Y)(Ω)P(X=xetY=y)f(x,y). ExempleSoitXnune variable uniforme sur?1,n?. La variable aléatoireUn=Xnnest alors clairement uniforme sur!k
n??? k??1,n?! et pour toute fonctionf? ??[0,1],?, d"après la formule de transfert et le théorème sur les sommes
de Riemann : E f(Un)=n k=1P(Xn=k)f!k n! =1nn k=1f!kn! n→+∞? 1 0 f(x)dx. Théorème(Espérance du produit de deux variables aléatoires indépendantes)SoientXetYdeux variables
aléatoires complexes surΩ. SiXetYsontINDÉPENDANTES: E(XY) =E(X)E(Y). Ce résultat s"étend naturellement à un nombre fini quelconque de variables aléatoires indépendantes.
DémonstrationE(X)E(Y) =?
x?X(Ω)P(X=x)x×? y?Y(Ω)P(Y=y)y=? (x,y)?X(Ω)×Y(Ω)P(X=x)P(Y=y)x y Indép.
(x,y)?(X,Y)(Ω)P(X=xetY=y)x yTransfert=E(XY). ?Attention !L"identité E(XY) =E(X)E(Y)est fausse en général. Par exemple, pour toute variable de RademacherX,
i.e. uniforme sur-1,1: E(X) =0 donc E(X)2=0, mais EX2=E(1) =1. 2 VARIANCE,ÉCART-TYPE,COVARIANCE
Nous avons introduit l"espérance d"unevariable aléatoireCOMPLEXE,mais nous nous contenterons d"introduire la variance
d"une variable aléatoireRÉELLE. Définition(Moments, variance et écart-type d"une variable aléatoireréelle)SoitXune variable aléatoire réelle.
Moments :Pour toutk??, EXkest appelé lemoment d"ordre k de Xet EX-E(X)k sonmoment centré d"ordre k. Variance :Onappellevariance de Xle réel positifV(X) =EX-E(X)2 etécart-typede Xleréelσ(X) = V(X). On dit queXestréduitesi V(X) =1.
L"espérance deXest un indicateur de position, mais les valeurs deXsont-elles plutôt proches de cette valeur moyenne
ou plutôt éloignées? Toute mesure de cette proximité à la moyenne est appelée unindicateur de dispersion. L"écart le plus
naturel entreXet son espérance est??X-E(X)??, donc l"écart moyen deXà sa moyenne est E??X-E(X)??
, mais ce n"est pourtant pas l"indicateur de dispersion que les mathématiciens ont choisi de mettre en avant. Ils lui ont préféré la variance,
c"est-à-dire l"écartQUADRATIQUEmoyen à la moyenne quadratique parce qu"on passe au carré. Pourquoi ce choix moins
naturel au premier abord? Parce que la variance est plus facile à manipuler d"un point de vue calculatoire, comme on va le
voir. Vive les identités remarquables! Et l"écart-type, quelle différence avec la variance? Si parexempleXreprésente une longueur, V(X)représente une lon-
gueurAU CARRÉ, donc il n"est pas possible de comparer directement la position moyenne E(X)et sa dispersion moyenne
V(X) un physicien dirait que l"espérance et la variance ne sont pas homogènes. L"écart-type, au contraire, est homogène
à une longueur, donc comparable à l"espérance d"où son intérêt. 3 Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de la variance)SoitXune variable aléatoire réelle surΩ. (i)Expression développée :V(X) =EX2-E(X)2. (ii)Effet d"une transformation affine :Pour tousa,b??: V(aX+b) =a2V(X). En particulier, siσ(X)>0, la variable aléatoireX-E(X) σ(X)est centrée réduite.
(iii)Nullité :V(X) =0 si et seulement si l"événementX=E(X)estpresque certain, i.e. de probabilité 1. On dit
alors queXestpresque sûrement constante. Démonstration
(i) V(X) =E X2-2Constante
E(X)X+Constante
E(X)2 =EX2-2E(X)E(X) +E(X)2=EX2-E(X)2. (ii) E(aX+b) =aE(X)+b, donc V(aX+b) =EaX+b-aE(X)-b2 =a2EX-E(X)2 =a2V(X). Enfin, siσ(X)>0 : E!X-E(X)
σ(X)!
=E(X)-E(X)σ(X)=0 et V!X-E(X)σ(X)! =V(X)σ(X)2=1. (iii) D"après la formule de transfert : V(X) =? x?X(Ω)P(X=x)x-E(X)2et les termes sommés sont tous positifs, donc : V(X) =0?? ?x?X(Ω),P(X=x) =0 oux=E(X)?? ?x?X(Ω)\E(X),P(X=x) =0 ??PX=E(X)=1 car? x?X(Ω)P(X=x) =1. ?Attention !L"événement certainΩest de probabilité 1 :P(Ω) =1, mais un événement peut être de probabilité 1
sans être égal àΩtout entier. Vous travaillerez en deuxième année avec des espaces probabilisés quelconques, éventuellement infinis. Intéressons-
nous au tirage aléatoire d"un pointMdans le disque?de?de centre 0 et de rayon 1. Intuitivement, et sous réserve
qu"on puisse donner un sens à tout cela, la probabilité de tirer un point dans une partie?de?vaut :
P(M? ?) =Aire(?)
Aire(?)=Aire(?)π.
En particulierP(M=0) =0, doncP(M?=0) =1. L"événementM?=0 N"estPAScertain car rien n"empêcheMde
valoir 0, mais il est proche deΩen ce sens qu"il est de probabilité 1, on dit qu"il est presquecertain. On dit ausi que
M?=0presque sûrement.
Autre exemple très différent. SoitA? ?(Ω)un événement pour lequelP(A)?]0,1[. En particulierA?=Ω, autrement
ditAn"est pas l"événement certain. PourtantPA(A) =1, doncAest presque certain au sens de la probabilitéPA.
Définition-théorème(Covariance de deux variables aléatoires réelles)SoientXetYdeux variables aléatoires
réelles surΩ. On appellecovariance de X et Yle réel cov(X,Y) =EX-E(X)Y-E(Y) On dit queXetYsontdécorréléessi cov(X,Y) =0. Clairement : V(X) =cov(X,X)et cov(Y,X) =cov(X,Y).
(i)Expression développée :cov(X,Y) =E(XY)-E(X)E(Y). (ii)Lien avec l"indépendance :SiXetYsont indépendantes,XetYsont décorrélées. (iii)Variance d"une somme :V(X+Y) =V(X)+2cov(X,Y)+V(Y). Plus généralement, pour des variables aléatoiresX1,...,XnsurΩ: V" n? i=1X i" =n i=1V(Xi) +2? 1?i D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi). Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ». ?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=1 3×23?=0.
4 Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =E XY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y). Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p). Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p). (ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X 1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale. 3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|. Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements, on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω: ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ. ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5 Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance des lancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500
n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons. Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2. Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X 1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ 2=σ2n,
doncσ!Sn n! =σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type. Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Il en existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 1 6? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait1 6même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 1 6à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29
Théorème(Formule de transfert)SoientXune variable aléatoire surΩetf:X(Ω)-→?une fonction. L"espérance
def(X)est entièrement déterminée parfet la loi deX: Ef(X)=? x?X(Ω)P(X=x)f(x). 2Christophe Bertault Mathématiques en MPSI
DémonstrationLes événementsX=x,xdécrivantX(Ω), forment un système complet d"événements, donc :
Ef(X)=?
ω?ΩPωfX(ω)=?
x?X(Ω)?ω?{X=x}PωfX(ω)=?
x?X(Ω)?ω?{X=x}Pωf(x) =?
x?X(Ω)P(X=x)f(x).On dispose bien sûr d"une version de la formule de transfert pour les couples. SiXetYsont deux variables aléatoires sur
Ωet sif:(X,Y)(Ω)-→?est une fonction, alors Ef(X,Y)=? (x,y)?(X,Y)(Ω)P(X=xetY=y)f(x,y).ExempleSoitXnune variable uniforme sur?1,n?. La variable aléatoireUn=Xnnest alors clairement uniforme sur!k
n??? k??1,n?!et pour toute fonctionf? ??[0,1],?, d"après la formule de transfert et le théorème sur les sommes
de Riemann : E f(Un)=n k=1P(Xn=k)f!k n! =1nn k=1f!kn! n→+∞? 1 0 f(x)dx.Théorème(Espérance du produit de deux variables aléatoires indépendantes)SoientXetYdeux variables
aléatoires complexes surΩ. SiXetYsontINDÉPENDANTES: E(XY) =E(X)E(Y).Ce résultat s"étend naturellement à un nombre fini quelconque de variables aléatoires indépendantes.
DémonstrationE(X)E(Y) =?
x?X(Ω)P(X=x)x×? y?Y(Ω)P(Y=y)y=? (x,y)?X(Ω)×Y(Ω)P(X=x)P(Y=y)x yIndép.
(x,y)?(X,Y)(Ω)P(X=xetY=y)x yTransfert=E(XY).?Attention !L"identité E(XY) =E(X)E(Y)est fausse en général. Par exemple, pour toute variable de RademacherX,
i.e. uniforme sur-1,1: E(X) =0 donc E(X)2=0, mais EX2=E(1) =1.2 VARIANCE,ÉCART-TYPE,COVARIANCE
Nous avons introduit l"espérance d"unevariable aléatoireCOMPLEXE,mais nous nous contenterons d"introduire la variance
d"une variable aléatoireRÉELLE.Définition(Moments, variance et écart-type d"une variable aléatoireréelle)SoitXune variable aléatoire réelle.
Moments :Pour toutk??, EXkest appelé lemoment d"ordre k de Xet EX-E(X)k sonmoment centré d"ordre k. Variance :Onappellevariance de Xle réel positifV(X) =EX-E(X)2 etécart-typede Xleréelσ(X) = V(X).On dit queXestréduitesi V(X) =1.
L"espérance deXest un indicateur de position, mais les valeurs deXsont-elles plutôt proches de cette valeur moyenne
ou plutôt éloignées? Toute mesure de cette proximité à la moyenne est appelée unindicateur de dispersion. L"écart le plus
naturel entreXet son espérance est??X-E(X)??, donc l"écart moyen deXà sa moyenne est E??X-E(X)??
, mais ce n"estpourtant pas l"indicateur de dispersion que les mathématiciens ont choisi de mettre en avant. Ils lui ont préféré la variance,
c"est-à-dire l"écartQUADRATIQUEmoyen à la moyenne quadratique parce qu"on passe au carré. Pourquoi ce choix moins
naturel au premier abord? Parce que la variance est plus facile à manipuler d"un point de vue calculatoire, comme on va le
voir. Vive les identités remarquables!Et l"écart-type, quelle différence avec la variance? Si parexempleXreprésente une longueur, V(X)représente une lon-
gueurAU CARRÉ, donc il n"est pas possible de comparer directement la position moyenne E(X)et sa dispersion moyenne
V(X) un physicien dirait que l"espérance et la variance ne sont pas homogènes. L"écart-type, au contraire, est homogène
à une longueur, donc comparable à l"espérance d"où son intérêt. 3Christophe Bertault Mathématiques en MPSI
Théorème(Propriétés de la variance)SoitXune variable aléatoire réelle surΩ. (i)Expression développée :V(X) =EX2-E(X)2. (ii)Effet d"une transformation affine :Pour tousa,b??: V(aX+b) =a2V(X). En particulier, siσ(X)>0, la variable aléatoireX-E(X)σ(X)est centrée réduite.
(iii)Nullité :V(X) =0 si et seulement si l"événementX=E(X)estpresque certain, i.e. de probabilité 1. On dit
alors queXestpresque sûrement constante.Démonstration
(i) V(X) =EX2-2Constante
E(X)X+Constante
E(X)2 =EX2-2E(X)E(X) +E(X)2=EX2-E(X)2. (ii) E(aX+b) =aE(X)+b, donc V(aX+b) =EaX+b-aE(X)-b2 =a2EX-E(X)2 =a2V(X).Enfin, siσ(X)>0 : E!X-E(X)
σ(X)!
=E(X)-E(X)σ(X)=0 et V!X-E(X)σ(X)! =V(X)σ(X)2=1. (iii) D"après la formule de transfert : V(X) =? x?X(Ω)P(X=x)x-E(X)2et les termes sommés sont tous positifs, donc : V(X) =0?? ?x?X(Ω),P(X=x) =0 oux=E(X)?? ?x?X(Ω)\E(X),P(X=x) =0 ??PX=E(X)=1 car? x?X(Ω)P(X=x) =1.?Attention !L"événement certainΩest de probabilité 1 :P(Ω) =1, mais un événement peut être de probabilité 1
sans être égal àΩtout entier. Vous travaillerez en deuxième année avec des espaces probabilisés quelconques, éventuellement infinis. Intéressons-
nous au tirage aléatoire d"un pointMdans le disque?de?de centre 0 et de rayon 1. Intuitivement, et sous réserve
qu"on puisse donner un sens à tout cela, la probabilité de tirer un point dans une partie?de?vaut :
P(M? ?) =Aire(?)
Aire(?)=Aire(?)π.
En particulierP(M=0) =0, doncP(M?=0) =1. L"événementM?=0N"estPAScertain car rien n"empêcheMde
valoir 0, mais il est proche deΩen ce sens qu"il est de probabilité 1, on dit qu"il est presquecertain. On dit ausi que
M?=0presque sûrement.
Autre exemple très différent. SoitA? ?(Ω)un événement pour lequelP(A)?]0,1[. En particulierA?=Ω, autrement
ditAn"est pas l"événement certain. PourtantPA(A) =1, doncAest presque certain au sens de la probabilitéPA.
Définition-théorème(Covariance de deux variables aléatoires réelles)SoientXetYdeux variables aléatoires
réelles surΩ. On appellecovariance de X et Yle réel cov(X,Y) =EX-E(X)Y-E(Y) On dit queXetYsontdécorréléessi cov(X,Y) =0.Clairement : V(X) =cov(X,X)et cov(Y,X) =cov(X,Y).
(i)Expression développée :cov(X,Y) =E(XY)-E(X)E(Y). (ii)Lien avec l"indépendance :SiXetYsont indépendantes,XetYsont décorrélées. (iii)Variance d"une somme :V(X+Y) =V(X)+2cov(X,Y)+V(Y). Plus généralement, pour des variables aléatoiresX1,...,XnsurΩ: V" n? i=1X i" =n i=1V(Xi) +2?1?i D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi). Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ». ?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=1 3×23?=0.
4 Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =E XY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y). Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p). Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p). (ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X 1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale. 3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|. Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements, on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω: ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ. ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5 Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance des lancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500
n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons. Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2. Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X 1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ 2=σ2n,
doncσ!Sn n! =σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type. Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Il en existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 1 6? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait1 6même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 1 6à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29
D"après (ii) et (iii), siXetYsont indépendantes (ou seulement décorrélées) : V(X+Y) =V(X)+V(Y). De même,
siX1,...,Xnsont indépendantes (ou seulement deux à deux décorrélées) :V" n? i=1X i" =n i=1V(Xi).Nous donnerons une interprétation géométrique à la covariance et à la corrélation de deux variables aléatoires au pro-
chain chapitre " Espaces préhilbertiens réels ».?Attention !Deux variables décorrélées ne sont pas indépendantes en général. Par exemple, pour toute variable aléa-
toireXuniforme sur-1,0,1: covX,X2=EX3-E(X)EX2=0-0×EX2=0, maisXetX2ne sont pas indépendantes carPX=0 etX2=1=0 alors queP(X=0)PX2=1=13×23?=0.
4Christophe Bertault Mathématiques en MPSI
Démonstration
(i) cov(X,Y) =EXY-XConstante
E(Y)-Constante
E(X)Y+Constante
E(X)E(Y)
=E(XY)-E(X)E(Y)-E(X)E(Y)+E(X)E(Y) =E(XY)-E(X)E(Y).(ii) V(X+Y) =EX-E(X)+Y-E(Y)2 =EX-E(X)2+2X-E(X)Y-E(Y)+Y-E(Y)2 =V(X)+2cov(X,Y)+V(Y).Théorème(Variance de la loi de Bernoulli et de la loi binomiale)SoientXune variable aléatoire etp?[0,1].
(i) SiX≂ ?(p), alors V(X) =p(1-p). (ii) SiX≂ ?(n,p), alors V(X) =np(1-p).Démonstration
(i) EX2=P(X=1)×12+P(X=0)×02=p, donc V(X) =EX2-E(X)2=p-p2=p(1-p).(ii) SoientX1,...,Xndes variables aléatoires indépendantes surΩde même loi de Bernoulli?(p). Comme
X1+...+Xn≂ ?(n,p), alors par indépendance V(X1+...+Xn) =V(X1)+...+V(Xn) =np(1-p). Ce calcul
ne concerne a priori pas la variable aléatoireXde l"énoncé, dont on ne sait pas si elle peut être décomposée
ou non comme une somme denvariables aléatoires indépendantes de loi?(p), mais l"espérance d"une
variable aléatoire ne dépend que de sa loi, donc le calcul quenous venons de faire dans le cas particulier
de la sommeX1+...+Xnest en fait emblématique de toute situation binomiale.3 UN PREMIER PAS VERS LES GRANDS NOMBRES
Première question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être grandes en valeur absolue?
Théorème(Inégalité de Markov)SoitXune variable aléatoire réelle. Pour touta>0 :P|X|?a?E|X|a.
Comme |X|>a?|X|?a, on peut remplacerP|X|?aparP|X|>asi on veut. DémonstrationTout repose sur les inégalités suivantes :?{|X|?a}a? ?{|X|?a}|X|?|X|. Aussitôt, par crois- sance de l"espérance :a P|X|?a=E ?{|X|?a}a?E|X|.Deuxième question :Jusqu"où les valeurs d"une variable aléatoire réelle peuvent-elles être éloignées de son espérance?
Théorème(Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire réelle. Pour touta>0 :
P ??X-E(X)???a ?V(X) a2. DémonstrationD"après l"inégalité de Markov :PX-E(X)2?a2 ?EX-E(X)2a2=V(X)a2et il nous suffit dès lors d"observer queX-E(X)2?a2 =??X-E(X)???a . Pour justifier cette égalité d"événements,on peut se contenter d"observer que par stricte croissance dex?-→x2sur?+:X-E(X)2?a2????X-E(X)???a,
mais quelques détails ne seront peut-être pas de trop. Pour toutω?Ω:ω?X-E(X)2?a2
N"oublions pas que tout événement est une partie deΩ.ExempleOn dispose d"une pièce éventuellement truquée dont la probabilité d"obtention de pile est notéep. Pour connaître
p, on lance cette piècenfois et on noteFla fréquence d"apparition de pile obtenue. On cherche une valeur denà partir de
laquelle la probabilité pour queFsoit une approximation depà 10-2près est supérieure à 0,9 i.e. à partir de laquelle
P |F-p|?10-2 ?0,9. 5Christophe Bertault Mathématiques en MPSI
DémonstrationEn notantNle nombre de piles obtenus :F=NnavecN≂ ?(n,p)par indépendance deslancers, donc E(N) =np, puis E(F) =p. Ce résultat nous incite à choisirFpour estimerp. D"après l"inégalité de
Bienaymé-Tchebychev :
P |F-p|?10-2 =P??N-E(N)???10-2n ?V(N) Or :P |F-p|<10-2 ?0,9??P |F-p|?10-2 ?0,1, donc il nous suffit de choisirnavec la condition 2500n?0,1 pour garantir queFsoit une approximation depà 10-2près. Conclusion : il faut quand même lancer 25000 fois la pièce! ou bien trouver une meilleure majoration deP |F-p|?10-2 , et il en existe, mais là nous débutons.
Le paragraphe qui suit est l"aboutissement ultime de nos pérégrinations probabilistes en MPSI. On s"intéresse à une
grandeur d"espérancemet d"écart-typeσ. On la mesure dans un premier temps à l"occasion d"une uniqueexpérience de
résultat notéX1. D"après l"inégalité de Bienaymé-Tchebychev, pour tout? >0 :P|X1-m|???σ2
?2. La mesureX1est donc à distance supérieure ou égale à?demavec probabilité au plusσ2 ?2.Si l"on souhaite estimerm, l"expérience nous enseigne qu"une seule mesure a peu de chances de nous donner un résultat
satisfaisant, nous obtiendrons une meilleure estimation demen augmentant le nombre de mesures. La théorie des proba-
bilités confirme-t-elle cette intuition? Quel résultat quantitatif pouvons-nous en tirer? Nous effectuons à présentnmesures
X1,...,Xnde la grandeur étudiée. Formellement,X1,...,Xnsont des variables aléatoires réelles définies sur un même es-
pace probabilisé fini,INDÉPENDANTESetDE MÊME LOI, d"espérancemet d"écart-typeσ. PosonsSn=n
k=1X k. Par linéarité de l"espérance : E !Sn n! =1nn k=1E(Xk) =1nn k=1m=met par indépendance : V!Snn! =1n2n k=1V(Xk) =1n2n k=1σ2=σ2n,
doncσ!Sn n!=σ?n. En résumé :La moyenne denvariables aléatoiresINDÉPENDANTESetDE MÊME LOI,d"espérance
met d"écart-typeσ, admet toujoursmpour espérance,MAISσ ?npour écart-type.Avecnmesures, nous avons ainsi gagné un facteur1?nen écart-type et1nen variance. Intuitivement, cela veut dire
que chaque nouvelle mesure nous rapproche de la certitude que la moyenne empiriqueSn nest proche de l"espérancem. Formellement, l"inégalité de Bienaymé-Tchebychev énoncecette fois que pour tout? >0 : P" ?S nn-m???? ?σ2n?2. En particulier, cette probabilité tend vers 0 par encadrement lorsquentend vers+∞, en accord avec notre intuition. Toutelimite dece genre est appelée uneloi des grands nombres. Ilen existe plusieurs, dont celle présentée ici qui est la plusfaible de toutes, mais qui est facile
à établir. Les lois des grands nombres sont fondamentales car elles justifient l"interprétationfréquentisteque nous avons des
probabilités. Qu"avons-nous en tête quand nous disons que la probabilité d"apparition de chaque face d"un dé équilibréà 6
faces vaut 16? Nous signifions par là une vérité sur le monde qui n"a rien à voir avec le fait que de tels dés existent et qu"on
peut les lancer un nombre indéfini de fois. Cette probabilitévaudrait16même si l"humanité s"interdisait rigoureusement
tout lancer de dé. Cela dit, le fait est que nous avons une autre notion de probabilité en tête simultanément, nous avons
aussi l"habitude de constater que lorsqu"on lance un dé de nombreuses fois, la fréquence d"apparition de chaque face tend
vers 16à mesure que ce nombre augmente. Les lois des grands nombres réconcilient les deux points de vue, la fréquence
d"un événement lorsqu"on répète indéfiniment une expérience aléatoire tend vers la probabilité a priori i.e. hors de toute
expérience de cet événement. 6quotesdbs_dbs23.pdfusesText_29[PDF] Le M1 MEEF 1er degré - Université d Orléans
[PDF] Le M1 MEEF 1er degré - Université d Orléans
[PDF] CAP Esthetique Cosmetique Parfumerie - Académie de Lyon
[PDF] Support de cours D 'électronique de puissance Les - ISETN
[PDF] Exercices et examens résolus - ENSA de Marrakech
[PDF] Electrochimie - Exercices - élèves -correction -2015
[PDF] Support de cours et TD d 'électronique de puissance - Elearn
[PDF] Exercices Math Sup et Math Spé - Exo7
[PDF] Théorie de la décision et théorie des jeux
[PDF] TD 6, Introduction aux distributions, version courte
[PDF] L 'eau et l 'assainissement - Mairie de Saint-Pierre
[PDF] Economie générale
[PDF] EL JOUHARI Exercices SMC5-M17-E2pdf - FSR
[PDF] Management stratégique