ainsi éventuellement que d'autres à venir, peut être trouvé au format PDF à Un grossiste reçoit des pelotes de laine provenant de deux usines di érentes
Previous PDF | Next PDF |
[PDF] Applications linéaires, matrices, déterminants - Licence de
Pascal Lainé 1 Applications linéaires, matrices, déterminants Exercice 1 Soit :ℝ 3 → ℝ2 définie pour tout = ( 1, 2, 3) ∈ ℝ3 par
[PDF] Espaces vectoriels - Licence de mathématiques Lyon 1
Pascal lainé 1 Espaces vectoriels Exercice 1 Soient dans ℝ 3 les vecteurs 1 = (1,1,0), 2 = (4,1,4) et 3 = (2,−1,4) La famille ( 1, 2, 3)
[PDF] Pascal Lainé Intégrales généralisées Suites et séries - Math-Eco
Pascal Lainé Intégrales généralisées Suites et séries numériques Suites et séries de fonctions Séries entières Exercices corrigés Licence STS
[PDF] Pascal Lainé Ensembles-Applications Exercice 1 - Licence de
Pascal Lainé 3 a Montrer que est injective ? b est-elle surjective ? Allez à : Correction exercice 11 : Exercice 12 : Pour un entier ∈ ℕ on désigne
[PDF] Polynômes et fractions rationnelles
Pascal Lainé 1 Polynômes et fractions rationnelles Exercice 1 Factoriser dans [ ] et dans [ ] le polynôme Allez à : Correction exercice 1 Exercice 2 Soit
[PDF] MATHÉMATIQUES - Numdam
Limaçon de Pascal, conchoïde du cercle p -s — Sa cosO EPHEUVK est le point de départ d'un intéressant article de M Lainé, qui paraîtra ici prochainement
[PDF] Lenseignement de lalgèbre linéaireau niveau universitaire - ARDM
Mac Lane (1941) et Bourbaki (1947), c'est une approche traditionnelle pour l' enseignement psud fr/~perrin/Debats-et-controverses/Divers/Dorier pdf 64 Pascal ii Si le calcul du système linéaire associée à l'équation précédente aboutit,
[PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et
ainsi éventuellement que d'autres à venir, peut être trouvé au format PDF à Un grossiste reçoit des pelotes de laine provenant de deux usines di érentes
[PDF] texte pascal
[PDF] justificatif de domicile pass navigo
[PDF] carte navigo renouvellement automatique
[PDF] renouvellement de passeport noisy le grand
[PDF] arbre binaire en c
[PDF] sommet arbre binaire
[PDF] arbre binaire java
[PDF] retour ? l'unité proportionnalité
[PDF] le timbre d'un son
[PDF] le passage ? l’acte criminel
[PDF] psychologie criminelle cours pdf
[PDF] passage ? l'acte psychologie
[PDF] cours de criminologie générale pdf
[PDF] livre criminologie pdf
Université Paris 13 - Institut Galilée Année universitaire 2013-2014
Cours Commun Scientique
de Probabilités & StatistiquesRésumé de cours Suivi des ches d'exercicesResponsable du cours : Laurent TournierCe document, ainsi éventuellement que d"autres à venir, peut être trouvé au format PDF à
l"adresse suivante : http www?m?th?un?v-p??? ??? ? ~tou?n??? ?n ??gn?m?nt1 Espaces de probabilités. Loi binomiale
1.1 Dénitions
DéfinitionUnespace de probabilité(
;P)est constitué de , un ensemble (l'ensemble des résultats d'une expérience aléatoire)P, une probabilité sur
Un élément!2
est appelé uneréalisation, c"est un résultat possible d"une expérience aléatoire.Un sous-ensembleA
est appelé unévénement. C"est un ensemble de réalisations (parexemple, celles qui vérifient une certaine condition). L"ensemble des événements est donc l"en-
sembleP( )des parties (ou sous-ensembles) deDéfinitionUneprobabilitésur
est une applicationP:P( )![0;1], dénie sur les événements, telle que 1.P( ) = 1 2. p ourtoute suite (An)nd'événements disjoints deux à deux,P[ nA n =X nP(An). Si un événementAvérieP(A) = 0, on dit queAestnégligeable; et siP(A) = 1, on dit queAestpresque sûr, ou queAa lieu presque sûrement, abrégé p.s. .Propriétés(i)P(;) = 0
(ii)P ourtout év énementA,P(Ac) = 1P(A)
(iii)Si AB, alorsP(A)P(B)
(iv) P ourtous év énementsAetB,P(A[B) =P(A) +P(B)P(A\B) (v) P ourtoute suite croissan te(An)nd'événements (c'est-à-direAnAn+1pour toutn), P nA n = lim" nP(An) (vi) P ourtoute s uitedécroissan te(An)nd'événements (c'est-à-direAn+1Anpour toutn), P nA n = lim# nP(An)Pour simplier, on suppose dans ce cours que tout ensemble de réalisations est un événement. En
réalité, ceci n'est plus possible dans le cas par exemple où = [0;1]est muni de la probabilité uniformecar on ne peut pas dénir l'intégrale sur n'importe quel ensemble mais seulement sur des ensembles
mesurables . En pratique, ceci n'est pas une limitation car tous les ensembles que l'on utilise sont
mesurables. Néanmoins, pour dénirrigoureusementla théorie des probabilités, on appellerait espace
de probabilités untriplet( ;A;P)oùAest l'ensemble des événements, qui doit être unetribusur c'est-à-dire un ensemble de parties de tel que a)2 A, b) siA2 AalorsAc2 A, et c) siAn2 A
pour toutn2?, alorsS nAn2 A; etPest uniquement dénie surA. Puis, sur?, on dénirait la tribu borélienne, qui est la plus petite tribu contenant les intervalles.11.2 Cas élémentaire : équiprobabilité
On suppose queCard
=n, avec =f!1;!2;:::;!ng.DéfinitionLaprobabilité uniformesur
(ou distribution équiprobable) est la probabilitéPdénie par : pour toutA=f!i1;!i2;:::;!ikgP(A) =kn
=CardACard Autrement dit,P(événement) =nombre de cas favorablesnombre de cas possiblesRappels de dénombrement :
PropositionSoitEun ensemble ni.
Une permutationdeEest une façon d'ordonner les éléments deE. Le nombre de permutations d'un ensemble ànéléments est n! = 123 (n2)(n1)n: Un arrangementdekéléments deEest une façon de choisir et d'ordonnerkéléments deE: c'est une suite dekéléments deEdistincts 2 à 2. Le nombre d'arrangements dekéléments parminéléments (où0kn) est A kn=n(n1)(nk+ 1) =n!(nk)!: Une combinaisondekéléments deEest une façon de choisirkéléments deE,sans spécier d'ordre: c'est un sous-ensemble deEàkéléments. Le nombre de combinaisons dekéléments parminéléments (où0kn) est n k =Ckn=n(n1)(nk+ 1)k!=n!k!(nk)!: On peut dire aussi qu"un arrangement correspond à un tirage dekéléments un par un (et sans remise) en mémorisant l"ordre de tirage, tandis qu"une combinaison correspond à un tirage de kéléments simultanément. Un arrangement denéléments parminest une permutation, doncAnn=n!. 21.3 Probabilités conditionnelles
DéfinitionSoitBun événement tel queP(B)>0. L'applicationP(jB) :P( )![0;1]dénie parP(AjB) =P(A\B)P(B)
est une probabilité sur P(AjB)est appelée laprobabilité conditionnelle deAsachantB.PropositionOn a
P(A\B) =P(AjB)P(B) =P(BjA)P(A):
DéfinitionUnsystème complet d'événementsest une partition(An)nde , c'est-à-dire une suite nie ou innie(An)nd'événements disjoints, dont la réunion est pour tousi6=j; Ai\Aj=;;et nA n:Par exemple, pour tout événementB, le couple(B;Bc)est un système complet d"événements.
Théorème (Théorème des probabilités totales)Soit(An)nun système complet d'événements. Pour tout événementA,
P(A) =X
nP(AjAn)P(An):En particulier, pour tous événementsAetB,
P(A) =P(AjB)P(B) +P(AjBc)P(Bc):
Théorème (Formule de Bayes)Soit(An)nun système complet d'événements. Pour tout événementA, et tout événementAi
du système,P(AijA) =P(AjAi)P(Ai)P
nP(AjAn)P(An):En particulier, pour tous événementsAetB,
P(BcjA) =P(AjBc)P(Bc)P(AjB)P(B) +P(AjBc)P(Bc):
31.4 Événements indépendants
DéfinitionDeux événementsAetBsontindépendantssiP(A\B) =P(A)P(B):
On a alorsP(AjB) =P(A)etP(BjA) =P(B)(siP(A)6= 0etP(B)6= 0). PropositionSi deux événementsAetBsont indépendants, alorsAcetBcle sont aussi.DéfinitionUne famille(Ai)id'événements est indépendante si pour toute sous-famille nie on a
P(Ai1\Ai2 \Aik) =P(Ai1)P(Ai2)P(Aik):
En particulier, des événementsA,BetCsont indépendants si P(A\B) =P(A)P(B); P(B\C) =P(B)P(C); P(A\C) =P(A)P(C) etP(A\B\C) =P(A)P(B)P(C):1.5 Comptage d'événements indépendants réalisés : loi binomiale
On considèrentirages à Pile-ou-Face avec la même pièce biaisée, qui tombe sur Pile avec
probabilitépet donc sur Face avec probabilité1p(oùp2]0;1[est fixé). En notant1pour Pile et0pour Face, chaque réalisation!se représente par une suite de0et de1de longueurn: par exemple,!= (1;0;1;1;:::)si le premier tirage est Pile, le deuxièmeFace, le troisième Pile, etc. Vu que les tirages sont indépendants, on a par exemple (ici,n= 4)
P(f(1;0;1;1)g) =p(1p)pp
et on voit qu"en général, si la séquence!comportekfois1(et doncnkfois0),P(f!g) =pk(1p)nk:
Soit0kn. On cherche la probabilité de l"événement A k=fExactementkpièces tombent sur Pileg: On vient de voir que, pour toute séquence!2Ak,P(f!g) =pk(1p)nk. Par ailleurs, le nombre de telles séquences estCardAk=n k. On en déduit queP(Ak) =n
k p k(1p)nk: En notantXle nombre de fois où Pile est apparu, on dira plus tard queXest une variable aléatoire qui suit laloi binomialeB(n;p).Plus généralement, on peut bien sûr appliquer ce qui précède pour évaluer le nombre d"événe-
ments réalisés parmi une suite denévénementsindépendantsB1;:::;Bnayant tousla même probabilitéP(Bi) =p: on poseAk=fkévénements exactement parmiB1;:::;Bnse réalisentg. Ci-dessus, on avaitBi=flei-ième tirage est Pileg. 42 Variables aléatoires. Généralités
Soit( ;P)un espace de probabilité. DéfinitionUnevariable aléatoireest une applicationX: DéfinitionSoitXune variable aléatoire. LaloideXest la probabilitéPXsur?dénie par : pour toutB?; PX(B) =P(f!2 jX(!)2Bg) =P(X2B): P Xpeut aussi être vue comme une probabilité surX( ), ensemble des valeurs prises parX, aussi appelésupportdePX. On note parfoisXPXpour indiquer queXsuit la loiPX.La seconde égalité est une nouvelle notation : on notefX2Bgl"événement formé des éven-
tualités!pour lesquellesX(!)2B, et on abrègeP(fX2Bg) =P(X2B).DéfinitionSiAest un événement, on introduit la variable aléatoirefonction indicatrice deA,
notée1A, qui indique si l'événementAest réalisé : pour tout!2 ;1A(!) =1si!2A0si! =2A:
2.1 Lois discrètes
Une variable aléatoireXest ditediscrètesi l"ensembleX( )des valeurs qu"elle prend estdénombrable(c"est-à-dire que l"on peut trouver une suite qui énumère tous les éléments de
X(!): c"est le cas notamment siX(
)est un ensemble fini,?,?ou?, mais pas l"intervalle[0;1] ni?). On dit aussi que laloideXest discrète. SiXest discrète, alors, pour toutB?, on peut calculer PX(B) =P(X2B) =X
x2B\X( )P(X=x) =X x2BP(X=x):Pour caractériser une loi discrète, il suffit donc de se donner lesprobabilités élémentaires
pX(x) =P(X=x)pour toutx2X(
Définition-PropositionSoitE?. Une famille(p(x))x2E2?Eest unefamille de probabilités élémentairessi
1. p ourtout x2E,p(x)0 2.X x2Ep(x) = 1. Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité( ;P)), à valeurs dansE, de probabilités élémentairespX=p, c'est-à-dire pour toutx2E; P(X=x) =p(x): 52.2 Lois continues
Une variable aléatoireXest ditecontinueouà densités"il existe une fonctionfX:?!? telle que, pour toutB?, PX(B) =P(X2B) =Z
B fX(x)dx:
La fonctionfX(unique) est appelée ladensitédeX. Définition-PropositionUne fonctionf:?!?est unefonction de densité de probabilitési 1. p ourtout x2?,f(x)0 2.Z f(x)dx= 1. Dans ce cas, il existe une variable aléatoireX(sur un espace de probabilité( ;P)) de densité f X=f. SiXa une densité alors, pour toutx2?,P(X=x) =Rx xfX(t)dtdoncP(X=x) = 0:
De plus, sifX(x) = 0pour toutx2B, alorsP(X2B) =R
BfX(x)dx= 0.
On en déduit queXest à valeurs dansfx2?jfX(x)>0g.2.3 Fonction de répartition
DéfinitionSoitXune variable aléatoire. Lafonction de répartition deXest la fonctionFX:?!? dénie par pour toutx2?; FX(x) =P(Xx):Propositiona)Soit Xune variable aléatoire. Sa fonction de répartitionFXest une fonction croissante,
lim x!1FX(x) = 0etlimx!+1FX(x) = 1: b) Si XetYsont deux variables aléatoires telles queFX(t) =FY(t)pour toutt2?, alorsXetYont même loi.
c) Si Xest une variable aléatoire discrète,FXest une fonction constante par morceaux, dont les sauts se situent aux points deX( ), et le saut enx2X( )a pour hauteurP(X=x).
d) Si Xest une variable aléatoire de densitéfX, on a pour toutx2?; FX(x) =Z x 1 fX(t)dt
et on a la dérivée(FX)0(x) =fX(x)(en tout pointxoùfXest continue). 62.4 Espérance d'une variable aléatoire
DéfinitionL'espéranced'une variable aléatoireX, notéeE[X], est la moyenne de ses valeurs, pondé-
rées par leurs probabilités.SiXest discrète,
E[X] =X
x2X( )xP(X=x):SiXest continue, de densitéf,
E[X] =Z
xf(x)dx:Attention.L'espérance n'est pas toujours dénie. Il faut pour cela que la série ou l'intégrale
ci-dessus converge absolument. Propriétés(i)Si Xest constante, égale àc2?(pour tout!2 ,X(!) =c), alorsE[X] =E[c] =c. (ii)P ourtout év énementA
,E[1A] =P(A). (iii) L'esp éranceest linéaire : p ourtoutes v ariablesaléatoires XetY, et tout réela,E[aX] =aE[X]etE[X+Y] =E[X] +E[Y]:
(iv) L 'espéranceest croissan te: si XYp.s., alorsE[X]E[Y]. PropositionSoitXune variable aléatoire, et':?!?une fonction.Si Xest discrète, alors
E['(X)] =X
x2X( )'(x)P(X=x):Si Xest continue, alors
E['(X)] =Z
'(x)fX(x)dx: (À condition que la série et l'intégrale soient bien dénies)2.5 Variance d'une variable aléatoire
DéfinitionSoitXune variable aléatoire. LavariancedeXest l'espérance des carrés des écarts deX
à sa moyenne :
Var(X) =EhXE[X]2i
0:L'écart typedeXest(X) =pVar(X).
Attention.La variance n'est pas toujours dénie. Il faut que l'espéranceE[X]soit dénie etque l'espérance ci-dessus converge. Ceci revient à demander à ce queE[X2]converge. NB. À la différence de la variance, l"écart type(X)esthomogèneàX: si par exempleXest une distance, alors(X)est une distance aussi. Ceci justifie l"intérêt de l"écart type. 7Propriétés
Pour toutes variables aléatoiresXetYet toute constantea,1.Var(X) =E[X2]E[X]2
2.Var(aX) =a2Var(X)
3.Var(X+a) = Var(X)
4.Var(X+Y) = Var(X) + 2Cov(X;Y) + Var(Y), où lacovarianceest dénie par
Cov(X;Y) =EhXE[X]YE[Y]i
=E[XY]E[X]E[Y]:PropositionPour toute variable aléatoireXpossédant une variance, la variable aléatoireY=XE[X](X)
est centrée (E[Y] = 0) et réduite (Var(Y) = 1). Plus généralement, pourr >0, on définit (s"il existe) lemoment d"ordrer: m r(X) =E[Xr]; et lemoment centré d"ordrer: r(X) =EhXE[X]ri Proposition (Inégalité de Markov)SoitXune variable aléatoire. Pour touta >0,P(jXj a)EjXja
Plus généralement, pour touta >0etr >0,
P(jXj a)EjXjra
r: Démonstration:On a toujoursjXjr0et, sijXj a, alorsjXjrar. D'oùar1fjXjag jXjr, ce qui donne, en prenant l'espérance de chaque membre :E[ar1fjXjag]E[jXjr]:
EtE[ar1fjXjag] =arP(jXj a), d'où résulte l'inégalité annoncée (r= 1donne la première).Proposition (Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire. Pour touta >0,
PXE[X]a
Var(X)a
2: Démonstration:Prendrer= 2et remplacerXparXE[X]dans l'inégalité de Markov.82.6 Indépendance de variables aléatoires
DéfinitionDes variables aléatoiresX1;:::;Xnsontindépendantessi, pour tousB1;:::;Bn?,P(X12B1;:::;Xn2Bn) =P(X12B1)P(Xn2Bn):
(où les virgules se lisent " et » :P(X12B1;:::;Xn2Bn) =P(fX12B1g\\fXn2Bng)) Par exemple, deux variables aléatoiresXetYsont indépendantes si les événements qui ne dépendent que deXsont indépendants des événements qui ne dépendent que deY.Proposition1.Si X1;:::;Xnsont indépendantes, alors les variables aléatoiresf1(X1);:::;fn(Xn)sont
indépendantes, quelles que soient les fonctionsf1;:::;fn.2.Indépendance par paquets.SiX1;:::;Xnsont indépendantes alors, par exemple,
les variables aléatoiresf1;2(X1;X2),f4(X4),f3;5;6(X3;X5;X6),...sont indépendantes : les fonctions de paquets disjoints de variables sont indépendantes. 3. Si des év énementsA1;:::;Ansont indépendants alors leurs fonctions indicatrices 1 A1;:::;1Ansont des variables aléatoires indépendantes; et réciproquement. PropositionSiX1;:::;Xnsont des variables aléatoires indépendantes, alors 1. si leurs esp érancesson tbien dén ies,E[X1Xn] =E[X1]E[Xn]
2. si leurs v ariancesson tbien dénies, alors on a Cov(Xi;Xj) = 0pour tousi6=j, d'oùVar(X1++Xn) = Var(X1) ++ Var(Xn):
NB. Les réciproques sont fausses!
Par le 1. de la proposition précédente on déduit, siX1;:::;Xnsont indépendantes,E[f1(X1)fn(Xn)] =E[f1(X1)]E[fn(Xn)]:
On rappelle queEest toujours linéaire : même siX1;:::;Xnne sont pas indépendantes,E[X1++Xn] =E[X1] ++E[Xn]:
2.7 Loi faible des grands nombres
ThéorèmeSoit(Xn)n1une suite de variables aléatoires indépendantes, et de même loi, d'espérancem
quotesdbs_dbs9.pdfusesText_15