Université Paris 13 — Institut Galilée Année universitaire 2013–2014 Cours Commun Scientifique de Probabilités Statistiques Suivi des fiches d' exercices Pour simplifier, on suppose dans ce cours que tout ensemble de réalisations
Previous PDF | Next PDF |
[PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et
Université Paris 13 — Institut Galilée Année universitaire 2013–2014 Cours Commun Scientifique de Probabilités Statistiques Suivi des fiches d' exercices Pour simplifier, on suppose dans ce cours que tout ensemble de réalisations
[PDF] Probabilités & Statistiques
Université Paris 13 Institut Galilée Probabilités Statistiques Ce document, ainsi que d'autres documents liés au cours, peut être trouvé au Exercice 1
[PDF] Exercices et problèmes de statistique et probabilités - Dunod
nieurs, de commerce et de gestion ou d'Institut Universitaires de Technologie Cet ouvrage comporte des rappels de cours sans démonstrations, des exercices centrale), Lois de probabilités fréquemment utilisées en statistique (Loi
[PDF] PROBABILITES et STATISTIQUES Cours et exercices
probabilité recompose-t-il ce mot ? Même question s'il a pris les 8 jetons qui composaient le mot "INSTITUT" Exercice 1-4 : 20 sujets sont au programme d'un
[PDF] M0SE2014 Probabilités et Statistiques - Institut de Mathématiques
Exercices de révision Savoir absolument utiliser les fonctions statistiques de la probabilité que la montre provienne d'un lot produit au cours des trois premiers
[PDF] Année spéciale - Exercices - Institut de Mathématiques de Toulouse
Exercice 8 Dans un atelier, le nombre d'accidents au cours d'une année est une v a qui suit une loi de Poisson de param`etre 5 Calculer la probabilité des
[PDF] Cours de Statistiques niveau L1-L2 - Archive ouverte HAL
7 mai 2018 · vous réconcilier avec les probabilités et les statistiques Exercice : quelle(s) critique(s) formuleriez-vous à l'égard de ces statistiques ? Une élection oppose deux candidats A et B Un institut de sondage interroge
[PDF] Cours, exemples, exercices et problèmes corrigés L L - Numilog
Mathématiques Licence 1 – Exercices et méthodes, Dunod, 2016 Mathématiques L1/L2 : Statistique et Probabilités en 30 fiches, Dunod, 2009 Institut de biologie du Développement de Marseille, CNRS et Université Aix- Marseille
[PDF] Statistique et probabilités au lycée
Nous remercions également l'Institut de Recherche en Mathématiques de Rennes 2 3 1 Analyse de quelques exercices de baccalauréat ou thèmes dont la plupart peuvent servir de base à des cours proposés aux élèves (elles de probabilités et de statistique, tant du point de vue de la théorie que du point de vue de
[PDF] Cours dIntroduction au Calcul des Probabilités
Issu du cours de Probabilités en DEUG MASS et MIAS, ce document s'adresse à un Ces exercices ne se substituent pas aux séances de TD et à leurs fiches d' exercices mieux adaptées à La statistique permet de confronter les modèles Un enquêteur d'un institut de sondage dispose d'une liste de n personnes à
[PDF] SA option problèmes économiques et sociaux - Université de
[PDF] procedure civile second semestre - FACULTE DE DROIT
[PDF] plan general procedure civile annee 2016 2017 - UFR droit
[PDF] faculte de droit juillet 2017 iej plan du cours de procedure civile
[PDF] le code de procedure civile, commerciale et - Green Countries
[PDF] Code de procédure civile
[PDF] la production audiovisuelle aidée - CNC
[PDF] LA PROGRAMMATION POUR les élèves ingénieurs débutants
[PDF] PROPAGATION des ONDES ELECTROMAGNETIQUES
[PDF] Exploration minière - Mineralinfo
[PDF] Les provisions- Comptabilité- 2 Bac Sciences Economiques - 9alami
[PDF] College des enseignants de psychiatrieECN-referentiel - AESP
[PDF] Psychologie du développement : de la naissance ? - Psychaanalyse
[PDF] Cours de psychologie Tome 1 - les bases - Dunod
Université Paris 13 - Institut Galilée Année universitaire 2013-2014
Cours Commun Scientique
de Probabilités & StatistiquesRésumé de cours Suivi des ches d'exercicesResponsable du cours : Laurent TournierCe document, ainsi éventuellement que d"autres à venir, peut être trouvé au format PDF à
l"adresse suivante : http www?m?th?un?v-p??? ??? ? ~tou?n??? ?n ??gn?m?nt1 Espaces de probabilités. Loi binomiale
1.1 Dénitions
DéfinitionUnespace de probabilité(
;P)est constitué de , un ensemble (l'ensemble des résultats d'une expérience aléatoire)P, une probabilité sur
Un élément!2
est appelé uneréalisation, c"est un résultat possible d"une expérience aléatoire.Un sous-ensembleA
est appelé unévénement. C"est un ensemble de réalisations (parexemple, celles qui vérifient une certaine condition). L"ensemble des événements est donc l"en-
sembleP( )des parties (ou sous-ensembles) deDéfinitionUneprobabilitésur
est une applicationP:P( )![0;1], dénie sur les événements, telle que 1.P( ) = 1 2. p ourtoute suite (An)nd'événements disjoints deux à deux,P[ nA n =X nP(An). Si un événementAvérieP(A) = 0, on dit queAestnégligeable; et siP(A) = 1, on dit queAestpresque sûr, ou queAa lieu presque sûrement, abrégé p.s. .Propriétés(i)P(;) = 0
(ii)P ourtout év énementA,P(Ac) = 1P(A)
(iii)Si AB, alorsP(A)P(B)
(iv) P ourtous év énementsAetB,P(A[B) =P(A) +P(B)P(A\B) (v) P ourtoute suite croissan te(An)nd'événements (c'est-à-direAnAn+1pour toutn), P nA n = lim" nP(An) (vi) P ourtoute s uitedécroissan te(An)nd'événements (c'est-à-direAn+1Anpour toutn), P nA n = lim# nP(An)Pour simplier, on suppose dans ce cours que tout ensemble de réalisations est un événement. En
réalité, ceci n'est plus possible dans le cas par exemple où = [0;1]est muni de la probabilité uniformecar on ne peut pas dénir l'intégrale sur n'importe quel ensemble mais seulement sur des ensembles
mesurables . En pratique, ceci n'est pas une limitation car tous les ensembles que l'on utilise sont
mesurables. Néanmoins, pour dénirrigoureusementla théorie des probabilités, on appellerait espace
de probabilités untriplet( ;A;P)oùAest l'ensemble des événements, qui doit être unetribusur c'est-à-dire un ensemble de parties de tel que a)2 A, b) siA2 AalorsAc2 A, et c) siAn2 A
pour toutn2?, alorsS nAn2 A; etPest uniquement dénie surA. Puis, sur?, on dénirait la tribu borélienne, qui est la plus petite tribu contenant les intervalles.11.2 Cas élémentaire : équiprobabilité
On suppose queCard
=n, avec =f!1;!2;:::;!ng.DéfinitionLaprobabilité uniformesur
(ou distribution équiprobable) est la probabilitéPdénie par : pour toutA=f!i1;!i2;:::;!ikgP(A) =kn
=CardACard Autrement dit,P(événement) =nombre de cas favorablesnombre de cas possiblesRappels de dénombrement :
PropositionSoitEun ensemble ni.
Une permutationdeEest une façon d'ordonner les éléments deE. Le nombre de permutations d'un ensemble ànéléments est n! = 123 (n2)(n1)n: Un arrangementdekéléments deEest une façon de choisir et d'ordonnerkéléments deE: c'est une suite dekéléments deEdistincts 2 à 2. Le nombre d'arrangements dekéléments parminéléments (où0kn) est A kn=n(n1)(nk+ 1) =n!(nk)!: Une combinaisondekéléments deEest une façon de choisirkéléments deE,sans spécier d'ordre: c'est un sous-ensemble deEàkéléments. Le nombre de combinaisons dekéléments parminéléments (où0kn) est n k =Ckn=n(n1)(nk+ 1)k!=n!k!(nk)!: On peut dire aussi qu"un arrangement correspond à un tirage dekéléments un par un (et sans remise) en mémorisant l"ordre de tirage, tandis qu"une combinaison correspond à un tirage de kéléments simultanément. Un arrangement denéléments parminest une permutation, doncAnn=n!. 21.3 Probabilités conditionnelles
DéfinitionSoitBun événement tel queP(B)>0. L'applicationP(jB) :P( )![0;1]dénie parP(AjB) =P(A\B)P(B)
est une probabilité sur P(AjB)est appelée laprobabilité conditionnelle deAsachantB.PropositionOn a
P(A\B) =P(AjB)P(B) =P(BjA)P(A):
DéfinitionUnsystème complet d'événementsest une partition(An)nde , c'est-à-dire une suite nie ou innie(An)nd'événements disjoints, dont la réunion est pour tousi6=j; Ai\Aj=;;et nA n:Par exemple, pour tout événementB, le couple(B;Bc)est un système complet d"événements.
Théorème (Théorème des probabilités totales)Soit(An)nun système complet d'événements. Pour tout événementA,
P(A) =X
nP(AjAn)P(An):En particulier, pour tous événementsAetB,
P(A) =P(AjB)P(B) +P(AjBc)P(Bc):
Théorème (Formule de Bayes)Soit(An)nun système complet d'événements. Pour tout événementA, et tout événementAi
du système,P(AijA) =P(AjAi)P(Ai)P
nP(AjAn)P(An):En particulier, pour tous événementsAetB,
P(BcjA) =P(AjBc)P(Bc)P(AjB)P(B) +P(AjBc)P(Bc):
31.4 Événements indépendants
DéfinitionDeux événementsAetBsontindépendantssiP(A\B) =P(A)P(B):
On a alorsP(AjB) =P(A)etP(BjA) =P(B)(siP(A)6= 0etP(B)6= 0). PropositionSi deux événementsAetBsont indépendants, alorsAcetBcle sont aussi.DéfinitionUne famille(Ai)id'événements est indépendante si pour toute sous-famille nie on a
P(Ai1\Ai2 \Aik) =P(Ai1)P(Ai2)P(Aik):
En particulier, des événementsA,BetCsont indépendants si P(A\B) =P(A)P(B); P(B\C) =P(B)P(C); P(A\C) =P(A)P(C) etP(A\B\C) =P(A)P(B)P(C):1.5 Comptage d'événements indépendants réalisés : loi binomiale
On considèrentirages à Pile-ou-Face avec la même pièce biaisée, qui tombe sur Pile avec
probabilitépet donc sur Face avec probabilité1p(oùp2]0;1[est fixé). En notant1pour Pile et0pour Face, chaque réalisation!se représente par une suite de0et de1de longueurn: par exemple,!= (1;0;1;1;:::)si le premier tirage est Pile, le deuxièmeFace, le troisième Pile, etc. Vu que les tirages sont indépendants, on a par exemple (ici,n= 4)
P(f(1;0;1;1)g) =p(1p)pp
et on voit qu"en général, si la séquence!comportekfois1(et doncnkfois0),P(f!g) =pk(1p)nk:
Soit0kn. On cherche la probabilité de l"événement A k=fExactementkpièces tombent sur Pileg: On vient de voir que, pour toute séquence!2Ak,P(f!g) =pk(1p)nk. Par ailleurs, le nombre de telles séquences estCardAk=n k. On en déduit queP(Ak) =n
k p k(1p)nk: En notantXle nombre de fois où Pile est apparu, on dira plus tard queXest une variable aléatoire qui suit laloi binomialeB(n;p).Plus généralement, on peut bien sûr appliquer ce qui précède pour évaluer le nombre d"événe-
ments réalisés parmi une suite denévénementsindépendantsB1;:::;Bnayant tousla même probabilitéP(Bi) =p: on poseAk=fkévénements exactement parmiB1;:::;Bnse réalisentg. Ci-dessus, on avaitBi=flei-ième tirage est Pileg. 42 Variables aléatoires. Généralités
Soit( ;P)un espace de probabilité. DéfinitionUnevariable aléatoireest une applicationX: DéfinitionSoitXune variable aléatoire. LaloideXest la probabilitéPXsur?dénie par : pour toutB?; PX(B) =P(f!2 jX(!)2Bg) =P(X2B): P Xpeut aussi être vue comme une probabilité surX( ), ensemble des valeurs prises parX, aussi appelésupportdePX. On note parfoisXPXpour indiquer queXsuit la loiPX.La seconde égalité est une nouvelle notation : on notefX2Bgl"événement formé des éven-
tualités!pour lesquellesX(!)2B, et on abrègeP(fX2Bg) =P(X2B).DéfinitionSiAest un événement, on introduit la variable aléatoirefonction indicatrice deA,
notée1A, qui indique si l'événementAest réalisé : pour tout!2 ;1A(!) =1si!2A0si! =2A:
2.1 Lois discrètes
Une variable aléatoireXest ditediscrètesi l"ensembleX( )des valeurs qu"elle prend estdénombrable(c"est-à-dire que l"on peut trouver une suite qui énumère tous les éléments de
X(!): c"est le cas notamment siX(
)est un ensemble fini,?,?ou?, mais pas l"intervalle[0;1] ni?). On dit aussi que laloideXest discrète. SiXest discrète, alors, pour toutB?, on peut calculer PX(B) =P(X2B) =X
x2B\X( )P(X=x) =X x2BP(X=x):Pour caractériser une loi discrète, il suffit donc de se donner lesprobabilités élémentaires
pX(x) =P(X=x)pour toutx2X(
Définition-PropositionSoitE?. Une famille(p(x))x2E2?Eest unefamille de probabilités élémentairessi
1. p ourtout x2E,p(x)0 2.X x2Ep(x) = 1. Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité( ;P)), à valeurs dansE, de probabilités élémentairespX=p, c'est-à-dire pour toutx2E; P(X=x) =p(x): 52.2 Lois continues
Une variable aléatoireXest ditecontinueouà densités"il existe une fonctionfX:?!? telle que, pour toutB?, PX(B) =P(X2B) =Z
B fX(x)dx:
La fonctionfX(unique) est appelée ladensitédeX. Définition-PropositionUne fonctionf:?!?est unefonction de densité de probabilitési 1. p ourtout x2?,f(x)0 2.Z f(x)dx= 1. Dans ce cas, il existe une variable aléatoireX(sur un espace de probabilité( ;P)) de densité f X=f. SiXa une densité alors, pour toutx2?,P(X=x) =Rx xfX(t)dtdoncP(X=x) = 0:
De plus, sifX(x) = 0pour toutx2B, alorsP(X2B) =R
BfX(x)dx= 0.
On en déduit queXest à valeurs dansfx2?jfX(x)>0g.2.3 Fonction de répartition
DéfinitionSoitXune variable aléatoire. Lafonction de répartition deXest la fonctionFX:?!? dénie par pour toutx2?; FX(x) =P(Xx):Propositiona)Soit Xune variable aléatoire. Sa fonction de répartitionFXest une fonction croissante,
lim x!1FX(x) = 0etlimx!+1FX(x) = 1: b) Si XetYsont deux variables aléatoires telles queFX(t) =FY(t)pour toutt2?, alorsXetYont même loi.
c) Si Xest une variable aléatoire discrète,FXest une fonction constante par morceaux, dont les sauts se situent aux points deX( ), et le saut enx2X( )a pour hauteurP(X=x).
d) Si Xest une variable aléatoire de densitéfX, on a pour toutx2?; FX(x) =Z x 1 fX(t)dt
et on a la dérivée(FX)0(x) =fX(x)(en tout pointxoùfXest continue). 62.4 Espérance d'une variable aléatoire
DéfinitionL'espéranced'une variable aléatoireX, notéeE[X], est la moyenne de ses valeurs, pondé-
rées par leurs probabilités.SiXest discrète,
E[X] =X
x2X( )xP(X=x):SiXest continue, de densitéf,
E[X] =Z
xf(x)dx:Attention.L'espérance n'est pas toujours dénie. Il faut pour cela que la série ou l'intégrale
ci-dessus converge absolument. Propriétés(i)Si Xest constante, égale àc2?(pour tout!2 ,X(!) =c), alorsE[X] =E[c] =c. (ii)P ourtout év énementA
,E[1A] =P(A). (iii) L'esp éranceest linéaire : p ourtoutes v ariablesaléatoires XetY, et tout réela,E[aX] =aE[X]etE[X+Y] =E[X] +E[Y]:
(iv) L 'espéranceest croissan te: si XYp.s., alorsE[X]E[Y]. PropositionSoitXune variable aléatoire, et':?!?une fonction.Si Xest discrète, alors
E['(X)] =X
x2X( )'(x)P(X=x):Si Xest continue, alors
E['(X)] =Z
'(x)fX(x)dx: (À condition que la série et l'intégrale soient bien dénies)2.5 Variance d'une variable aléatoire
DéfinitionSoitXune variable aléatoire. LavariancedeXest l'espérance des carrés des écarts deX
à sa moyenne :
Var(X) =EhXE[X]2i
0:L'écart typedeXest(X) =pVar(X).
Attention.La variance n'est pas toujours dénie. Il faut que l'espéranceE[X]soit dénie etque l'espérance ci-dessus converge. Ceci revient à demander à ce queE[X2]converge. NB. À la différence de la variance, l"écart type(X)esthomogèneàX: si par exempleXest une distance, alors(X)est une distance aussi. Ceci justifie l"intérêt de l"écart type. 7Propriétés
Pour toutes variables aléatoiresXetYet toute constantea,1.Var(X) =E[X2]E[X]2
2.Var(aX) =a2Var(X)
3.Var(X+a) = Var(X)
4.Var(X+Y) = Var(X) + 2Cov(X;Y) + Var(Y), où lacovarianceest dénie par
Cov(X;Y) =EhXE[X]YE[Y]i
=E[XY]E[X]E[Y]:PropositionPour toute variable aléatoireXpossédant une variance, la variable aléatoireY=XE[X](X)
est centrée (E[Y] = 0) et réduite (Var(Y) = 1). Plus généralement, pourr >0, on définit (s"il existe) lemoment d"ordrer: m r(X) =E[Xr]; et lemoment centré d"ordrer: r(X) =EhXE[X]ri Proposition (Inégalité de Markov)SoitXune variable aléatoire. Pour touta >0,P(jXj a)EjXja
Plus généralement, pour touta >0etr >0,
P(jXj a)EjXjra
r: Démonstration:On a toujoursjXjr0et, sijXj a, alorsjXjrar. D'oùar1fjXjag jXjr, ce qui donne, en prenant l'espérance de chaque membre :E[ar1fjXjag]E[jXjr]:
EtE[ar1fjXjag] =arP(jXj a), d'où résulte l'inégalité annoncée (r= 1donne la première).Proposition (Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire. Pour touta >0,
PXE[X]a
Var(X)a
2: Démonstration:Prendrer= 2et remplacerXparXE[X]dans l'inégalité de Markov.82.6 Indépendance de variables aléatoires
DéfinitionDes variables aléatoiresX1;:::;Xnsontindépendantessi, pour tousB1;:::;Bn?,P(X12B1;:::;Xn2Bn) =P(X12B1)P(Xn2Bn):
(où les virgules se lisent " et » :P(X12B1;:::;Xn2Bn) =P(fX12B1g\\fXn2Bng)) Par exemple, deux variables aléatoiresXetYsont indépendantes si les événements qui ne dépendent que deXsont indépendants des événements qui ne dépendent que deY.Proposition1.Si X1;:::;Xnsont indépendantes, alors les variables aléatoiresf1(X1);:::;fn(Xn)sont
indépendantes, quelles que soient les fonctionsf1;:::;fn.2.Indépendance par paquets.SiX1;:::;Xnsont indépendantes alors, par exemple,
les variables aléatoiresf1;2(X1;X2),f4(X4),f3;5;6(X3;X5;X6),...sont indépendantes : les fonctions de paquets disjoints de variables sont indépendantes. 3. Si des év énementsA1;:::;Ansont indépendants alors leurs fonctions indicatrices 1 A1;:::;1Ansont des variables aléatoires indépendantes; et réciproquement. PropositionSiX1;:::;Xnsont des variables aléatoires indépendantes, alors 1. si leurs esp érancesson tbien dén ies,E[X1Xn] =E[X1]E[Xn]
2. si leurs v ariancesson tbien dénies, alors on a Cov(Xi;Xj) = 0pour tousi6=j, d'oùVar(X1++Xn) = Var(X1) ++ Var(Xn):
NB. Les réciproques sont fausses!
Par le 1. de la proposition précédente on déduit, siX1;:::;Xnsont indépendantes,E[f1(X1)fn(Xn)] =E[f1(X1)]E[fn(Xn)]:
On rappelle queEest toujours linéaire : même siX1;:::;Xnne sont pas indépendantes,E[X1++Xn] =E[X1] ++E[Xn]:
2.7 Loi faible des grands nombres
ThéorèmeSoit(Xn)n1une suite de variables aléatoires indépendantes, et de même loi, d'espérancem
et de variance2. On dénit la variable aléatoiresX n, appeléemoyenne empirique, parX n=X1++XnnOn a :
pour tout" >0; PX nm< " !n!11: 9 Démonstration:Par linéarité de l'espérance,E[X n] =1n (E[X1]++E[Xn]) =m, et les variables sont indépendantes donc Var X n=1n 2n X i=1Var(Xi) =2nL'inégalité de Bienaymé-Tchebychev pourX
ns'écrit donc, pour tout" >0, P X nm" 2n" 2; ce qui donne, en passant au complémentaire, P X nm< " 12n" 2: Comme le terme de droite converge vers1quandn! 1, et que le terme de gauche est1, on obtientl'énoncé.NB. Si(An)n1est une suite d"événementsindépendantset qui ontmême probabilitép(par
exemple, dans une suite de tirages à Pile-ou-Face,An=flen-ième tirage est Pileg, etp=12 alors en posantXi=1Ai, on aX n=1A1++1Ann =nombre d"événements réalisés parmiA1;:::;Ann doncX nest lafréquence de réalisationdes événementsA1;:::;An, et la loi des grands nombres montre que, sinest grand, cette fréquence a de grandes chances d"être proche deE[X1] =p, qui est la probabilité commune des événementsAn. Ainsi, la fréquence d"apparition
de Pile dans une suite de tirages à Pile-ou-Face indépendants converge vers 12 . Ou, si la pièce est biaisée, vers la probabilité d"obtenir Pile à un tirage. 10