[PDF] [PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et

Université Paris 13 — Institut Galilée Année universitaire 2013–2014 Cours Commun Scientifique de Probabilités Statistiques Suivi des fiches d' exercices Pour simplifier, on suppose dans ce cours que tout ensemble de réalisations 



Previous PDF Next PDF





[PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et

Université Paris 13 — Institut Galilée Année universitaire 2013–2014 Cours Commun Scientifique de Probabilités Statistiques Suivi des fiches d' exercices Pour simplifier, on suppose dans ce cours que tout ensemble de réalisations 



[PDF] Probabilités & Statistiques

Université Paris 13 Institut Galilée Probabilités Statistiques Ce document, ainsi que d'autres documents liés au cours, peut être trouvé au Exercice 1



[PDF] Exercices et problèmes de statistique et probabilités - Dunod

nieurs, de commerce et de gestion ou d'Institut Universitaires de Technologie Cet ouvrage comporte des rappels de cours sans démonstrations, des exercices centrale), Lois de probabilités fréquemment utilisées en statistique (Loi 



[PDF] PROBABILITES et STATISTIQUES Cours et exercices

probabilité recompose-t-il ce mot ? Même question s'il a pris les 8 jetons qui composaient le mot "INSTITUT" Exercice 1-4 : 20 sujets sont au programme d'un  



[PDF] M0SE2014 Probabilités et Statistiques - Institut de Mathématiques

Exercices de révision Savoir absolument utiliser les fonctions statistiques de la probabilité que la montre provienne d'un lot produit au cours des trois premiers 



[PDF] Année spéciale - Exercices - Institut de Mathématiques de Toulouse

Exercice 8 Dans un atelier, le nombre d'accidents au cours d'une année est une v a qui suit une loi de Poisson de param`etre 5 Calculer la probabilité des 



[PDF] Cours de Statistiques niveau L1-L2 - Archive ouverte HAL

7 mai 2018 · vous réconcilier avec les probabilités et les statistiques Exercice : quelle(s) critique(s) formuleriez-vous à l'égard de ces statistiques ? Une élection oppose deux candidats A et B Un institut de sondage interroge



[PDF] Cours, exemples, exercices et problèmes corrigés L L - Numilog

Mathématiques Licence 1 – Exercices et méthodes, Dunod, 2016 Mathématiques L1/L2 : Statistique et Probabilités en 30 fiches, Dunod, 2009 Institut de biologie du Développement de Marseille, CNRS et Université Aix- Marseille



[PDF] Statistique et probabilités au lycée

Nous remercions également l'Institut de Recherche en Mathématiques de Rennes 2 3 1 Analyse de quelques exercices de baccalauréat ou thèmes dont la plupart peuvent servir de base à des cours proposés aux élèves (elles de probabilités et de statistique, tant du point de vue de la théorie que du point de vue de 



[PDF] Cours dIntroduction au Calcul des Probabilités

Issu du cours de Probabilités en DEUG MASS et MIAS, ce document s'adresse à un Ces exercices ne se substituent pas aux séances de TD et à leurs fiches d' exercices mieux adaptées à La statistique permet de confronter les modèles Un enquêteur d'un institut de sondage dispose d'une liste de n personnes à

[PDF] Cours Probabilités L2 Université Nice Sophia-Antipolis François

[PDF] SA option problèmes économiques et sociaux - Université de

[PDF] procedure civile second semestre - FACULTE DE DROIT

[PDF] plan general procedure civile annee 2016 2017 - UFR droit

[PDF] faculte de droit juillet 2017 iej plan du cours de procedure civile

[PDF] le code de procedure civile, commerciale et - Green Countries

[PDF] Code de procédure civile

[PDF] la production audiovisuelle aidée - CNC

[PDF] LA PROGRAMMATION POUR les élèves ingénieurs débutants

[PDF] PROPAGATION des ONDES ELECTROMAGNETIQUES

[PDF] Exploration minière - Mineralinfo

[PDF] Les provisions- Comptabilité- 2 Bac Sciences Economiques - 9alami

[PDF] College des enseignants de psychiatrieECN-referentiel - AESP

[PDF] Psychologie du développement : de la naissance ? - Psychaanalyse

[PDF] Cours de psychologie Tome 1 - les bases - Dunod

Université Paris 13 - Institut Galilée Année universitaire 2013-2014

Cours Commun Scientique

de Probabilités & StatistiquesRésumé de cours Suivi des ches d'exercicesResponsable du cours : Laurent Tournier

Ce document, ainsi éventuellement que d"autres à venir, peut être trouvé au format PDF à

l"adresse suivante : http www?m?th?un?v-p??? ??? ? ~tou?n??? ?n ??gn?m?nt

1 Espaces de probabilités. Loi binomiale

1.1 Dénitions

DéfinitionUnespace de probabilité(

;P)est constitué de , un ensemble (l'ensemble des résultats d'une expérience aléatoire)

P, une probabilité sur

Un élément!2

est appelé uneréalisation, c"est un résultat possible d"une expérience aléatoire.

Un sous-ensembleA

est appelé unévénement. C"est un ensemble de réalisations (par

exemple, celles qui vérifient une certaine condition). L"ensemble des événements est donc l"en-

sembleP( )des parties (ou sous-ensembles) de

DéfinitionUneprobabilitésur

est une applicationP:P( )![0;1], dénie sur les événements, telle que 1.P( ) = 1 2. p ourtoute suite (An)nd'événements disjoints deux à deux,P[ nA n =X nP(An). Si un événementAvérieP(A) = 0, on dit queAestnégligeable; et siP(A) = 1, on dit queAestpresque sûr, ou queAa lieu presque sûrement, abrégé p.s. .

Propriétés(i)P(;) = 0

(ii)

P ourtout év énementA,P(Ac) = 1P(A)

(iii)

Si AB, alorsP(A)P(B)

(iv) P ourtous év énementsAetB,P(A[B) =P(A) +P(B)P(A\B) (v) P ourtoute suite croissan te(An)nd'événements (c'est-à-direAnAn+1pour toutn), P nA n = lim" nP(An) (vi) P ourtoute s uitedécroissan te(An)nd'événements (c'est-à-direAn+1Anpour toutn), P nA n = lim# nP(An)

Pour simplier, on suppose dans ce cours que tout ensemble de réalisations est un événement. En

réalité, ceci n'est plus possible dans le cas par exemple où = [0;1]est muni de la probabilité uniforme

car on ne peut pas dénir l'intégrale sur n'importe quel ensemble mais seulement sur des ensembles

mesurables . En pratique, ceci n'est pas une limitation car tous les ensembles que l'on utilise sont

mesurables. Néanmoins, pour dénirrigoureusementla théorie des probabilités, on appellerait espace

de probabilités untriplet( ;A;P)oùAest l'ensemble des événements, qui doit être unetribusur c'est-à-dire un ensemble de parties de tel que a)

2 A, b) siA2 AalorsAc2 A, et c) siAn2 A

pour toutn2?, alorsS nAn2 A; etPest uniquement dénie surA. Puis, sur?, on dénirait la tribu borélienne, qui est la plus petite tribu contenant les intervalles.1

1.2 Cas élémentaire : équiprobabilité

On suppose queCard

=n, avec =f!1;!2;:::;!ng.

DéfinitionLaprobabilité uniformesur

(ou distribution équiprobable) est la probabilitéPdénie par : pour toutA=f!i1;!i2;:::;!ikg

P(A) =kn

=CardACard Autrement dit,P(événement) =nombre de cas favorablesnombre de cas possibles

Rappels de dénombrement :

PropositionSoitEun ensemble ni.

Une permutationdeEest une façon d'ordonner les éléments deE. Le nombre de permutations d'un ensemble ànéléments est n! = 123 (n2)(n1)n: Un arrangementdekéléments deEest une façon de choisir et d'ordonnerkéléments deE: c'est une suite dekéléments deEdistincts 2 à 2. Le nombre d'arrangements dekéléments parminéléments (où0kn) est A kn=n(n1)(nk+ 1) =n!(nk)!: Une combinaisondekéléments deEest une façon de choisirkéléments deE,sans spécier d'ordre: c'est un sous-ensemble deEàkéléments. Le nombre de combinaisons dekéléments parminéléments (où0kn) est n k =Ckn=n(n1)(nk+ 1)k!=n!k!(nk)!: On peut dire aussi qu"un arrangement correspond à un tirage dekéléments un par un (et sans remise) en mémorisant l"ordre de tirage, tandis qu"une combinaison correspond à un tirage de kéléments simultanément. Un arrangement denéléments parminest une permutation, doncAnn=n!. 2

1.3 Probabilités conditionnelles

DéfinitionSoitBun événement tel queP(B)>0. L'applicationP(jB) :P( )![0;1]dénie par

P(AjB) =P(A\B)P(B)

est une probabilité sur P(AjB)est appelée laprobabilité conditionnelle deAsachantB.

PropositionOn a

P(A\B) =P(AjB)P(B) =P(BjA)P(A):

DéfinitionUnsystème complet d'événementsest une partition(An)nde , c'est-à-dire une suite nie ou innie(An)nd'événements disjoints, dont la réunion est pour tousi6=j; Ai\Aj=;;et nA n:

Par exemple, pour tout événementB, le couple(B;Bc)est un système complet d"événements.

Théorème (Théorème des probabilités totales)Soit(An)nun système complet d'événements. Pour tout événementA,

P(A) =X

nP(AjAn)P(An):

En particulier, pour tous événementsAetB,

P(A) =P(AjB)P(B) +P(AjBc)P(Bc):

Théorème (Formule de Bayes)Soit(An)nun système complet d'événements. Pour tout événementA, et tout événementAi

du système,

P(AijA) =P(AjAi)P(Ai)P

nP(AjAn)P(An):

En particulier, pour tous événementsAetB,

P(BcjA) =P(AjBc)P(Bc)P(AjB)P(B) +P(AjBc)P(Bc):

3

1.4 Événements indépendants

DéfinitionDeux événementsAetBsontindépendantssi

P(A\B) =P(A)P(B):

On a alorsP(AjB) =P(A)etP(BjA) =P(B)(siP(A)6= 0etP(B)6= 0). PropositionSi deux événementsAetBsont indépendants, alorsAcetBcle sont aussi.

DéfinitionUne famille(Ai)id'événements est indépendante si pour toute sous-famille nie on a

P(Ai1\Ai2 \Aik) =P(Ai1)P(Ai2)P(Aik):

En particulier, des événementsA,BetCsont indépendants si P(A\B) =P(A)P(B); P(B\C) =P(B)P(C); P(A\C) =P(A)P(C) etP(A\B\C) =P(A)P(B)P(C):

1.5 Comptage d'événements indépendants réalisés : loi binomiale

On considèrentirages à Pile-ou-Face avec la même pièce biaisée, qui tombe sur Pile avec

probabilitépet donc sur Face avec probabilité1p(oùp2]0;1[est fixé). En notant1pour Pile et0pour Face, chaque réalisation!se représente par une suite de0et de1de longueurn: par exemple,!= (1;0;1;1;:::)si le premier tirage est Pile, le deuxième

Face, le troisième Pile, etc. Vu que les tirages sont indépendants, on a par exemple (ici,n= 4)

P(f(1;0;1;1)g) =p(1p)pp

et on voit qu"en général, si la séquence!comportekfois1(et doncnkfois0),

P(f!g) =pk(1p)nk:

Soit0kn. On cherche la probabilité de l"événement A k=fExactementkpièces tombent sur Pileg: On vient de voir que, pour toute séquence!2Ak,P(f!g) =pk(1p)nk. Par ailleurs, le nombre de telles séquences estCardAk=n k. On en déduit que

P(Ak) =n

k p k(1p)nk: En notantXle nombre de fois où Pile est apparu, on dira plus tard queXest une variable aléatoire qui suit laloi binomialeB(n;p).

Plus généralement, on peut bien sûr appliquer ce qui précède pour évaluer le nombre d"événe-

ments réalisés parmi une suite denévénementsindépendantsB1;:::;Bnayant tousla même probabilitéP(Bi) =p: on poseAk=fkévénements exactement parmiB1;:::;Bnse réalisentg. Ci-dessus, on avaitBi=flei-ième tirage est Pileg. 4

2 Variables aléatoires. Généralités

Soit( ;P)un espace de probabilité. DéfinitionUnevariable aléatoireest une applicationX: DéfinitionSoitXune variable aléatoire. LaloideXest la probabilitéPXsur?dénie par : pour toutB?; PX(B) =P(f!2 jX(!)2Bg) =P(X2B): P Xpeut aussi être vue comme une probabilité surX( ), ensemble des valeurs prises parX, aussi appelésupportdePX. On note parfoisXPXpour indiquer queXsuit la loiPX.

La seconde égalité est une nouvelle notation : on notefX2Bgl"événement formé des éven-

tualités!pour lesquellesX(!)2B, et on abrègeP(fX2Bg) =P(X2B).

DéfinitionSiAest un événement, on introduit la variable aléatoirefonction indicatrice deA,

notée1A, qui indique si l'événementAest réalisé : pour tout!2 ;1A(!) =1si!2A

0si! =2A:

2.1 Lois discrètes

Une variable aléatoireXest ditediscrètesi l"ensembleX( )des valeurs qu"elle prend est

dénombrable(c"est-à-dire que l"on peut trouver une suite qui énumère tous les éléments de

X(!): c"est le cas notamment siX(

)est un ensemble fini,?,?ou?, mais pas l"intervalle[0;1] ni?). On dit aussi que laloideXest discrète. SiXest discrète, alors, pour toutB?, on peut calculer P

X(B) =P(X2B) =X

x2B\X( )P(X=x) =X x2BP(X=x):

Pour caractériser une loi discrète, il suffit donc de se donner lesprobabilités élémentaires

p

X(x) =P(X=x)pour toutx2X(

Définition-PropositionSoitE?. Une famille(p(x))x2E2?Eest unefamille de probabilités élémentairessi

1. p ourtout x2E,p(x)0 2.X x2Ep(x) = 1. Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité( ;P)), à valeurs dansE, de probabilités élémentairespX=p, c'est-à-dire pour toutx2E; P(X=x) =p(x): 5

2.2 Lois continues

Une variable aléatoireXest ditecontinueouà densités"il existe une fonctionfX:?!? telle que, pour toutB?, P

X(B) =P(X2B) =Z

B f

X(x)dx:

La fonctionfX(unique) est appelée ladensitédeX. Définition-PropositionUne fonctionf:?!?est unefonction de densité de probabilitési 1. p ourtout x2?,f(x)0 2.Z f(x)dx= 1. Dans ce cas, il existe une variable aléatoireX(sur un espace de probabilité( ;P)) de densité f X=f. SiXa une densité alors, pour toutx2?,P(X=x) =Rx xfX(t)dtdonc

P(X=x) = 0:

De plus, sifX(x) = 0pour toutx2B, alorsP(X2B) =R

BfX(x)dx= 0.

On en déduit queXest à valeurs dansfx2?jfX(x)>0g.

2.3 Fonction de répartition

DéfinitionSoitXune variable aléatoire. Lafonction de répartition deXest la fonctionFX:?!? dénie par pour toutx2?; FX(x) =P(Xx):

Propositiona)Soit Xune variable aléatoire. Sa fonction de répartitionFXest une fonction croissante,

lim x!1FX(x) = 0etlimx!+1FX(x) = 1: b) Si XetYsont deux variables aléatoires telles queFX(t) =FY(t)pour toutt2?, alors

XetYont même loi.

c) Si Xest une variable aléatoire discrète,FXest une fonction constante par morceaux, dont les sauts se situent aux points deX( ), et le saut enx2X( )a pour hauteur

P(X=x).

d) Si Xest une variable aléatoire de densitéfX, on a pour toutx2?; FX(x) =Z x 1 f

X(t)dt

et on a la dérivée(FX)0(x) =fX(x)(en tout pointxoùfXest continue). 6

2.4 Espérance d'une variable aléatoire

DéfinitionL'espéranced'une variable aléatoireX, notéeE[X], est la moyenne de ses valeurs, pondé-

rées par leurs probabilités.

SiXest discrète,

E[X] =X

x2X( )xP(X=x):

SiXest continue, de densitéf,

E[X] =Z

xf(x)dx:

Attention.L'espérance n'est pas toujours dénie. Il faut pour cela que la série ou l'intégrale

ci-dessus converge absolument. Propriétés(i)Si Xest constante, égale àc2?(pour tout!2 ,X(!) =c), alorsE[X] =E[c] =c. (ii)

P ourtout év énementA

,E[1A] =P(A). (iii) L'esp éranceest linéaire : p ourtoutes v ariablesaléatoires XetY, et tout réela,

E[aX] =aE[X]etE[X+Y] =E[X] +E[Y]:

(iv) L 'espéranceest croissan te: si XYp.s., alorsE[X]E[Y]. PropositionSoitXune variable aléatoire, et':?!?une fonction.

Si Xest discrète, alors

E['(X)] =X

x2X( )'(x)P(X=x):

Si Xest continue, alors

E['(X)] =Z

'(x)fX(x)dx: (À condition que la série et l'intégrale soient bien dénies)

2.5 Variance d'une variable aléatoire

DéfinitionSoitXune variable aléatoire. LavariancedeXest l'espérance des carrés des écarts deX

à sa moyenne :

Var(X) =EhXE[X]2i

0:

L'écart typedeXest(X) =pVar(X).

Attention.La variance n'est pas toujours dénie. Il faut que l'espéranceE[X]soit dénie etque l'espérance ci-dessus converge. Ceci revient à demander à ce queE[X2]converge. NB. À la différence de la variance, l"écart type(X)esthomogèneàX: si par exempleXest une distance, alors(X)est une distance aussi. Ceci justifie l"intérêt de l"écart type. 7

Propriétés

Pour toutes variables aléatoiresXetYet toute constantea,

1.Var(X) =E[X2]E[X]2

2.Var(aX) =a2Var(X)

3.Var(X+a) = Var(X)

4.Var(X+Y) = Var(X) + 2Cov(X;Y) + Var(Y), où lacovarianceest dénie par

Cov(X;Y) =EhXE[X]YE[Y]i

=E[XY]E[X]E[Y]:

PropositionPour toute variable aléatoireXpossédant une variance, la variable aléatoireY=XE[X](X)

est centrée (E[Y] = 0) et réduite (Var(Y) = 1). Plus généralement, pourr >0, on définit (s"il existe) lemoment d"ordrer: m r(X) =E[Xr]; et lemoment centré d"ordrer: r(X) =EhXE[X]ri Proposition (Inégalité de Markov)SoitXune variable aléatoire. Pour touta >0,

P(jXj a)EjXja

Plus généralement, pour touta >0etr >0,

P(jXj a)EjXjra

r: Démonstration:On a toujoursjXjr0et, sijXj a, alorsjXjrar. D'oùar1fjXjag jXjr, ce qui donne, en prenant l'espérance de chaque membre :

E[ar1fjXjag]E[jXjr]:

EtE[ar1fjXjag] =arP(jXj a), d'où résulte l'inégalité annoncée (r= 1donne la première).Proposition (Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire. Pour touta >0,

P

XE[X]a

Var(X)a

2: Démonstration:Prendrer= 2et remplacerXparXE[X]dans l'inégalité de Markov.8

2.6 Indépendance de variables aléatoires

DéfinitionDes variables aléatoiresX1;:::;Xnsontindépendantessi, pour tousB1;:::;Bn?,

P(X12B1;:::;Xn2Bn) =P(X12B1)P(Xn2Bn):

(où les virgules se lisent " et » :P(X12B1;:::;Xn2Bn) =P(fX12B1g\\fXn2Bng)) Par exemple, deux variables aléatoiresXetYsont indépendantes si les événements qui ne dépendent que deXsont indépendants des événements qui ne dépendent que deY.

Proposition1.Si X1;:::;Xnsont indépendantes, alors les variables aléatoiresf1(X1);:::;fn(Xn)sont

indépendantes, quelles que soient les fonctionsf1;:::;fn.

2.Indépendance par paquets.SiX1;:::;Xnsont indépendantes alors, par exemple,

les variables aléatoiresf1;2(X1;X2),f4(X4),f3;5;6(X3;X5;X6),...sont indépendantes : les fonctions de paquets disjoints de variables sont indépendantes. 3. Si des év énementsA1;:::;Ansont indépendants alors leurs fonctions indicatrices 1 A1;:::;1Ansont des variables aléatoires indépendantes; et réciproquement. PropositionSiX1;:::;Xnsont des variables aléatoires indépendantes, alors 1. si leurs esp érancesson tbien dén ies,

E[X1Xn] =E[X1]E[Xn]

2. si leurs v ariancesson tbien dénies, alors on a Cov(Xi;Xj) = 0pour tousi6=j, d'où

Var(X1++Xn) = Var(X1) ++ Var(Xn):

NB. Les réciproques sont fausses!

Par le 1. de la proposition précédente on déduit, siX1;:::;Xnsont indépendantes,

E[f1(X1)fn(Xn)] =E[f1(X1)]E[fn(Xn)]:

On rappelle queEest toujours linéaire : même siX1;:::;Xnne sont pas indépendantes,

E[X1++Xn] =E[X1] ++E[Xn]:

2.7 Loi faible des grands nombres

ThéorèmeSoit(Xn)n1une suite de variables aléatoires indépendantes, et de même loi, d'espérancem

et de variance2. On dénit la variable aléatoiresX n, appeléemoyenne empirique, parX n=X1++Xnn

On a :

pour tout" >0; PX nm< " !n!11: 9 Démonstration:Par linéarité de l'espérance,E[X n] =1n (E[X1]++E[Xn]) =m, et les variables sont indépendantes donc Var X n=1n 2n X i=1Var(Xi) =2n

L'inégalité de Bienaymé-Tchebychev pourX

ns'écrit donc, pour tout" >0, P X nm" 2n" 2; ce qui donne, en passant au complémentaire, P X nm< " 12n" 2: Comme le terme de droite converge vers1quandn! 1, et que le terme de gauche est1, on obtient

l'énoncé.NB. Si(An)n1est une suite d"événementsindépendantset qui ontmême probabilitép(par

exemple, dans une suite de tirages à Pile-ou-Face,An=flen-ième tirage est Pileg, etp=12 alors en posantXi=1Ai, on aX n=1A1++1Ann =nombre d"événements réalisés parmiA1;:::;Ann doncX nest lafréquence de réalisationdes événementsA1;:::;An, et la loi des grands nombres montre que, sinest grand, cette fréquence a de grandes chances d"être proche de

E[X1] =p, qui est la probabilité commune des événementsAn. Ainsi, la fréquence d"apparition

de Pile dans une suite de tirages à Pile-ou-Face indépendants converge vers 12 . Ou, si la pièce est biaisée, vers la probabilité d"obtenir Pile à un tirage. 10

3 Lois usuelles

3.1 Loi de Bernoulli de paramètrep,B(p)

C"est la loi d"une variable aléatoireXqui ne peut prendre que2valeurs, notées1et0, et p2[0;1]est la probabilité de la valeur1:

P(X= 1) =petP(X= 0) = 1p:

C"est donc la loi de la fonction indicatrice1Ad"un événementAtel queP(A) =p. On a

E[X] =petVar(X) =p(1p):

3.2 Loi binomiale de paramètresnetp,B(n;p)

Soitnvariables aléatoiresX1;X2;;Xn, indépendantes et de même loiB(p). La loi binomialeB(n;p)est la loi de la variable aléatoireSn=X1+X2++Xn. C"est doncla loi du nombre d"événementsparmiA1;:::;Anqui sont réalisés, siA1;:::;An sont indépendants et de même probabilitép. (Ci-dessus,Xn=1An) S nest à valeurs dansf0;1;:::;nget on a (cf. chapitre 1) pourk= 0;1;:::;n; P(Sn=k) =n k p k(1p)nk:

De plus

E[X] =nX

i=1E[Xi] =np et comme les variables aléatoires sont indépendantes,

Var(X) =nX

i=1Var(Xi) =np(1p):

3.3 Loi de Poisson de paramètre,P()

Soit >0. Une variable aléatoireXsuit la loi de Poisson de paramètresi X(quotesdbs_dbs23.pdfusesText_29