[PDF] [PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et

ainsi éventuellement que d'autres à venir, peut être trouvé au format PDF à Un grossiste reçoit des pelotes de laine provenant de deux usines di érentes



Previous PDF Next PDF





[PDF] Applications linéaires, matrices, déterminants - Licence de

Pascal Lainé 1 Applications linéaires, matrices, déterminants Exercice 1 Soit :ℝ 3 → ℝ2 définie pour tout = ( 1, 2, 3) ∈ ℝ3 par



[PDF] Espaces vectoriels - Licence de mathématiques Lyon 1

Pascal lainé 1 Espaces vectoriels Exercice 1 Soient dans ℝ 3 les vecteurs 1 = (1,1,0), 2 = (4,1,4) et 3 = (2,−1,4) La famille ( 1, 2, 3) 



[PDF] Pascal Lainé Intégrales généralisées Suites et séries - Math-Eco

Pascal Lainé Intégrales généralisées Suites et séries numériques Suites et séries de fonctions Séries entières Exercices corrigés Licence STS



[PDF] Pascal Lainé Ensembles-Applications Exercice 1 - Licence de

Pascal Lainé 3 a Montrer que est injective ? b est-elle surjective ? Allez à : Correction exercice 11 : Exercice 12 : Pour un entier ∈ ℕ on désigne 



[PDF] Polynômes et fractions rationnelles

Pascal Lainé 1 Polynômes et fractions rationnelles Exercice 1 Factoriser dans [ ] et dans [ ] le polynôme Allez à : Correction exercice 1 Exercice 2 Soit



[PDF] MATHÉMATIQUES - Numdam

Limaçon de Pascal, conchoïde du cercle p -s — Sa cosO EPHEUVK est le point de départ d'un intéressant article de M Lainé, qui paraîtra ici prochainement



[PDF] Lenseignement de lalgèbre linéaireau niveau universitaire - ARDM

Mac Lane (1941) et Bourbaki (1947), c'est une approche traditionnelle pour l' enseignement psud fr/~perrin/Debats-et-controverses/Divers/Dorier pdf 64 Pascal ii Si le calcul du système linéaire associée à l'équation précédente aboutit,



[PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et

ainsi éventuellement que d'autres à venir, peut être trouvé au format PDF à Un grossiste reçoit des pelotes de laine provenant de deux usines di érentes

[PDF] intro pensées de pascal

[PDF] texte pascal

[PDF] justificatif de domicile pass navigo

[PDF] carte navigo renouvellement automatique

[PDF] renouvellement de passeport noisy le grand

[PDF] arbre binaire en c

[PDF] sommet arbre binaire

[PDF] arbre binaire java

[PDF] retour ? l'unité proportionnalité

[PDF] le timbre d'un son

[PDF] le passage ? l’acte criminel

[PDF] psychologie criminelle cours pdf

[PDF] passage ? l'acte psychologie

[PDF] cours de criminologie générale pdf

[PDF] livre criminologie pdf

Université Paris 13 - Institut Galilée Année universitaire 2013-2014

Cours Commun Scientique

de Probabilités & StatistiquesRésumé de cours Suivi des ches d'exercicesResponsable du cours : Laurent Tournier

Ce document, ainsi éventuellement que d"autres à venir, peut être trouvé au format PDF à

l"adresse suivante : http www?m?th?un?v-p??? ??? ? ~tou?n??? ?n ??gn?m?nt

1 Espaces de probabilités. Loi binomiale

1.1 Dénitions

DéfinitionUnespace de probabilité(

;P)est constitué de , un ensemble (l'ensemble des résultats d'une expérience aléatoire)

P, une probabilité sur

Un élément!2

est appelé uneréalisation, c"est un résultat possible d"une expérience aléatoire.

Un sous-ensembleA

est appelé unévénement. C"est un ensemble de réalisations (par

exemple, celles qui vérifient une certaine condition). L"ensemble des événements est donc l"en-

sembleP( )des parties (ou sous-ensembles) de

DéfinitionUneprobabilitésur

est une applicationP:P( )![0;1], dénie sur les événements, telle que 1.P( ) = 1 2. p ourtoute suite (An)nd'événements disjoints deux à deux,P[ nA n =X nP(An). Si un événementAvérieP(A) = 0, on dit queAestnégligeable; et siP(A) = 1, on dit queAestpresque sûr, ou queAa lieu presque sûrement, abrégé p.s. .

Propriétés(i)P(;) = 0

(ii)

P ourtout év énementA,P(Ac) = 1P(A)

(iii)

Si AB, alorsP(A)P(B)

(iv) P ourtous év énementsAetB,P(A[B) =P(A) +P(B)P(A\B) (v) P ourtoute suite croissan te(An)nd'événements (c'est-à-direAnAn+1pour toutn), P nA n = lim" nP(An) (vi) P ourtoute s uitedécroissan te(An)nd'événements (c'est-à-direAn+1Anpour toutn), P nA n = lim# nP(An)

Pour simplier, on suppose dans ce cours que tout ensemble de réalisations est un événement. En

réalité, ceci n'est plus possible dans le cas par exemple où = [0;1]est muni de la probabilité uniforme

car on ne peut pas dénir l'intégrale sur n'importe quel ensemble mais seulement sur des ensembles

mesurables . En pratique, ceci n'est pas une limitation car tous les ensembles que l'on utilise sont

mesurables. Néanmoins, pour dénirrigoureusementla théorie des probabilités, on appellerait espace

de probabilités untriplet( ;A;P)oùAest l'ensemble des événements, qui doit être unetribusur c'est-à-dire un ensemble de parties de tel que a)

2 A, b) siA2 AalorsAc2 A, et c) siAn2 A

pour toutn2?, alorsS nAn2 A; etPest uniquement dénie surA. Puis, sur?, on dénirait la tribu borélienne, qui est la plus petite tribu contenant les intervalles.1

1.2 Cas élémentaire : équiprobabilité

On suppose queCard

=n, avec =f!1;!2;:::;!ng.

DéfinitionLaprobabilité uniformesur

(ou distribution équiprobable) est la probabilitéPdénie par : pour toutA=f!i1;!i2;:::;!ikg

P(A) =kn

=CardACard Autrement dit,P(événement) =nombre de cas favorablesnombre de cas possibles

Rappels de dénombrement :

PropositionSoitEun ensemble ni.

Une permutationdeEest une façon d'ordonner les éléments deE. Le nombre de permutations d'un ensemble ànéléments est n! = 123 (n2)(n1)n: Un arrangementdekéléments deEest une façon de choisir et d'ordonnerkéléments deE: c'est une suite dekéléments deEdistincts 2 à 2. Le nombre d'arrangements dekéléments parminéléments (où0kn) est A kn=n(n1)(nk+ 1) =n!(nk)!: Une combinaisondekéléments deEest une façon de choisirkéléments deE,sans spécier d'ordre: c'est un sous-ensemble deEàkéléments. Le nombre de combinaisons dekéléments parminéléments (où0kn) est n k =Ckn=n(n1)(nk+ 1)k!=n!k!(nk)!: On peut dire aussi qu"un arrangement correspond à un tirage dekéléments un par un (et sans remise) en mémorisant l"ordre de tirage, tandis qu"une combinaison correspond à un tirage de kéléments simultanément. Un arrangement denéléments parminest une permutation, doncAnn=n!. 2

1.3 Probabilités conditionnelles

DéfinitionSoitBun événement tel queP(B)>0. L'applicationP(jB) :P( )![0;1]dénie par

P(AjB) =P(A\B)P(B)

est une probabilité sur P(AjB)est appelée laprobabilité conditionnelle deAsachantB.

PropositionOn a

P(A\B) =P(AjB)P(B) =P(BjA)P(A):

DéfinitionUnsystème complet d'événementsest une partition(An)nde , c'est-à-dire une suite nie ou innie(An)nd'événements disjoints, dont la réunion est pour tousi6=j; Ai\Aj=;;et nA n:

Par exemple, pour tout événementB, le couple(B;Bc)est un système complet d"événements.

Théorème (Théorème des probabilités totales)Soit(An)nun système complet d'événements. Pour tout événementA,

P(A) =X

nP(AjAn)P(An):

En particulier, pour tous événementsAetB,

P(A) =P(AjB)P(B) +P(AjBc)P(Bc):

Théorème (Formule de Bayes)Soit(An)nun système complet d'événements. Pour tout événementA, et tout événementAi

du système,

P(AijA) =P(AjAi)P(Ai)P

nP(AjAn)P(An):

En particulier, pour tous événementsAetB,

P(BcjA) =P(AjBc)P(Bc)P(AjB)P(B) +P(AjBc)P(Bc):

3

1.4 Événements indépendants

DéfinitionDeux événementsAetBsontindépendantssi

P(A\B) =P(A)P(B):

On a alorsP(AjB) =P(A)etP(BjA) =P(B)(siP(A)6= 0etP(B)6= 0). PropositionSi deux événementsAetBsont indépendants, alorsAcetBcle sont aussi.

DéfinitionUne famille(Ai)id'événements est indépendante si pour toute sous-famille nie on a

P(Ai1\Ai2 \Aik) =P(Ai1)P(Ai2)P(Aik):

En particulier, des événementsA,BetCsont indépendants si P(A\B) =P(A)P(B); P(B\C) =P(B)P(C); P(A\C) =P(A)P(C) etP(A\B\C) =P(A)P(B)P(C):

1.5 Comptage d'événements indépendants réalisés : loi binomiale

On considèrentirages à Pile-ou-Face avec la même pièce biaisée, qui tombe sur Pile avec

probabilitépet donc sur Face avec probabilité1p(oùp2]0;1[est fixé). En notant1pour Pile et0pour Face, chaque réalisation!se représente par une suite de0et de1de longueurn: par exemple,!= (1;0;1;1;:::)si le premier tirage est Pile, le deuxième

Face, le troisième Pile, etc. Vu que les tirages sont indépendants, on a par exemple (ici,n= 4)

P(f(1;0;1;1)g) =p(1p)pp

et on voit qu"en général, si la séquence!comportekfois1(et doncnkfois0),

P(f!g) =pk(1p)nk:

Soit0kn. On cherche la probabilité de l"événement A k=fExactementkpièces tombent sur Pileg: On vient de voir que, pour toute séquence!2Ak,P(f!g) =pk(1p)nk. Par ailleurs, le nombre de telles séquences estCardAk=n k. On en déduit que

P(Ak) =n

k p k(1p)nk: En notantXle nombre de fois où Pile est apparu, on dira plus tard queXest une variable aléatoire qui suit laloi binomialeB(n;p).

Plus généralement, on peut bien sûr appliquer ce qui précède pour évaluer le nombre d"événe-

ments réalisés parmi une suite denévénementsindépendantsB1;:::;Bnayant tousla même probabilitéP(Bi) =p: on poseAk=fkévénements exactement parmiB1;:::;Bnse réalisentg. Ci-dessus, on avaitBi=flei-ième tirage est Pileg. 4

2 Variables aléatoires. Généralités

Soit( ;P)un espace de probabilité. DéfinitionUnevariable aléatoireest une applicationX: DéfinitionSoitXune variable aléatoire. LaloideXest la probabilitéPXsur?dénie par : pour toutB?; PX(B) =P(f!2 jX(!)2Bg) =P(X2B): P Xpeut aussi être vue comme une probabilité surX( ), ensemble des valeurs prises parX, aussi appelésupportdePX. On note parfoisXPXpour indiquer queXsuit la loiPX.

La seconde égalité est une nouvelle notation : on notefX2Bgl"événement formé des éven-

tualités!pour lesquellesX(!)2B, et on abrègeP(fX2Bg) =P(X2B).

DéfinitionSiAest un événement, on introduit la variable aléatoirefonction indicatrice deA,

notée1A, qui indique si l'événementAest réalisé : pour tout!2 ;1A(!) =1si!2A

0si! =2A:

2.1 Lois discrètes

Une variable aléatoireXest ditediscrètesi l"ensembleX( )des valeurs qu"elle prend est

dénombrable(c"est-à-dire que l"on peut trouver une suite qui énumère tous les éléments de

X(!): c"est le cas notamment siX(

)est un ensemble fini,?,?ou?, mais pas l"intervalle[0;1] ni?). On dit aussi que laloideXest discrète. SiXest discrète, alors, pour toutB?, on peut calculer P

X(B) =P(X2B) =X

x2B\X( )P(X=x) =X x2BP(X=x):

Pour caractériser une loi discrète, il suffit donc de se donner lesprobabilités élémentaires

p

X(x) =P(X=x)pour toutx2X(

Définition-PropositionSoitE?. Une famille(p(x))x2E2?Eest unefamille de probabilités élémentairessi

1. p ourtout x2E,p(x)0 2.X x2Ep(x) = 1. Dans ce cas, il existe une variable aléatoire X (sur un espace de probabilité( ;P)), à valeurs dansE, de probabilités élémentairespX=p, c'est-à-dire pour toutx2E; P(X=x) =p(x): 5

2.2 Lois continues

Une variable aléatoireXest ditecontinueouà densités"il existe une fonctionfX:?!? telle que, pour toutB?, P

X(B) =P(X2B) =Z

B f

X(x)dx:

La fonctionfX(unique) est appelée ladensitédeX. Définition-PropositionUne fonctionf:?!?est unefonction de densité de probabilitési 1. p ourtout x2?,f(x)0 2.Z f(x)dx= 1. Dans ce cas, il existe une variable aléatoireX(sur un espace de probabilité( ;P)) de densité f X=f. SiXa une densité alors, pour toutx2?,P(X=x) =Rx xfX(t)dtdonc

P(X=x) = 0:

De plus, sifX(x) = 0pour toutx2B, alorsP(X2B) =R

BfX(x)dx= 0.

On en déduit queXest à valeurs dansfx2?jfX(x)>0g.

2.3 Fonction de répartition

DéfinitionSoitXune variable aléatoire. Lafonction de répartition deXest la fonctionFX:?!? dénie par pour toutx2?; FX(x) =P(Xx):

Propositiona)Soit Xune variable aléatoire. Sa fonction de répartitionFXest une fonction croissante,

lim x!1FX(x) = 0etlimx!+1FX(x) = 1: b) Si XetYsont deux variables aléatoires telles queFX(t) =FY(t)pour toutt2?, alors

XetYont même loi.

c) Si Xest une variable aléatoire discrète,FXest une fonction constante par morceaux, dont les sauts se situent aux points deX( ), et le saut enx2X( )a pour hauteur

P(X=x).

d) Si Xest une variable aléatoire de densitéfX, on a pour toutx2?; FX(x) =Z x 1 f

X(t)dt

et on a la dérivée(FX)0(x) =fX(x)(en tout pointxoùfXest continue). 6

2.4 Espérance d'une variable aléatoire

DéfinitionL'espéranced'une variable aléatoireX, notéeE[X], est la moyenne de ses valeurs, pondé-

rées par leurs probabilités.

SiXest discrète,

E[X] =X

x2X( )xP(X=x):

SiXest continue, de densitéf,

E[X] =Z

xf(x)dx:

Attention.L'espérance n'est pas toujours dénie. Il faut pour cela que la série ou l'intégrale

ci-dessus converge absolument. Propriétés(i)Si Xest constante, égale àc2?(pour tout!2 ,X(!) =c), alorsE[X] =E[c] =c. (ii)

P ourtout év énementA

,E[1A] =P(A). (iii) L'esp éranceest linéaire : p ourtoutes v ariablesaléatoires XetY, et tout réela,

E[aX] =aE[X]etE[X+Y] =E[X] +E[Y]:

(iv) L 'espéranceest croissan te: si XYp.s., alorsE[X]E[Y]. PropositionSoitXune variable aléatoire, et':?!?une fonction.

Si Xest discrète, alors

E['(X)] =X

x2X( )'(x)P(X=x):

Si Xest continue, alors

E['(X)] =Z

'(x)fX(x)dx: (À condition que la série et l'intégrale soient bien dénies)

2.5 Variance d'une variable aléatoire

DéfinitionSoitXune variable aléatoire. LavariancedeXest l'espérance des carrés des écarts deX

à sa moyenne :

Var(X) =EhXE[X]2i

0:

L'écart typedeXest(X) =pVar(X).

Attention.La variance n'est pas toujours dénie. Il faut que l'espéranceE[X]soit dénie etque l'espérance ci-dessus converge. Ceci revient à demander à ce queE[X2]converge. NB. À la différence de la variance, l"écart type(X)esthomogèneàX: si par exempleXest une distance, alors(X)est une distance aussi. Ceci justifie l"intérêt de l"écart type. 7

Propriétés

Pour toutes variables aléatoiresXetYet toute constantea,

1.Var(X) =E[X2]E[X]2

2.Var(aX) =a2Var(X)

3.Var(X+a) = Var(X)

4.Var(X+Y) = Var(X) + 2Cov(X;Y) + Var(Y), où lacovarianceest dénie par

Cov(X;Y) =EhXE[X]YE[Y]i

=E[XY]E[X]E[Y]:

PropositionPour toute variable aléatoireXpossédant une variance, la variable aléatoireY=XE[X](X)

est centrée (E[Y] = 0) et réduite (Var(Y) = 1). Plus généralement, pourr >0, on définit (s"il existe) lemoment d"ordrer: m r(X) =E[Xr]; et lemoment centré d"ordrer: r(X) =EhXE[X]ri Proposition (Inégalité de Markov)SoitXune variable aléatoire. Pour touta >0,

P(jXj a)EjXja

Plus généralement, pour touta >0etr >0,

P(jXj a)EjXjra

r: Démonstration:On a toujoursjXjr0et, sijXj a, alorsjXjrar. D'oùar1fjXjag jXjr, ce qui donne, en prenant l'espérance de chaque membre :

E[ar1fjXjag]E[jXjr]:

EtE[ar1fjXjag] =arP(jXj a), d'où résulte l'inégalité annoncée (r= 1donne la première).Proposition (Inégalité de Bienaymé-Tchebychev)SoitXune variable aléatoire. Pour touta >0,

P

XE[X]a

Var(X)a

2: Démonstration:Prendrer= 2et remplacerXparXE[X]dans l'inégalité de Markov.8

2.6 Indépendance de variables aléatoires

DéfinitionDes variables aléatoiresX1;:::;Xnsontindépendantessi, pour tousB1;:::;Bn?,

P(X12B1;:::;Xn2Bn) =P(X12B1)P(Xn2Bn):

(où les virgules se lisent " et » :P(X12B1;:::;Xn2Bn) =P(fX12B1g\\fXn2Bng)) Par exemple, deux variables aléatoiresXetYsont indépendantes si les événements qui ne dépendent que deXsont indépendants des événements qui ne dépendent que deY.

Proposition1.Si X1;:::;Xnsont indépendantes, alors les variables aléatoiresf1(X1);:::;fn(Xn)sont

indépendantes, quelles que soient les fonctionsf1;:::;fn.

2.Indépendance par paquets.SiX1;:::;Xnsont indépendantes alors, par exemple,

les variables aléatoiresf1;2(X1;X2),f4(X4),f3;5;6(X3;X5;X6),...sont indépendantes : les fonctions de paquets disjoints de variables sont indépendantes. 3. Si des év énementsA1;:::;Ansont indépendants alors leurs fonctions indicatrices 1 A1;:::;1Ansont des variables aléatoires indépendantes; et réciproquement. PropositionSiX1;:::;Xnsont des variables aléatoires indépendantes, alors 1. si leurs esp érancesson tbien dén ies,

E[X1Xn] =E[X1]E[Xn]

2. si leurs v ariancesson tbien dénies, alors on a Cov(Xi;Xj) = 0pour tousi6=j, d'où

Var(X1++Xn) = Var(X1) ++ Var(Xn):

NB. Les réciproques sont fausses!

Par le 1. de la proposition précédente on déduit, siX1;:::;Xnsont indépendantes,

E[f1(X1)fn(Xn)] =E[f1(X1)]E[fn(Xn)]:

On rappelle queEest toujours linéaire : même siX1;:::;Xnne sont pas indépendantes,

E[X1++Xn] =E[X1] ++E[Xn]:

2.7 Loi faible des grands nombres

ThéorèmeSoit(Xn)n1une suite de variables aléatoires indépendantes, et de même loi, d'espérancem

quotesdbs_dbs9.pdfusesText_15