[PDF] Cours Probabilités L2 Université Nice Sophia-Antipolis



Previous PDF Next PDF







Cours Probabilités L2 Université Nice Sophia-Antipolis

8 Insistons : Ck n désigne le cardinal du nombre de parties à k éléments parmi un ensemble à néléments En particulier, la convention C0 n = 1 fait tout-à-faitsens Les coefficients (Ck



Int egration et probabilit es (cours + exercices corrig es

Int egration et probabilit es (cours + exercices corrig es) L3 MASS, Universit e Nice Sophia Antipolis version 2019 Sylvain Rubenthaler



Notes on Probability - QMUL Maths

These course notes explain the naterial in the syllabus They have been “field-tested” on the class of 2000 Many of the examples are taken from the course homework sheets or past exam papers Set books The notes cover only material in the Probability I course The text-



Course Probability Weiss Solution Manual

Access A First Course in Probability 8th Edition solutions now A First Course in Probability Solutions Manual; Scholarships; Instructor's Solutions Manual (Download only) for A Course in Probability Anna Amirdjanova, University of Michigan Neil A Weiss, Arizona State University A First Course In Probability Solution Manual,Ross 8th A First



Northwestern University Department of Electrical and Computer

This book is for an introductory course on probability and is a good reference for reviewing the prerequisite material 3 Santosh Venkatesh, The Theory of Probability: Explorations and Applications, Cambridge University Press, 2013 Another book that provides a nice introduction to probability theory with some interesting examples



Columbia University Statistics

textbooks in Probability and Statistics According to Anderson, ‘‘a number of basic books in our field of statistics in some sense came out of the teaching activities of the department’’ When Doob was a visiting professor, his course on probability theory contained a lot of new material and ideas that were incorporated into his book



MAT245: Mathematical Methods in Data Science

2 Hoel, Port, & Stone’s “Introduction to Probability Theory", published by Brooks Cole, ISBN-13: 978-0395046364 This is the ˙rst book in a well-written trilogy which covers all of the standard stuff but very well 3 Jaynes’ “Probability Theory: The Logic of Science", published by Cambridge University Press, ISBN-13: 978-0521592710



MATH 360: Theory of Investment and Credit

A very nice example is the following: On Jan 1, 2000, Smith deposits 1000 into an account with 5 annual interest The interest is paid on every Dec 31 Smith withdraws 200 on Jan 1, 2002, deposits 100 on Jan 1 2003 and again withdraws from the account on Jan 1 2005, this time 250:What is



Cours de probabilites et statistiques´

Universit¶e Claude Bernard Lyon 1 IREM de Lyon - D¶epartement de math¶ematiques Stage ATSM - Aou^t 2010 Cours de probabilites et statistiques´

[PDF] SA option problèmes économiques et sociaux - Université de

[PDF] procedure civile second semestre - FACULTE DE DROIT

[PDF] plan general procedure civile annee 2016 2017 - UFR droit

[PDF] faculte de droit juillet 2017 iej plan du cours de procedure civile

[PDF] Code de procédure civile

[PDF] la production audiovisuelle aidée - CNC

[PDF] L 'efficacité du profilage en contexte de sécurité nationale : plan

[PDF] Programmation avancée #8211 langage Java environnement eclipse

[PDF] PROPAGATION des ONDES ELECTROMAGNETIQUES

[PDF] Exploration minière - Mineralinfo

[PDF] Les provisions- Comptabilité- 2 Bac Sciences Economiques - 9alami

[PDF] College des enseignants de psychiatrieECN-referentiel - AESP

[PDF] Psychologie du développement : de la naissance ? - Psychaanalyse

[PDF] Cours de psychologie Tome 1 - les bases - Dunod

[PDF] LICENCE 1 #8211 Semestre 1 - Université Rennes 2

Cours Probabilités L2

Université Nice Sophia-Antipolis

François Delarue

Table des matières

3

CHAPITRE 1

Probabilités finies

Nous établissons dans ce premier chapitre les principes essentiels de la théorie des probabilités lorsque les expériences considérées admettent un nombre fini d"issues possibles. Nous parlerons de " probabilités finies ».

1. Description ensembliste d"une expérience aléatoire

On appelle expérience aléatoire tout phénomène dont les issues sont a priori incertaines : lancer d"une pièce à pile ou face, roulement d"un dé, tirage d"une carte parmi un paquet mélangé, instant de désintégration d"un atome instable ... Une première approche consiste à décrire sous la forme d"un ensemble toutes les issues possibles de l"expérience étudiée. Par exemple, les issues possibles d"un lancer d"une pièce à pile ou face sont modélisées parf0;1g, celles d"un lancer de dé à 6 faces parf1;2;3;4;5;6g et ainsi de suite.

1.1. Vocabulaire ensembliste.La tradition retient comme notation

générique pour l"ensemble des issues possibles d"une expérience aléatoire la lettre grecque

Nous comprenons que les parties de

, i.e. les sous-ensembles de , jouent un rôle essentiel en pratique. Ils permettent de décrire précisément la réali- sation d"événements :

Définition1.1.Etant donné un ensemble fini

, on appelleévénement tout sous-ensemble de . En particulier, l"ensemble des événements coïncide avec l"ensemble des parties de , à savoirP( Insistons : d"un point de vue pratique, un événement, au sens ensembliste du terme, décrit un événement, au sens usuel du terme, observable à l"issue de l"expérience. Par exemple, si l"expérience consiste à lancer un dé à six faces, l"événement "obtenir un chiffre pair" est représenté par l"ensemble (ou

événement)f2;4;6g.

Les éléments de

sont désignés, de façon générique, par la lettre!. En particulier, pour chaque!dans , le singletonf!gest un événement : en pratique, il signifie que l"expérience étudiée a exactement!pour issue. De 5 6 façon plus générale, nous comprenons que le vocabulaire ensembliste usuel permet de décrire finement les observationsObservationsTerme ensembliste

Décrire un résultat possiblef!g; !2

Décrire un événementA; A

Décrire l"implication d"un événement par un autreABDécrire la réalisation d"un événementoud"un autreA[BDécrire la réalisation d"un événementetd"un autreA\BDécrire l"absence de réalisation d"un événementA

{Evénement impossible;

Evénement certain

Incompatibilité de deux événementsA\B=;1.2. Observations de plusieurs expériences.L"observation de plu-

sieurs expériences ou d"expériences multiples peut toujours être comprise comme l"observation d"une seule et même expérience, familièrement décrite comme "grosse". Donnons un exemple simple : le lancer de deux dés peut être compris comme une seule et même expérience ou comme la succession de deux expé- riences. D"un point de vue ensembliste, le rassemblement de deux expériences en une seule et même expérience est obtenu par multiplication cartésienne :

Définition1.2.Etant donnés deux ensembles

1et

2, l"ensemble

1

2est l"ensemble des couplesf(!1;!2); !12

1; !22

2g. En particulier, nous pouvons modéliser le lancer de deux dés par l"en- semblef1;:::;6gf1;:::;6g. Insistons : l"ordre des lancers est préservé par la structure de couple. La première coordonnée de chaque couple représente le premier lancer et la seconde le second lancer.

1.3. Règles de dénombrement.Nous verrons dans la suite que la

théorie des probabilités s"appuie, pour partie, sur quelques propriétés essen- tielles de dénombrement. Nous rappelons ici quelques uns de ces fondamen- taux. La première des notions est celle de permutation : il s"agit de déterminer le nombre de façons de classer successivementsnobjects distincts ou tout simplement de classer (dans le désordre) les entiers naturels de1àn. Proposition1.3.Le nombre de permutations def1;:::;ng, i.e. le nombre den-uplets de la forme(i1;:::;in)à coordonnées entre 1 etnet deux à deux distinctes est égal àn!. 7

Preuve. Il s"agit d"un rappel.

Il existe un lemme de dénombrement bien pratique permettant de déduire les cardinaux de d"autres ensembles usuels. Lemme1.4.(Lemme des bergers.) Etant donnés un entierk1, deux ensembles finisEetFetfune application deEdansFtelle que

8y2F;jfx2E:f(x) =ygj=k;

alorsjEj=kjFj. (Ici,j jdésigne le cardinal.) Preuve. Admis. (Résultat par ailleurs tout-à-fait intuitif.)

Nous donnons maintenant deux exemples

Proposition1.5.Le nombre de façons de choisir,en tenant compte de l"ordre,kéléments parmindistincts est égal àAkn=n!=(nk)!,1 kn. Précisément, (i1;:::;ik); ij2 f1;:::;ng; ij6=i`pourj6=`=n!(nk)!: (Nous poserons, par convention,A0n= 1.) Preuve. La preuve est un peu formelle. Mais, il s"agit d"une belle application du lemme des bergers. Considérons

E=(i1;:::;in); ij2 f1;:::;ng; ij6=i`pourj6=`;

F=(i1;:::;ik); ij2 f1;:::;ng; ij6=i`pourj6=`;

de même que f: (i1;:::;in)2E7!(i1;:::;ik)2F: Clairement, toutk-uplet dansFest atteint. (Autrement dit,fest une surjection). En fait, nous remarquons que, pour(i1;:::;in)et(i01;:::;i0n) dansE, leurs images sont égales si et seulement si leskpremières coordon- nées sont égales. Dit autrement, les antécédents de(i1;:::;ik)parfsont construits en complétant les coordonnées restantes à l"aide d"une permuta- tion def1;:::;ng n fi1;:::;ikg. Mais, pour tout(i1;:::;ik), il y a(nk)! permutations de ce type possibles.

Exactement sur le modèle, on obtient

Proposition1.6.Le nombre de façons de choisir,sans tenir compte de l"ordre,kéléments parmindistincts est égal àCkn=n!=[k!(nk)!],

1kn. Précisément,

fi1;:::;ikg; ij2 f1;:::;ng; ij6=i`pourj6=`=n!k!(nk)!: (Nous poserons, par convention,C0n= 1.) 8 Insistons :Ckndésigne le cardinal du nombre de parties àkéléments parmi un ensemble ànéléments. En particulier, la conventionC0n= 1fait tout-à-fait sens. Les coefficients(Ckn)0knsont aussi appelés coefficients binomiaux en raison de la formule du binôme de Newton : Proposition1.7.Etant donnés deux réelsaetbet un entiern1: (a+b)n=nX k=0C knakbnk:

En particulier,

nX k=0C kn= 2n: Il s"agit du nombre de parties d"un ensemble ànéléments.

2. Espace de probabilité fini

2.1. Mesure de probabilité.La théorie des probabilités vise à " me-

surer » les événements observables à l"issue d"une expérience, i.e. à décrire la

chance de les observer concrètement en pratique. Par exemple, lorsque une pièce est lancée à pile ou face, la probabilité d"obtenir face est, si la pièce est équilibrée,1=2et, le cas échéant, celle d"obtenir pile est aussi1=2. Dans ce cas précis, la mesure des événements consiste en un simple comptage. Mais, en réalité, mesurer peut s"avérer plus subtil que compter. Donnons encore un exemple : imaginons, qu"à l"issue du lancer successif de deux pièces, nous fassions la somme des résultats de chacune des pièces (avec la règle simple : 0 pour pile et 1 pour face). Alors, l"ensemble des issues possibles estf0;1;2g. Intuitivement, nous comprenons très bien que la probabilité d"avoir 1 est égale à1=2, celles d"avoir 0 ou 2 valant1=4. Ici, la mesure ne se résume par un simple comptage, mais plutôt

à uncomptage avec pondération.

Définition2.1.Etant donné un ensemble fini

, on appelle mesure de probabilité sur , toute fonctionPdeP( )à valeurs dans[0;1]vérifiant : (1)P( ) = 1, (2)PourA;B2 P( )t.q.A\B=;,P(A[B) =P(A) +P(B).

Le couple(

;P)s"appelle espace de probabilité (fini en l"espèce). La propriété numéro 2 porte le nom d"additivité. Elle traduit une idée simple : la mesure d"un événement se calcule par la somme des mesures des singletons qu"il contient. Remarquons, en choisissantA= etB=;, que

P(;) = 0.

9 Proposition2.2.Etant donné un espace de probabilité fini( ;P), pour tout événementA,

P(A) =X

!2AP(f!g): En particulier, la mesure de probabilitéPest entièrement définie par la fa- mille des poidsp!=Pf!g !2 Ces poids sont positifs et, par additivité, sont de somme égale à 1.

Réciproquement, toute famille(q!)!2

de poids positifs de somme égale à

1 définit une probabilité sur

par la formule :

Q(A) =X

!2Aq Toute famille finie de poids positifs et de somme égale à 1 est appeléeloi de probabilité finie.

Preuve.A détailler en cours.

Soulignons que les lois de probabilité finies existent indépendamment du choix de : ainsi(1=2;1=2)ou(1=3;1=2;1=6). Elles définissent des mesures de probabilité dès lors que l"ensemble est précisé : un choix typique (ou en- core canonique) consiste à poser =f1;:::;NgoùNest égal au nombre de poids sous-jacents. En pratique, il est de fait d"usage de confondre les notions de mesure de probabilité et de loi de probabilité. Nous essaierons autant que possible de réserver le mot "mesure" lorsque l"ensemble sera précisé et de parler de loi lorsque la famille de poids sera donnée sans information sur

2.2. Exemples.

Définition2.3.(Loi uniforme.) Etant donné un ensemble fini de car- dinalN, on appelle mesure de probabilité uniforme sur , la mesure définie par

8A2 P(

);P(A) =jAjN Elle est associée à la famille de poids(p!= 1=N)!2 . La loi(1=N;:::;1=N) est appelée loi uniforme sur un ensemble àNéléments (ou, de façon équi- valente, surf1;:::;Ng). Définition2.4.(Loi binomiale.) Etant donnés un entierN1et un réel0< p <1, on appelle loi de probabilité binomiale de paramètresNetp (sous-entendu surf0;:::;Ng), la famille de poids p k=Cknpk(1p)nk;0kn: Elle définit de façon canonique une mesure de probabilité surf0;:::;Ng. 10

2.3. Formules de calcul.L"axiome d"additivité permet de montrer

Proposition2.5.Etant donnés deux événementsA;Bd"un espace de probabilité fini( ;P), P

A{= 1P(A);

P(B) =P(A)P(AnB); BA;

PA[B=P(A) +P(B)P(A\B):

Preuve.La première formule est évidente. La deuxième découle de l"addi- tivité. Pour la troisième, il suffit d"écrireA[Bcomme la réunion disjointe deAet deBn(A\B)et d"appliquer la deuxième formule. Le résultat se généralise au cas denévénements Proposition2.6.Etant donnésnévénementsA1;:::;And"un espace de probabilité fini( ;P), P n[ i=1A i =nX `=1(1)n`X

1i1< j=1A ij

Preuve.Voir en TD.

3. Variables aléatoires

3.1. Expériences multiples.En présence d"expériences multiples (telles

le lancer successif d"un dé), il peut-être pertinent de se focaliser sur une expé- rience précisément. Dit autrement, lorsque l"expérience considérée s"attache à l"étude de plusieurs traits, il peut être pertinent de ne s"intéresser qu"à un seul d"entre eux.

Définition3.1.Etant donné un ensemble

fini, on appelle variable aléatoire toute application de dansR. Il peut paraître un peu superflu de rebaptiser une notion déjà existante en mathématique. En réalité, le nom cherche ici à traduire l"essence même de l"objet étudié : il s"agit de se focaliser sur un trait aléatoire particulier.

Par exemple, si

désigne l"ensemble de la population vivant en France, une variable aléatoire peut être la taille des individus ou leur poids ou encore leur âge. Un exemple plus concret est donné par le modèle de l"expérience multiple : Exemple3.2.Etant donné l"ensemblef1;:::;6gNdécrivant les résultats deNlancers successifs d"un dé à six faces, l"applicationXi, pour1iN, X i: (x1;:::;xN)2 f1;:::;6gN7!xi; est une variable aléatoire décrivant les résultats duième lancer. 11

3.2. Image réciproque.En pratique, les valeurs prises par une va-

riable aléatoire sont essentielles. Il s"agit des résultats possibles de l"expé- rience étudiée. D"un point de vue de la modélisation, ces valeurs sont les images par la variable aléatoire des aléas de l"espace de probabilité initiale, i.e. ces valeurs correspondent à l"ensemblefX(!); !2 g. Il est aisément compréhensible que, pour une observation donnée, l"expérimentateur cherche à décrire, au moins formellement, les!susceptibles d"expliquer l"observation. Précisément, nous considérerons souvent, dans la suite,f!2 :X(!) = xgpour unxréel donnée. Pour simplifier les notations, nous écrirons la plupart du tempsfX=xgou encoreX1(fkg)(au sens de l"image réci- proque de la théorie des ensembles). Plus généralement, nous préférerons

écrirefX2AgouX1(A)au lieu def!2

:X(!)2Ag, pourAR.

3.3. Loi d"une variable aléatoire.Une variable aléatoire décrit, par

nature, une expérience dont les résultats sont aléatoires. Il s"agit, comme dans le cas d"un espace de probabilité, de mesurer la façon dont le hasard se répartit à l"arrivée. Proposition3.3.Etant donnés un espace de probabilité fini( ;P)de cardinalNet une variable aléatoireXà valeurs dansfx1;:::;xPg R,P étant nécessairement plus petit queN, on appelle loi deXles poidsPX=xk 1kP: De façon canonique, il s"agit d"une loi de probabilité surfx1;:::;xPg. Preuve.Les poids sont clairement positifs. Il reste à en faire la somme. Nous

écrivonsPX

k=1PX=xk=P P[ k=1 X=xk: En effet, la variableXne peut pas prendre deux valeurs différentes au même point. Autrement dit, les événements considérés sont deux à deux disjoints.

Maintenant, nous remarquons que

P k=1

X=xk=P[

k=1X

1fX=xkg=X1

P[ k=1fX=xkg Exemple3.4.(Loi binomiale) Les lancers successifs deNpièces équi- librées sont modélisés par l"espacef0;1gNmuni de la probabilité uniforme, notéeP. Le nombre de succès est modélisé par la variable aléatoire

S: (!1;:::;!N)2 f0;1gN7!NX

i=1! i: 12 La loi deSest la loi binomiale de paramètre1=2surf0;:::;Ng, i.e.

8k2 f0;:::;ng;PfS=kg= 2NCkN:

Preuve. Il suffit de montrer que le cardinal defS=kgestCkN. Mais, l"ensemblefS=kgest en bijection avec l"ensemble des parties àkéléments def1;:::;Ng: à chaque suite deksuccès correspond une et une seule partie, donnée par les numéros des succès. Remarquons que le résultat est généralisable dans le cas d"une pièce dés- équilibrée. Le cas échéant, la loi deSest la loi binomiale de paramètresN etp. Exemple3.5.(Loi hypergéométrique - loi des sondages.) Dans une po- pulation deNindividus,napprécient l"action publique d"une personnalité politiqueAetNnla désapprouvent. Une fraction depindividus de cette population est interrogée, au hasard. Ce tirage au sort est modélisé par l"espace de probabilité fini =Pp(f1;:::;Ng); muni de la probabilité uniforme. (Ici,Ppdésigne l"ensemble des parties àp éléments.) Par convention de modélisation, les soutiens deAsont représentés par des entiers entre 1 etnet ses opposants par des entiers entren+ 1et N. Le nombre de soutiens parmi l"échantillon tiré est modélisé par la variable aléatoire

H:!2 Pp(f1;:::;Ng)7! j!\ f1;:::;ngj:

Sa loi est donnée par

PfH=kg=CknCpk

NnCquotesdbs_dbs23.pdfusesText_29