[PDF] Probabilités et Statistiques Licence de Mathématiques (Parcours





Previous PDF Next PDF



STATISTIQUE : ESTIMATION

Un estimateur T de ? est une statistique à valeurs dans I. Une estimation est la valeur de l' Xk est un estimateur de l'espérance mathématique.



CURRICULUM VITAE

2007-2010. Thèse de Doctorat en Mathématiques Appliquées Spécialité Statistique de l'Université Bordeaux I. . Titre : Estimation récursive pour des modèles 



Modélisation statistique et réduction de la dimension : une

23 oct. 2008 Institut de Mathématiques de Bordeaux (IMB). Equipe CQFD



Curriculum Vitæ

15 nov. 2012 — 2021 : membre du comité HCERES d'évaluation de l'Institut de Mathématiques de Bordeaux. — 2019 : membre du comité HCERES d'évaluation du ...



STATISTIQUE : TESTS DHYPOTHESES

Le modèle mathématique est le suivant. On dispose d'une population dans laquelle chaque individu présente ou non un certain caractère la proportion d'individus 



CURRICULUM VITAE et listes des travaux et des activités de

tesquieu Bordeaux 4. – Membre de l'équipe “Probabilités et Statistique”. Institut de Mathématiques de Bordeaux



Estimation récursive pour les modèles semi-paramétriques

29 jan. 2014 Institut de Mathématiques de Bordeaux ... Watson récursif et l'estimation du param`etre ? via l'estimateur SIR récursif. Nous.



Probabilités et Statistiques Licence de Mathématiques (Parcours

Institut de Mathématiques Université Bordeaux 1



1 Synth`ese de la carri`ere

1 sept. 2015 HDR en Mathématiques (Université de Bordeaux 1) 23 septembre 2009 ... Sami Capderou - début janvier 2015 : Estimation statistique non ...



CV de Jérôme Saracco– Janvier 2021

Professeur des Universités classe exceptionnelle

Probabilités et Statistiques Licence de Mathématiques (Parcours

Probabilites et Statistiques

Licence de Mathematiques (Parcours Math-Info),

UE MA6031

Alain Yger

Institut de Math

ematiques, Universite Bordeaux 1, Talence 33405,

France

E-mail address:Alain.Yger@math.u-bordeaux1.fr

Version du 26 novembre 2012.

R esume.L'objectif du cours est une introduction≪pratique≫a la theorie des probabilites et au raisonnement statistique. S'agissant d'un cours cible sur le parcours Math-Info, l'accent sera mis en priorite sur tout ce qui releve plut^ot des mathematiques ≪discretes≫. Lois normales, vecteurs gaussiens, statistique gaussienne seront aussi bien s^ur envisages. Une reference sur le- quel ce cours s'appuiera (souvent de maniere tres ≪light≫) sera les cha- pitres 11 (Probabilites) et 12 (Statistique descriptive, statistique inferentielle) de [MathAp], voire aussi les chapitres 7 (codage), 8 (Cryptographie), 10 (Si- gnal) de ce m^eme ouvrage pour certaines applications en relation avec d'autres champs. Ce cours sera illustre avec l'utilisation de logiciels (MATLAB, avec son clone libreScilab, disponible surhttp://www.scilab.org/fr), permettant en particulier tous deux la simulation de lois probabilistes. Des logiciels plus specialement dedies au raisonnement statistique (comme le logiciel libreR, http://www.r-project.org/) seront egalement mis a contribution dans la se- conde partie du cours (dediee au raisonnement statistique, ou interviennent les lois de probabilite, ≪en famille≫cette fois). Sont fournies en annexes les an- nales 2011-2012 : texte et corrige du DS (1h30), textes et corriges des examens de session 1 et de session 2 (3h00).

Table des matieres

Chapitre 1. Univers des possibles, probabilites, independance et conditionnement1

1.1. En guise d'introduction : la notion d'

≪epreuve≫ou experience1

1.2. Mesure de probabilite sur un ensemble ni3

1.3. Mesure de probabilite sur un ensemble denombrable9

1.4. Tribus et probabilites sur un ensemble quelconque13

1.5. Conditionnement et independance21

Chapitre 2. Variables aleatoires et theoremes

≪limite≫31

2.1. Notion de VAR, esperance, variance, moments31

2.2. Le Theoreme Limite

≪Central≫(TLC)45

2.3. Les lois des grands nombres (LGNf) et (LGNF)48

Chapitre 3. Initiation au raisonnement statistique51

3.1. Indicateurs numeriques d'une serie de donnees statistiques51

3.2. La notion d'estimateur; des probabilites a la statistique53

3.3. Estimation par intervalle; gaussiennes et test de Student54

Annexe A. Annales 2011-2012, Texte et corrige du DS61 Annexe B. Annales 2011-2012, Texte et corrige de l'examen de session 1 67 Annexe C. Annales 2011-2012, Texte et corrige de l'examen de session 2 75

Bibliographie79

Index81

v

CHAPITRE 1

Univers des possibles, probabilites, independance

et conditionnement

1.1. En guise d'introduction : la notion d'

≪epreuve≫ou experience Le lancer d'un de a six faces constitue un exemple de ce que l'on appelle une epreuve(ou uneexperience), l'ensemblef1;:::;6gconstituant la liste des resultats possibles pour cette experience. Si le de n'est pas pipe, tout non-mathematicien intuitera qu'il a une chance sur six de realiser ≪six≫lors d'une telle epreuve. Il argumentera pour cela empiriquement en vous faisant constater que, s'il itereMfois cette epreuve (avecMtres grand), le quotientM(6)=M(ouM(6) designe le nombre de≪six≫obtenus lors de la serie de Mcoups) se met a tendre asymptotiquement vers 1=6 lorsqueMtend vers l'inni. Pareille argumentation releve, on le verra plus loin dans ce cours, du point de vue de lastatistique empirique. Formulons mathematiquement le probleme en considerant l'ensemble Ω de tous les resultats possibles de l'epreuve, ici Ω =f1;:::;6g: Le resultat de l'epreuve estaleatoire. L'epreuve consiste en effet a choisir≪au hasard ≫un element dans l'ensemble Ω, espace que l'on qualie ici, on le verra dans la section suivante, d'univers des possibles. Si le resultat aleatoire de l'epreuve releve du hasard, ce hasard n'en est pas moins ≪organise≫: se donner laloi probabiliste a laquelle obeit cette epreuve aleatoire materialisee par le lancer du de, c'est-a-dire la ≪loi≫qui≪pilote≫ici le hasard, consiste ici a se donner une collection de 6 nombres reels positifspj;j= 1;:::;6 de somme 1. La quantitepjrepresente ce que notre non-mathematicien interpreterait commele nombre de chances de realiser le resultatjen lancant le de, ou encore laprobabilite de l'evenement :≪le resultat de l'epreuve est un ≪six≫ ≫. Dans le cas de des non pipes, il est naturel de travailler avec le modele mathematique : p j=1 6 ; j= 1;:::6: Ce modele est un cas particulier du cas ou Ω est un ensemble ni et ou chaque singleton (ou encore evenement elementaire)fagde Ω est≪charge≫avec la masse

P(fag) =1

cardΩ auquel cas, une partieAde Ω (que l'on appelle unevenement) est≪chargee≫avec la ≪masse≫(ou le≪poids≫)

P(A) =cardA

cardΩ 1

21. UNIVERS DES POSSIBLES, PROBABILIT

ES, INDEPENDANCE ET CONDITIONNEMENTM

NM NM ND' d(a) (b) (c) D' Q

Q(0,0)

Figure 1.1.Le paradoxe de Bertrand.

cette distribution de probabilite est ditedistribution uniformesur Ω. Dans le cas de des pipes, on doit par contre envisager d'autres modeles, comme par exemple p

1=p2=p3=p4=1

12 ; p5=p6=1 3 L'univers des possibles n'est pas toujours ni, comme le montre l'exemplegeo- metriquesuivant : l'epreuve consiste a prendre au hasard deux points distincts sur un cercle donne du planR2de centre l'origine et de rayon 1 et a tracer la corde qui les joint (comme sur trois schemas presentes sur la gure 1.1). On peut poser la question naive suivante : les choix de points etant equiprobables sur (on va preciser ceci ulterieurement), quel≪nombre de chances≫ou encore probabilite≫a-t'on que la longueur de la corde joignant deux pointsMetN de soit superieure a celle (icip

3, car le cercle est de rayon 1) du cote d'un

triangle equilateral inscrit dans ? (voir la gure 1.1, schema de gauche). Notre non-specialiste pourra repondre en disant qu'il y a une chance sur trois que ce qu'il souhaite se realise lorsqu'il choisit les deux points au hasard (et independamment l'un de l'autre) : son raisonnement heuristique s'appuie sur le fait que, des que l'un des points est xe, le second doit ^etre dans un arc de cercle de longueur=3. Ce calcul empirique de probabilite est fonde sur le fait que l'univers des possibles Ω choisi ici est le produit Ω = du cercle par lui-m^eme, la probabilite d'un produit d'arcs de cerclesIJetant longueur(I) longueur(J) Ceci est cependant ambigu, comme le faisait remarquer le mathematicien Joseph Bertrand en 1899. On peut en effet aussi reperer la corde par son milieuQet considerer comme ensemble d'evenements Ω l'ensemble des positions possibles de ce milieu apres trace de la corde, soit le disqueDdont est le bord; cette fois, l'univers des possibles n'est plus l'ensemble des paires de points de , mais l'ensemble des points du disque fermeD(0;1) (ces points reperent le milieu de la corde, voir la gure

1.1, schema central); avec ce choix, le fait que la corde ait une longueur superieure a

celle du triangle equilateral inscrit se rephrase en ≪le milieu de la corde est dans le disqueD′de rayon 1=2 et de centre l'origine≫; notre non-specialiste pourrait donc tout autant affirmer qu'il y a une chance sur 4 (puisque 1=4 represente le quotient de la surface deD′par la surface deD(0;1)) que son souhait se realise. On pourrait aussi reperer la corde (encore une fois apres l'avoir trace) par sa distanced2[0;1] a l'origine (voir la gure 1.1, schema de droite) et, en prenant comme univers des

1.2. MESURE DE PROBABILIT

E SUR UN ENSEMBLE FINI3

possibles [0;1], dire que l'evenement que l'on cherche est celui qui correspond au fait que cette distance soit inferieure ou egale a 1=2, soit l'intervalle [0;1=2], qui est de longueur 1=2; comme la longueur de [0;1] est normalisee egale a 1, la probabilite de notre evenement suivant cette troisieme interpretation vaudrait 1=2. Cet exemple (paradoxal) illustre le fait que la mise sous forme mathematique d'un probleme de nature probabiliste exige au prealable la denition rigoureuse de trois choses : { un ≪universΩdes possibles (les points de Ω peuvent par exemple per- mettre de reperer les resultats d'une epreuve, on les appelle pour cela ≪rea- lisations ≫de l'epreuve); c'est l'ubiquite de cet univers des possibles qui explique le paradoxe de Bertrand; { une famille de sous-ensembles de Ω candidats a pouvoir ^etremesures (la con- trainte etant que le mathematicien n'a que l'acces au denombrable pour en- visager le calcul de mesures); ce seront les ≪evenements aleatoires≫; { une regle enn pour ≪mesurer≫ chacun de ces evenements aleatoires, avec la convention que la mesure de l'univers des possibles Ω vaille 1; si Ω repre- sente (comme c'est souvent le cas) l'ensemble des resultats d'une certaine epreuve, alors la ≪mesure≫deAsera interpretee par notre non-specialiste comme le ≪pourcentage de chances≫qu'a le resultat de l'epreuve de≪tom- ber ≫dans l'evenement aleatoireA; on l'appellera (dans le contexte ou se deroule l'epreuve) ≪probabilitedeA≫. La regle pour mesurer les evenements aleatoires s'appelle ≪loi de probabilite≫regissant l'epreuve. Nous allons dans la suite de ce chapitre denir proprement les notions mathema- tiques consolidant ces idees intuitives. Le modele mathematique rigoureux (que nous ne ferons qu'esquisser ici) est du au mathematicien sovietique Andrei Kolmogorov (1903-1997).

1.2. Mesure de probabilite sur un ensemble ni

1.2.1. Generalites.Se donner uneprobabilitesur un ensemble ni Ω (ou

encore unemesure de probabilitesur cet ensemble), c'est par denition affecter a chacun des sous-ensemblesAde Ω un nombre reelP(A)2[0;1], ce en respectant les clauses suivantes :

8A;B2P(Ω); A\B=∅=)P(A[B) =P(A) +P(B)

P(Ω) = 1:(1.1)

Une fois ces deux regles posees, on dispose des regles de calcul suivantes :

P(∅) = 0

P(ΩnA) = 1P(A)8A2P(Ω)

P(A[B) =z

P(A) +P(B)P(A\B)8A;B2P(Ω)

P(A[B[C) =z

P(A) +P(B) +P(C)(z

P(B\C) +P(C\A) +P(A\B))

+P(A\B\C)8A;B;C2P(Ω)etc:(1.2)

41. UNIVERS DES POSSIBLES, PROBABILIT

ES, INDEPENDANCE ET CONDITIONNEMENT

On peut d'ailleurs etablir en exercice la formule generale, ditede Poincare:

P(A1[ [AN) =

N∑

j=1(1)j1∑

1j1< Remarque1.1.La donnee d'une probabilite sur un ensemble ni aNelements (que l'on notex1;:::;xN, par consequent Ω =fx1;:::;xNg) equivaut a celle d'un vecteur ligne [p1;:::;pN] d'entrees toutes dans [0;1] et veriant de plus∑N j=1pj= 1. On pose alors, pour chaquej= 1;:::;N,P(fxjg) =pjet, pour tout sous-ensembleA=fxj1;:::;xjkgde Ω (j1;:::;jketantknumeros distincts dansf1;:::;Ng),

P(A) =P(fxj1;:::;xjkg)=k∑

l=1P(fxjlg) =k∑ l=1p jl: D efinition1.1.L'ensemble ni Ω est appeleunivers des possibles. Leselements x

1,...,xNsont alors interpretes comme les resultats d'une epreuve. Toute partieAde

Ω est appeleeevenement aleatoire(l'evenement etant :≪le resultat de l'epreuve ap- partient aA≫). Les singletonsfxjg,j= 1;:::;N, sont appelesevenements aleatoires elementaires. Se donner uneprobabilitesur un ensemble ni Ω de cardinalN2Nrevient a xer la regle conditionnant l'epreuve dont Ω recense toutes les realisations possibles. L'applicationA2P(Ω)7!P(A) (ou encore, ce qui revient au m^eme ici, la donnee du vecteur ligne [p1;:::;pN],pj2[0;1],∑ jpj= 1) est diteloi de probabilitede l'epreuve. Exemple1.1 (l'exemple du lancer de de pipe ou non,cf.l'introduction de cette section).Supposons que l'experience consiste en le jet (une fois) d'un de a six faces. L'univers des possibles associe estf1;:::;6g. Dire que le de n'est pas pipe revient a dire que tous les resultats de l'experience sont affectes du m^eme ≪poids≫, c'est-a-dire que la probabilitePconditionnant l'experience est la probabilite dite uniforme, ou tous les evenements elementairesfjg,j= 1;:::;N, sont affectes du m^eme poidspj=P(fjg) = 1=6. Les affecter de poidspjnon tous egaux a 1=6 revient a dire que l'experience est faite avec un de pipe (ou sous des conditions qui nous ramenent a pareille situation, ce qui revient au nal au m^eme).

1.2.2. La loi uniforme discreteU(N).La loi uniforme sur un ensemble Ω

de cardinalNest celle ou le vecteur ligne [p1;:::;pN] est le vecteur [1=N;:::;1=N]. Pour tout sous-ensembleAde Ω, on a doncP(A) = 1=N. La simulation sous un logiciel de calcul scientique telMATLABse faitviala routinerand: la commande >> f=ceil(N.*rand(M,1)); permet de simulerMfois l'epreuve consistant a choisir un entier entre 1 etN, tous les choix etant equiprobables,i.e.affectes du poids 1=N. SousScilab, la routine correspondante est : function [f]= RndInt (1,M,1,N)

1.2. MESURE DE PROBABILIT

E SUR UN ENSEMBLE FINI51020304050607080901000

50
100
150
Figure 1.2.Histogramme deM= 10000 realisations d'une epreuve suivant une loi uniformeU(100). Il faut noter que la generation aleatoire d'entiers (entre 1 etN) suivant une loi uni- forme passe par l'etape consistant a choisir un ≪reel≫(exprime en virgule ottante) de maniere aleatoire dans ]0;N[, puis a l'arrondir (routineceil) a l'element de f1;:::;Ngimmediatement superieur. La routinerand(sousMATLAB) genere en effet un nombre en virgule ottante (tous les choix etant equiprobables) dans ]0;1]. Sur la gure 1.2, on a represente l'histogramme (obtenu suivant la commandehist(f,x), oux=1:N) correspondant a la repartition deM= 10000 tirages aleatoires d'un nombre entier entre 1 et 100 suivant le mecanisme de generation decrit ci-dessus (loi uniforme surf1;:::;100g). On notera que lorsqueMdevient grand, le pourcen- tage de tirages donnant comme resultat un entier donnexdef1;:::100gtend vers

1%, ce qui correspond au fait queP(fxg) = 1=100 pour toutx.

Remarque1.2.Lorsque l'on envisage les choses sous l'angle statistique, nous verrons que la loi uniforme merite aussi le qualicatif de ≪loi du risque pire≫. Cela se traduit concretement par le fait que l'histogramme de la gure 1.2 soit sensiblement ≪a niveau constant≫(ici en l'occurrence a peut pres 100).

1.2.3. LoibinomialeB(N;p)et approximations.SoitN2N. Le nombre

de parties akelements (0kN) de l'ensemble aN+ 1 elementsf0;:::;Ng est egal au coefficient binomial(N k)=N!=(k!(Nk)!). Supposons que l'ensemble Ω =f0;:::;Ngsoit interprete comme l'univers des possibles dans l'epreuve suivante : on totalise le nombreSNde≪pile≫obtenus lors d'une suite deNlancers d'une piece qui peut ^etre pipee, ces lancers etant consideres comme ≪independants≫les uns des autres

1. Il existe un nombrep2[0;1] (different de 1=2 si et seulement si

1. Il faut ici comprendre cette notion d'

≪independance≫de maniere heuristique; ceci sera precise ulterieurement.

61. UNIVERS DES POSSIBLES, PROBABILIT

ES, INDEPENDANCE ET CONDITIONNEMENT01020304050607080901000 100
200
300
400
500
600
700
800
900
1000
Figure 1.3.Histogramme deM= 10000 realisations suivant une loiB(100;0:3). la piece est pipee) tel que le pourcentage de chances de tomber sur ≪pile≫lors d'un lancer vaillep. Le vecteur ligne [p0;:::;pN] correspondant a la distribution de probabilite qui regit cette epreuve dont les resultats possibles (les valeurs possibles prises parSN) sontf0;:::;Ngest le vecteur ligne aN+ 1 entrees : (1p)N;(N 1) p(1p)N1;:::;(N k) p k(1p)Nk;:::;(N N1) p

N1(1p);pN]

La routine

>> f=binornd(N,p,1,M); permet de simulerMfois l'epreuve consistant a totaliser le nombre de≪pile≫ob- tenus au terme d'une partie de pile ou face aNlancers. SousScilab, la m^eme simulation s'effectue sous la routine function [f] = Binomial(1,M,p,N) Sur la gure 1.3, on a represente l'histogramme (obtenu suivant la commande hist(f,x), oux=0:N) correspondant a la repartition deM= 10000 bilans aleatoires S

100de sequences independantes de parties de pile ou face aN= 100 lancers

(avec icip= 0:3) suivant le mecanisme de generation decrit ci-dessus (loi bino- miale surf0;:::;100g). On notera que lorsqueMdevient grand, le pourcentage de realisations donnant comme resultat un entier donnekdef0;:::100gtend vers(100 k)pk(1p)100k, oup= 0:3. Dans le cas particulierN= 1, la loiB(p;1) s'ap- pelleloi de Bernoulli; l'univers des possibles est alors un ensemble a deux elements qui peut ^etre incarne parfP;Fg(lancer de pile ou face), ou encore parf0;1gou f;+g. Voici deux modeles classiques ou l'epreuve est regie par une loi binomiale, le premier d'inpiration ≪discrete≫, le second d'inspiration≪continue≫:

1.2. MESURE DE PROBABILIT

E SUR UN ENSEMBLE FINI7

{ Le tirage avec remise dans une urne contenantRboules rouges etBboules blanches (ces nombresRetBetant tous les deux superieurs au egaux a un entierN1 donne) : le nombre de boules rouges tirees au terme deN tirages successifs (effectues de maniere independantes les uns des autres) suit une loi binomialeB(N;p), avecp=R=(B+R). { Soit [0;T] un intervalle temporel. L'epreuve consiste a repeterNfois (de maniere independante) l'experience consistant a ≪marquer≫un point de [0;T], tous les marquages etant equiprobables (on dit que le marquage d'un point est ≪uniforme≫par analogie avec la terminologie utilisee dans le cas discret,cf.la sous-section 1.2.2, on y reviendra). Le nombre de points ainsi marques dans l'intervalle [t1;t2][0;T] suit une loi binomiale du type B(N;(t2t1)=T). La presentation de ce modele≪continu≫d'epreuve regie par la loi binomiale prepare ici l'approche de la distribution de Poisson (sous- section 1.3.1). LorsqueNdevient grand, les calculs des coefficients binomiaux deviennent nume- riquement hors de portee, sauf a prendre le logarithme et a utiliser la formule de Stirling que nous mentionnons plus loin (en (1.7)). Il convient donc de connaitre des approximations des probabilites des evenementsA f0;:::;Nglorsque la loi en jeu est la loi binomialeB(N;p), avecNgrand. Ces approximations sont de deux types : { LorsqueN! 1,p!0 avecNp=restant constant, on constate que (1.4)limN!+1( N k) p k(1p)Nk=k k!e: En pratique, on peut considerer une telle approximation (1.5) (N k) p k(1p)Nk≃(Np)k k!eNp valable lorsqueN30 etNp5 ouN50 etp <1=10. { On observe aussi (pour l'instant empiriquement,cf.par exemple l'histo- gramme gurant sur la gure 1.3) que, sipest xe etNest assez grand, [x]∑ k=0( N k) p k(1p)Nk1 p

Np(1p)∫

x 1 exp( (tNp)2

2Np(1p))

dt

Cp2+ (1p)2

p(1p)1 p N ([x] :=floor[x]; x2[0;N]); C0:7655:(1.6) On peut fonder ici ce resultat (admis pour l'instant, version quantiee du celebre theoreme de Moivre-Laplace dont nous reparlerons) pour une part sur laformule de Stirling (1.7)q!≃p

2 qq+1=2eqq!+1;

mais on le justiera plus loin dans ce cours en enoncant le ≪Theoreme Limite

Central

≫(TLC) dans la section 2.2. La version quantiee (tres utile comme garde-fou≫) que nous citons pour l'instant ici en (1.6) est letheoreme de

81. UNIVERS DES POSSIBLES, PROBABILIT

ES, INDEPENDANCE ET CONDITIONNEMENT

Berry-Esseen

2. L'approximation

[x]∑ k=0( N k) p k(1p)Nk≃ 1 p

Np(1p)∫

x 1 exp( (tNp)2

2Np(1p))

dtquotesdbs_dbs29.pdfusesText_35

[PDF] Estimation et intervalle de confiance - AgroParisTech

[PDF] Estimation paramétrique

[PDF] QUEL SERA LE MONTANT DE VOTRE PENSION EN 2008, 2012

[PDF] Estimations et intervalles de confiance - Institut de Mathématiques

[PDF] Séance 5 : Exercices récapitulatifs sur l 'estimation ponctuelle

[PDF] Intentions de vote - Harris Interactive

[PDF] Cours 5: Inférences: Estimation, Echantillonnage et Tests

[PDF] Estimer ou mesurer une longueur Connaître les différentes unités et

[PDF] LA ESTIMULACION TEMPRANA - OEI

[PDF] Avis aux Candidats ? l accès ? l ESTM admis sur les listes d attentes

[PDF] Résultats de la sélection pour l 'accès au Bachelor of Electrical

[PDF] La lettre de l - ESTP Paris

[PDF] Nouveauté Filière Apprentissage Européen - EDHEC Business School

[PDF] Estran et marée - Académie d 'Amiens

[PDF] l 'île d 'oléron - DREAL Nouvelle-Aquitaine