[PDF] SA option problèmes économiques et sociaux - Université de
[PDF] procedure civile second semestre - FACULTE DE DROIT
[PDF] plan general procedure civile annee 2016 2017 - UFR droit
[PDF] faculte de droit juillet 2017 iej plan du cours de procedure civile
[PDF] le code de procedure civile, commerciale et - Green Countries
[PDF] Code de procédure civile
[PDF] la production audiovisuelle aidée - CNC
[PDF] LA PROGRAMMATION POUR les élèves ingénieurs débutants
[PDF] PROPAGATION des ONDES ELECTROMAGNETIQUES
[PDF] Exploration minière - Mineralinfo
[PDF] Les provisions- Comptabilité- 2 Bac Sciences Economiques - 9alami
[PDF] College des enseignants de psychiatrieECN-referentiel - AESP
[PDF] Psychologie du développement : de la naissance ? - Psychaanalyse
[PDF] Cours de psychologie Tome 1 - les bases - Dunod
[PDF] LICENCE 1 #8211 Semestre 1 - Université Rennes 2
Cours Statistiques L2
Université Nice Sophia-Antipolis
François Delarue
Table des matières
Chapitre 1. Rappels de Probabilités 5
1. Espaces de probabilité et Variables aléatoires 5
2. Espérances et variances 7
Chapitre 2. Modèles Statistiques et Estimateurs. (Rappels de
Probabilités.) 11
1. Notion de Modèle Statistique 11
2. Notion d"estimateur 17
Chapitre 3. Utilisation et construction d"Estimateurs. 23
1. Intervalles et Régions de Confiance 23
2. Estimation empirique 27
Chapitre 4. Chapitre 4. Modèles Gaussiens. 37
1. Rappels : Distribution Gaussienne 37
2. Construction d"intervalles de confiance pour la moyenne 39
3. Construction d"intervalle de confiance pour l"écart-type 44
Chapitre 5. Chapitre 5. Tests. 47
1. Principes 47
2. Notions générales et autres exemples 49
3. Tests unilatères 51
3
CHAPITRE 1
Rappels de Probabilités
1. Espaces de probabilité et Variables aléatoires
1.1. Espaces de probabilité.Un espace de probabilité est un triplet
;A;P)modélisant une ou plusieurs expériences : (1) désigne un univers contenant l"ensemble des issues possibles de la ou des expériences. (Dans le cas du lancer de dé, =f1;:::;6g2.) (2)Adésigne une collection de parties de , décrivant les événements observables à la suite de la ou des expériences modélisées. (3)Pest une mesure de probabilité permettant de mesurer la taille des
événements.
Exemple 1. (Cas fini.)Lorsque
est de cardinal fini,Aest usuellement choisie égale àP( ). Le cas échéant,Pest une mesure de probabilité s"il s"agit d"une application deP( )à valeurs dans[0;1]vérifiant (1.1)P( ) = 1 etP(A[B) =P(A) +P(B); A\B=;:
Exemple 2. (Cas dénombrable.)Lorsque
est dénombrable,Aest aussi usuellement choisie comme l"ensemble des parties. Par ailleurs, l"axiome (1.5) est renforcé : (1.2)P[ n1A n =X n1P(An); Ai\Aj=;sii6=j: Exemple 3. (Cas non dénombrable.)Le problème est beaucoup plus compliqué. La collectionAest rarement égale à l"ensemble des parties. Elle est supposée contenir , être stable par passage au complémentaie et par réunion dénombrable. Une mesure de probabilité est une application, deA dans[0;1], vérifiant (1.5) et (1.4).
1.2. Variables aléatoires.Une variable aléatoire permet de décrire
une expérience ou un phénomène spécifique. Précisément, il s"agit d"une ap- plication de dansRtelle que, pour tousa;b2R[ f1g, les ensembles f!:X(!)2(a;b)g(ici, les parenthèses doivent être comprises comme]ou [) sont dansA, i.e. peuvent êtres mesurés. En pratique, nous noteronsfX2(a;b)gau lieu def!:X(!)2(a;b)g. 5 6 La loi d"une variable aléatoire décrit le hasard selon lequel se répartissent les issues de l"expérience considérée. Elle est donnée par l"application P
X: (a;b) intervalle deR7!PfX2[a;b]g:
En pratique, il est fréquent d"oublier de préciser l"espace de probabilité et de se focaliser simplement sur une variable aléatoire de loi donnée. Par exemple, le lancer d"un dé peut être modélisé par une variable aléatoireX de loi P
X(f1g) =PX(f2g) ==PX(f6g) =16
En effet, lorsque la variable aléatoire est à valeurs discrètes (i.e. a au plus un nombre dénombrables d"images), il est suffisant de calculer les poids avec lesquels elle prend chacune des valeurs. Exemple 1.Le lancer à pile ou face équilibré est modélisé par une va- riable aléatoireX: ! f0;1gde poids(1=2;1=2)surf0;1g, i.e. P
X(f0g) =PX(f1g) =12
Lorsque la pièce est supposée déséquilibrée, les poids sont de la forme(1 p;p), avecpdans]0;1[. La loi est appelée loi de Bernoulli de paramètrep.
On noteX B(p).
Exemple 2.Le nombre d"apparitions d"un phénomène rare sur une très longue période est modélisé par une variable aléatoireX: !Nde loi de
Poisson de paramètre >0:
8k2N;PX(fkg) =kk!exp():
On noteX P().
Lorsque la variable aléatoire prend un nombre non dénombrable de va- leurs, il ne suffit plus de calculer les poids des singletons pour la connaître. Il est en revanche possible de décrire la loi à travers la donnée d"une fonction de densité, c"est-à-dire d"une fonction continue (ou éventuellement continue par morceaux), positive et d"intégrale surRégale à 1.
Précisément,
Définition.Une variableX:
!Rest dite de loi de densitéfX,fX désignant une densité, si
8ab;PXf(a;b)g=Z
b a f
X(x)dx:
(Ici,aetbpeuvent être infinis.) 7 Exemple 3.Nous appelons densité gaussienne centrée réduite la fonction x2R7!1p2expx22 Il s"agit en effet d"une fonction (positive) d"intégrale égale à 1. Une variable aléatoire dont la loi est donnée par cette densité est appelée loi gaussienne (ou normale) centrée réduite. Plus généralement, pour deux paramètresm2Ret >0, la fonction x2R7!1p2exp(xm)2 2; est une densité. (Preuve en cours?) Une variable aléatoire dont la loi est don- née par cette densité est appelée loi gaussienne (ou normale) de paramètres met2. On noteX N(m;2). En pratique, les variables de loi gaussienne décrivent les erreurs de mesure.
1.3. Fonction de répartition. Définition.Etant donnée une variable
aléatoireX, la fonction de répartition deXest la fonction F
X:t2R7!PfXtg:
La fonction de répartition caractérise la loi deX: deux variables aléatoires de même fonction de répartition ont même loi. Par extension, il est possible de parler de la fonction de répartition d"une loi, sans faire explicitement référence à la variable aléatoire sous-jacente. Exemple 4.La loi exponentielle de paramètre >0est la loi de densité p :x7!1x0exp(x):
Sa fonction de répartition est donnée par
F:t7!1 sit0;
1exp(t) sit >0:
2. Espérances et variances
2.1. Espérance d"une variable de Bernoulli.Commençons par rap-
peler la définition de l"espérance dans le cas d"une variable indicatrice : Définition.Etant donnés un espace de probabilité( ;A;P)et un évé- nementA, on appelle indicatrice deAla variable aléatoire 1 A:!2
7!0 si!62A;
1 si!2A:
Il s"agit d"une variable aléatoire à valeurs dansf0;1gde loi de Bernoulli de paramètreP(A). Par définition, son espérance, notéeE[1A]est égale àP(A). 8 Cette définition s"interprète facilement au regard de la loi des grands nombres, rappelée plus tard. Expérimentalement, il s"agit de lancer une série de pièces à pile ou face selon un paramètre de succèsp. Intuitivement, il est légitime d"espérer que le nombre moyen de succès en temps long soit proche dep: ce nombre moyen de succès s"écrit, en tempsn, comme la moyenne empirique 1n n X i=11 Ai; oùAidésigne l"événement : leième lancer est un succès. Cette moyenne empirique apparaît comme un gain moyenné, celui obtenu en ramassant 1 euro à chaque succès. Ici, toutes les variables1Ai,i1, ont même loi : leur gain théorique ou mathématique, ou encore leur espérance mathématique, est posé égal à la limite du gain moyenné au cours du temps, i.e. égal àp. Cette définition, remarquable, consiste à identifier une moyenne au cours du temps avec une moyenne sur un espace. En effet,E[1A]peut se comprendre comme
E[1A] = 0Pf1A= 0g+ 1Pf1A= 1g;
i.e. comme un barycentre.
2.2. Cas des variables discrètes.Dans le cas des variables aléatoires
discrètes (i.e. avec un nombre au plus dénombrable de valeurs), la définition barycentrique demeure : Définition.Etant donnée une variable aléatoireXà valeurs dans un ensemble finifx1;:::;xng, l"espérance deXest donnée :
E(X) =nX
i=1x iPfX=xig: LorsqueXest à valeurs dans un ensemble dénombrablef(xn); n1g, il est nécessaire de vérifier que la série est convergente, i.e. que le barycentre est bien défini. Pour des raisons un peu techniques, l"espérance n"est considérée comme définie que lorsque la série est absolument convergente (rappelons par exemple que la valeur d"une série semi-convergente est sensible à l"ordre de la sommation, de sorte que la notion de barycentre n"a, le cas échéant, aucun sens canonique). De fait, siX n1jxnjPfX=xng<+1; nous posons
E(X) =X
n1x nPfX=xng: Remarquons que l"espérance ne dépend que de la loi de la variable aléatoire. (De fait, nous parlerons par extension de l"espérance d"une loi.) 9 Exemple 1.Rappelons que la loi binomiale de paramètresnetpest la loi surf0;:::;ngde poids p k=Cknpk(1p)nk: Alors, l"espérance de la loi binomiale est donnée parnp. (Preuve en cours?) Exemple 2.L"espérance de la loi de Poisson de paramètreest. Cette notion barycentrique se généralise au cas de la composée d"une variableXet d"une fonctionfdeRdansR. Proposition.SoientXune variable à valeurs dans un ensemble dénom-quotesdbs_dbs23.pdfusesText_29