[PDF] [PDF] Cours Statistiques L2 Université Nice Sophia-Antipolis François

Rappels de Probabilités 5 1 Espaces de probabilité et Variables aléatoires 5 2 Espérances et variances 7 Chapitre 2 Modèles Statistiques et Estimateurs



Previous PDF Next PDF





[PDF] Cours Probabilités L2 Université Nice Sophia-Antipolis François

On lance deux dés à 6 faces Donner la loi de la somme des deux résultats obtenus Exercice 3 2 Etant donnée une variable aléatoire X de loi uniforme sur



[PDF] Cours Statistiques L2 Université Nice Sophia-Antipolis François

Rappels de Probabilités 5 1 Espaces de probabilité et Variables aléatoires 5 2 Espérances et variances 7 Chapitre 2 Modèles Statistiques et Estimateurs



[PDF] Cours Produits dérivés M1 IM Université Nice Sophia-Antipolis

Il n'est pas non plus possible de construire de probabilité risque neutre 2 4 Arbitrage Au regard de la discussion menée au chapitre 1, il est possible de définir la 



[PDF] UNIVERSITÉ NICE SOPHIA ANTIPOLIS CAHIER DE LICENCE

15 2 UE M S4 2 : Probabilités et introduction à la Statistique Calcul différentiel , le cours Algèbre et géométrie, le cours Analyse économétrique (commun avec mathématiques et en physique sont très développées sur Nice et Sophia Antipolis aussi bien que dans Responsable du cours : François-Xavier Dehon



[PDF] Licence MASS 2000-2001 - Jean-François Burnol

Université de Nice Sophia–Antipolis Licence cсJean-François Burnol, 2001 On a vu dans l'exercice précédent que la probabilité de la présence d'une



[PDF] Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice

Maîtrise MASS, Université de Nice – Sophia Antipolis, c J -F Burnol 2000 1 Maîtrise MASS version du 14 mai 2000, c Jean-François Burnol, 2000 Note : cet ailleurs bénéficié pour la préparation de ce cours du polycopié “Prévision” de Monique somme pour t impair, montrer que avec probabilité 1 on a lim T → ∞ 1



[PDF] Parcours universitaire - Laboratoire de Probabilités, Statistique et

Ces enseignements, qu'il s'agisse de cours ou de travaux dirigés, ont couvert la quasi- Qiming Du (postdoctorant, Sorbonne Université), François Petit (Maıtre de Séminaire de Probabilités et Statistiques, Université Nice Sophia Antipolis 

[PDF] SA option problèmes économiques et sociaux - Université de

[PDF] procedure civile second semestre - FACULTE DE DROIT

[PDF] plan general procedure civile annee 2016 2017 - UFR droit

[PDF] faculte de droit juillet 2017 iej plan du cours de procedure civile

[PDF] le code de procedure civile, commerciale et - Green Countries

[PDF] Code de procédure civile

[PDF] la production audiovisuelle aidée - CNC

[PDF] LA PROGRAMMATION POUR les élèves ingénieurs débutants

[PDF] PROPAGATION des ONDES ELECTROMAGNETIQUES

[PDF] Exploration minière - Mineralinfo

[PDF] Les provisions- Comptabilité- 2 Bac Sciences Economiques - 9alami

[PDF] College des enseignants de psychiatrieECN-referentiel - AESP

[PDF] Psychologie du développement : de la naissance ? - Psychaanalyse

[PDF] Cours de psychologie Tome 1 - les bases - Dunod

[PDF] LICENCE 1 #8211 Semestre 1 - Université Rennes 2

Cours Statistiques L2

Université Nice Sophia-Antipolis

François Delarue

Table des matières

Chapitre 1. Rappels de Probabilités 5

1. Espaces de probabilité et Variables aléatoires 5

2. Espérances et variances 7

Chapitre 2. Modèles Statistiques et Estimateurs. (Rappels de

Probabilités.) 11

1. Notion de Modèle Statistique 11

2. Notion d"estimateur 17

Chapitre 3. Utilisation et construction d"Estimateurs. 23

1. Intervalles et Régions de Confiance 23

2. Estimation empirique 27

Chapitre 4. Chapitre 4. Modèles Gaussiens. 37

1. Rappels : Distribution Gaussienne 37

2. Construction d"intervalles de confiance pour la moyenne 39

3. Construction d"intervalle de confiance pour l"écart-type 44

Chapitre 5. Chapitre 5. Tests. 47

1. Principes 47

2. Notions générales et autres exemples 49

3. Tests unilatères 51

3

CHAPITRE 1

Rappels de Probabilités

1. Espaces de probabilité et Variables aléatoires

1.1. Espaces de probabilité.Un espace de probabilité est un triplet

;A;P)modélisant une ou plusieurs expériences : (1) désigne un univers contenant l"ensemble des issues possibles de la ou des expériences. (Dans le cas du lancer de dé, =f1;:::;6g2.) (2)Adésigne une collection de parties de , décrivant les événements observables à la suite de la ou des expériences modélisées. (3)Pest une mesure de probabilité permettant de mesurer la taille des

événements.

Exemple 1. (Cas fini.)Lorsque

est de cardinal fini,Aest usuellement choisie égale àP( ). Le cas échéant,Pest une mesure de probabilité s"il s"agit d"une application deP( )à valeurs dans[0;1]vérifiant (1.1)P( ) = 1 etP(A[B) =P(A) +P(B); A\B=;:

Exemple 2. (Cas dénombrable.)Lorsque

est dénombrable,Aest aussi usuellement choisie comme l"ensemble des parties. Par ailleurs, l"axiome (1.5) est renforcé : (1.2)P[ n1A n =X n1P(An); Ai\Aj=;sii6=j: Exemple 3. (Cas non dénombrable.)Le problème est beaucoup plus compliqué. La collectionAest rarement égale à l"ensemble des parties. Elle est supposée contenir , être stable par passage au complémentaie et par réunion dénombrable. Une mesure de probabilité est une application, deA dans[0;1], vérifiant (1.5) et (1.4).

1.2. Variables aléatoires.Une variable aléatoire permet de décrire

une expérience ou un phénomène spécifique. Précisément, il s"agit d"une ap- plication de dansRtelle que, pour tousa;b2R[ f1g, les ensembles f!:X(!)2(a;b)g(ici, les parenthèses doivent être comprises comme]ou [) sont dansA, i.e. peuvent êtres mesurés. En pratique, nous noteronsfX2(a;b)gau lieu def!:X(!)2(a;b)g. 5 6 La loi d"une variable aléatoire décrit le hasard selon lequel se répartissent les issues de l"expérience considérée. Elle est donnée par l"application P

X: (a;b) intervalle deR7!PfX2[a;b]g:

En pratique, il est fréquent d"oublier de préciser l"espace de probabilité et de se focaliser simplement sur une variable aléatoire de loi donnée. Par exemple, le lancer d"un dé peut être modélisé par une variable aléatoireX de loi P

X(f1g) =PX(f2g) ==PX(f6g) =16

En effet, lorsque la variable aléatoire est à valeurs discrètes (i.e. a au plus un nombre dénombrables d"images), il est suffisant de calculer les poids avec lesquels elle prend chacune des valeurs. Exemple 1.Le lancer à pile ou face équilibré est modélisé par une va- riable aléatoireX: ! f0;1gde poids(1=2;1=2)surf0;1g, i.e. P

X(f0g) =PX(f1g) =12

Lorsque la pièce est supposée déséquilibrée, les poids sont de la forme(1 p;p), avecpdans]0;1[. La loi est appelée loi de Bernoulli de paramètrep.

On noteX B(p).

Exemple 2.Le nombre d"apparitions d"un phénomène rare sur une très longue période est modélisé par une variable aléatoireX: !Nde loi de

Poisson de paramètre >0:

8k2N;PX(fkg) =kk!exp():

On noteX P().

Lorsque la variable aléatoire prend un nombre non dénombrable de va- leurs, il ne suffit plus de calculer les poids des singletons pour la connaître. Il est en revanche possible de décrire la loi à travers la donnée d"une fonction de densité, c"est-à-dire d"une fonction continue (ou éventuellement continue par morceaux), positive et d"intégrale surRégale à 1.

Précisément,

Définition.Une variableX:

!Rest dite de loi de densitéfX,fX désignant une densité, si

8ab;PXf(a;b)g=Z

b a f

X(x)dx:

(Ici,aetbpeuvent être infinis.) 7 Exemple 3.Nous appelons densité gaussienne centrée réduite la fonction x2R7!1p2expx22 Il s"agit en effet d"une fonction (positive) d"intégrale égale à 1. Une variable aléatoire dont la loi est donnée par cette densité est appelée loi gaussienne (ou normale) centrée réduite. Plus généralement, pour deux paramètresm2Ret >0, la fonction x2R7!1p2exp(xm)2 2; est une densité. (Preuve en cours?) Une variable aléatoire dont la loi est don- née par cette densité est appelée loi gaussienne (ou normale) de paramètres met2. On noteX N(m;2). En pratique, les variables de loi gaussienne décrivent les erreurs de mesure.

1.3. Fonction de répartition. Définition.Etant donnée une variable

aléatoireX, la fonction de répartition deXest la fonction F

X:t2R7!PfXtg:

La fonction de répartition caractérise la loi deX: deux variables aléatoires de même fonction de répartition ont même loi. Par extension, il est possible de parler de la fonction de répartition d"une loi, sans faire explicitement référence à la variable aléatoire sous-jacente. Exemple 4.La loi exponentielle de paramètre >0est la loi de densité p :x7!1x0exp(x):

Sa fonction de répartition est donnée par

F:t7!1 sit0;

1exp(t) sit >0:

2. Espérances et variances

2.1. Espérance d"une variable de Bernoulli.Commençons par rap-

peler la définition de l"espérance dans le cas d"une variable indicatrice : Définition.Etant donnés un espace de probabilité( ;A;P)et un évé- nementA, on appelle indicatrice deAla variable aléatoire 1 A:!2

7!0 si!62A;

1 si!2A:

Il s"agit d"une variable aléatoire à valeurs dansf0;1gde loi de Bernoulli de paramètreP(A). Par définition, son espérance, notéeE[1A]est égale àP(A). 8 Cette définition s"interprète facilement au regard de la loi des grands nombres, rappelée plus tard. Expérimentalement, il s"agit de lancer une série de pièces à pile ou face selon un paramètre de succèsp. Intuitivement, il est légitime d"espérer que le nombre moyen de succès en temps long soit proche dep: ce nombre moyen de succès s"écrit, en tempsn, comme la moyenne empirique 1n n X i=11 Ai; oùAidésigne l"événement : leième lancer est un succès. Cette moyenne empirique apparaît comme un gain moyenné, celui obtenu en ramassant 1 euro à chaque succès. Ici, toutes les variables1Ai,i1, ont même loi : leur gain théorique ou mathématique, ou encore leur espérance mathématique, est posé égal à la limite du gain moyenné au cours du temps, i.e. égal àp. Cette définition, remarquable, consiste à identifier une moyenne au cours du temps avec une moyenne sur un espace. En effet,E[1A]peut se comprendre comme

E[1A] = 0Pf1A= 0g+ 1Pf1A= 1g;

i.e. comme un barycentre.

2.2. Cas des variables discrètes.Dans le cas des variables aléatoires

discrètes (i.e. avec un nombre au plus dénombrable de valeurs), la définition barycentrique demeure : Définition.Etant donnée une variable aléatoireXà valeurs dans un ensemble finifx1;:::;xng, l"espérance deXest donnée :

E(X) =nX

i=1x iPfX=xig: LorsqueXest à valeurs dans un ensemble dénombrablef(xn); n1g, il est nécessaire de vérifier que la série est convergente, i.e. que le barycentre est bien défini. Pour des raisons un peu techniques, l"espérance n"est considérée comme définie que lorsque la série est absolument convergente (rappelons par exemple que la valeur d"une série semi-convergente est sensible à l"ordre de la sommation, de sorte que la notion de barycentre n"a, le cas échéant, aucun sens canonique). De fait, siX n1jxnjPfX=xng<+1; nous posons

E(X) =X

n1x nPfX=xng: Remarquons que l"espérance ne dépend que de la loi de la variable aléatoire. (De fait, nous parlerons par extension de l"espérance d"une loi.) 9 Exemple 1.Rappelons que la loi binomiale de paramètresnetpest la loi surf0;:::;ngde poids p k=Cknpk(1p)nk: Alors, l"espérance de la loi binomiale est donnée parnp. (Preuve en cours?) Exemple 2.L"espérance de la loi de Poisson de paramètreest. Cette notion barycentrique se généralise au cas de la composée d"une variableXet d"une fonctionfdeRdansR. Proposition.SoientXune variable à valeurs dans un ensemble dénom-quotesdbs_dbs23.pdfusesText_29