PDFprof.com Search Engine



Probabilités et statistiques

PDF
Images
List Docs
  • Quelle est la différence entre statistique et probabilité ?

    Donnons de premières définitions générales : la théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude ; la statistique consiste à recueillir, traiter, interpréter et présenter un ensemble de données.

  • Quel est le lien entre les probabilités et les statistiques ?

    Les statistiques sont l'étude des données collectées à partir d'une population.
    Les probabilités sont une branche des mathématiques qui étudie la fréquence avec laquelle un certain événement se produit.

  • Quel est le but de la probabilité ?

    En 1361, le calcul des probabilités est alors une « science dont le but est de déterminer la vraisemblance d'un évènement ».

  • Pour calculer la probabilité d'un événement, vous pouvez simplement utiliser la formule générale de probabilité : P = n/N.
    Vous devez donc connaître le nombre d'issues favorables et le nombre total d'issues possibles.

Probabilités et statistiques
Introduction au calcul des probabilités et à la statistique
Probabilités et Statistiques polycopié de L3
Table des matières
Les processus chimiques
Étude de processus physico-chimiques d'intérêt pour la combustion
Principaux processus physico-chimiques et biologiques intervenant
La naturalité des processus chimiques
Risques chimiquespdf
Eléments de Chimie des Processus Biologiques et de Chimie
Sur les processus chimiques au cours de la division cellulaire
Next PDF List

Probabilités et statistiques

Jean-Marc FédouL'objet de ce cours est d'une part de réviser les bases de probabilités et de statistiques de l'an dernier, en complétant les rappels et compléments de mathématiques.

Nous aborderons également des problèmes de corrélaton et d'apprentissage.

Variables aléatoires discrètes (rappels)Variables aléatoires continues (rappels)Vecteurs aléatoires-Algèbre linéaireEstimation statistiqueTests statistiquesApprentissageOn utilisera le logiciel Mathematica comme outil d'aide et de test.

2) M1Cours1.nb = { }évènement aléatoire - ={ } réalisé {} M1Cours1.nb 34 M1Cours1.nbM1Cours1.nb 5p()=1L'évènement impossible est l'ensemble vide et p()=0Si AB, alors p(A)p(B)Si A et B sont incompatibles, c'est à dire lorsque AB=, alors p(AB)=p(A)+p(B)L'évènement contraire de A est A, complémentaire de A dans , et vérifiep(A)=1- p(A)Si A et B ne sont pas incompatibles, alorsp(AB)=p(A)+p(B)-p(AB)6 M1Cours1.nbDeux évènements sont dits indépendants lorsque le résultat de l'un ne dépend pas du résultat de l'autre.Exemples.

Tous les problèmes de tirage avec remiseUne urne contient 3 boules blanches et 5 boules noires. Quelle est la probabilité d'obtenir deux boules blanches en 2 tirages avec remise. M1Cours1.nb 7Définition. Soient A et B deux évènements avec p(A)0. La probabilité conditionnelle de B sachant A est p(BA)=p(AB)p(A)Exemples. Tous les problèmes de tirage sans remiseUne urne contient 3 boules blanches et 5 boules noires.

Quelle est la probabilité d'obtenir deux boules blanches en 2 tirages sans remise. 8 M1Cours1.nbM1Cours1.nb 9Definition.

Une variable aléatoire est une fonction de l'ensemble des évènements dans (pour le moment).'[_] = [ [ {}] ] / [] = = = [[] {}][ {} ]0.000960.00980.044440.115650.204260.245740.204720.119360.044670.009490.000910.20.40.60.81.00.050.100.150.200.2510 M1Cours1.nbDefinition.

La loi de probabilité d'une variable aléatoire X sur un univers est la fonction de dans [0,1] définie par f(x)=p(X=x) .Certains auteurs l'appellent également fonction de densité, ici nous réserverons le terme de fonction de densités aux variable aléatoires continues.

La loi de probabilité de la variable aléatoire somme de deux dés est définie par le tableau suivant[_] = [{ }] + [{ }] = = = [[] {}] = [{ [ ] / } { }][ ]246810120.050.100.15M1Cours1.nb 11## () = ( = )12 M1Cours1.nb = [[] {}] = [] = [ ] = [[ ] { }] / [][ [] + ]{{ } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { } { }}{ }1361181121953616536191121181362 3 4 56 7 8 910 11 12M1Cours1.nb 13Definition.

La fonction de répartition d'une variable aléatoire X sur un univers est la fonction de dans [0,1] définie par F(x)=p(Xx) . () = ( = )La fonction de répartition de la variable aléatoire somme de deux dés est définie par le tableau suivant () = ( )= 14 M1Cours1.nb = [][ [] + ] 136112165185127121318561112353612 3 4 56 7 8 910 11 120.00.20.40.60.81.

0) M1Cours1.nb 15Une loi de probabilité prend des valeurs entre 0 et 1La somme des valeurs de la loi de probabilité est égale à 1 : i=1Nf(xi)=1La fonction de partition est positive ou nulle, croissante, et sa plus grande valeur est 116 M1Cours1.nbL'espérance E(X) d'une variable aléatoire X correspond à la moyenne des valeurs que l'on obtiendrait en faisant une infinité de tirages.

C'est la moyenne des valeurs de la variable aléatoire pondérées par leur probabilitéE(X)=i=1Nxip(X = xi)=i=1Nxif(xi) () = ( = ){{ } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { } { }}[ ][[ ]]{ }M1Cours1.nb 17La variance Var(X) d'une variable aléatoire X correspond à la moyenne de carrés des distances à l'espérance E(X), que l'on obtiendrait en faisant une infinité de tirages.

Var(X) =E (X -E(X))2 =i=1N(xi-E(X))2p(X = xi)=i=1N(xi-E(X))2f(xi)L'écart-type d'une variable aléatoire X est la racine carrée de la variance=Var(X) '' () = ( = ){{ } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { }{ } { } { } { } { } { } { } { } { } { } { } { } { }}18 M1Cours1.nb = [ ] = [][( - )][()][()] - [()][]{ }M1Cours1.nb 19ThéorèmedeKönig :Var(X) = EX2-E (X)220 M1Cours1.nbLe problème est, à partir de deux variables aléatoires discrètes X et Y, indépendantes, de déterminer la loi de probabilité de la variable aléatoire S=X+Y.

Pour simplifier, on supposera que X et Y sont à valeurs dans .La loi de probabilité de S est alorsP(S=x)=Pi=0x(X =i Y =x -i) ces évènements sont disjoints donc=i=0xP(X=i Y=x-i) X et Y sont indépendantes donc=i=0xP(X=i)P(Y=x-i) par définition de f et g=i=0xf(i)g(x -i)*i=xf (i)g(x-i)M1Cours1.nb 21*i=xf(i)g(x- i)'X=ni=nXiXi'(X) =n22 M1Cours1.nbUne variable aléatoire est dite centrée si son espérance est nulle.Remarque.

Si X est une variable aléatoire d'espérance E(X) alors X-E(X) est centréeUne variable aléatoire est dite réduite si son écart type est égal à 1.Remarque.

Si X est une variable aléatoire de variance 2 alors X est réduiteUne variable aléatoire réduite et centrée est dite standardiséeRemarque.

Si X est une variable aléatoire d'espérance E(X) et de variance 2 alors X-E(X) est réduiteM1Cours1.nb 23Une variable aléatoire de Bernouilli est une variable aléatoire discrète qui ne peut prendre que les deux valeurs 1 et 0 avec probabilité p et q=1-p. () = ( = ) p(X = ) =p(X = ) =24 M1Cours1.nbSi X est une variable de Bernouilli de paramètre p,• E(X)=p• V(X)=pqM1Cours1.nb 25On appelle Distribution Binomiale la répétition de n épreuves de Bernouilli indépendantes où la variable aléatoire est le nombre de succès (obtention de la valeur 1).

Cela revient à tirer au hasard un mot de longueur n sur l'alphabet {0,1}, chaque 0 ayant une probabilité q d'apparaitre et chaque 1 un probabilité p.

La probabilité qu'un mot particulier w =w1w2 wn apparaisse ne dépend que du nombre de 0 et de 1 dans w et est égal à pw1qw0.Il y a nk mots de longueur n ayant exactement k lettres égales à 1et on en déduit que p(X =k)=nkpkqn-k26 M1Cours1.nb[[{[[[[ ] ] { }] {{- } {- }} {[] [ ] [{ * + }]} { }][[[[ ] ] { }] {{- } {- }} {[] [ ] [{ * + }]} { }]}]{{ } }{{ } }]M1Cours1.nb 27 28 M1Cours1.nbSi X suit une Distribution Binomiale de paramètres n et p,• E(X)=np• V(X)=npqM1Cours1.nb 29On appelle Distribution géométrique la répétition d'épreuves de Bernouilli indépendantes jusqu'à obtention d'un succès (obtention de la valeur 1), où la variable aléatoire est le nombre de répétitions.

Dire que X=k signifie que les (k-1)premiers tirages ont été défavorables et qu'un succès au k-ième tirage a été réalisé, on a doncp(X =k)=qk-1p30 M1Cours1.nb[[{[[[[] ] { }] {[] [ ] [{ + }]}][[[[] ] { }] {[] [ ] [{ + }]}]}] {{ } }]0.00.10.20.30.40.51.

0) M1Cours1.nb 310.00.20.40.60.832 M1Cours1.nb = [ ( - ) { }] / ( - ) = [([ ( - ) { }] / ( - )) - ] - Si X suit une Distribution Géométrique de paramètres n et p,• E(X)=1p• V(X)=qp2La somme de deux Distributions Géométriques de paramètres n1, p et n2, p est la distribution géométrique de paramètre n1 + n2,pM1Cours1.nb 33La distribution de Poisson intervient dans tous les problèmes d'occurences d'évènements rare en un laps de temps fixé.On peut considérer soit le nombre d'occurences de ces évènements dans un laps de temps fixé, soit l'intervalle de temps entre deux évènements consécutifs. À titre d'exemple, une unité de production emploie 300 ouvriers et le taux moyen d'absentéisme est de 5 %.

Sur le site, il est quasi impossible de trouver 25 intérimaires en même temps.

Quel risque y a-t-il d'enregistrer au moins 25 absences simultanément ? Le paramètre de la loi de Poisson est de 300 × 0,05 = 15.

Ensuite, soit on additionne les valeurs trouvées sur une table de cette loi, soit on fait le calcul.

Par exemple, sur Excel, =1-LOI.POISSON(24 ;15 ;VRAI) nous donne une probabilité de 0,01116, soit 1,1 %.-1 [1[2]&6]D"autres exemples concernent par exemples, le nombre d"accidents, le nombre de collisions dans un routeurs, le nombre de photons reçus On peut considérer que la distribution de Poisson est la limite de la loi binomiale quand n.

Plus précisément, on considère les lois binomiales de paramètre p=n. En pratique, on approche la loi B(n,p) par la loi P(np) dès qu n>20,p<0.1 et np<5. Définition.

La loi de Poisson de paramètre est donnée parp(X=k)=e-kk!34 M1Cours1.nb[ [-] / ! { }][ [-] / ! { }] + [( - ) [-] / ! { }]Si X suit uneDistribution de Poisson de paramètre ,• E(X)=• V(X)=La somme de deux Distributions de Poisson de paramètres 1 et 2 est la distribution de Poisson de paramètre 1 + 2M1Cours1.nb 35[[{[[[[] ] { }] {- } {[] [ ] [{ + }]}][[[[] ] { }] {- } {[] [ ] [{ + }]}]}] {{ } }]36 M1Cours1.nbM1Cours1.nb 37'Lorsque n est assez grand (n>30) et pour p petit (p<0,1) tels que np(1-p)<10, on peut approcher une loi Binomiale (n,p) par une loi de Poisson () où =np.[[{[[[[ ] ] { }] ([{ } #] ) [] { }][[[[ ] ] { }] ([{ } #] ) [] ]}]{{ } }{{ } }]38 M1Cours1.nb M1Cours1.nb 39