[PDF] [PDF] Cours 3 : Probabilités

Calcul de la moyenne d'une variable aléatoire de type binomial L'idée générale d'introduire les probabilités en statistiques sera plus claire au cours



Previous PDF Next PDF





[PDF] Cours de probabilités et statistiques

Proposition 40 La v a X est centrée, c'est-`a-dire de moyenne nulle, et réduite, c' est- `a-dire de variance 1 De plus, −X suit encore une loi normale centrée 



[PDF] MODULE 7 LOIS PROBABILITÉ PROBABILITÉ - Université du Québec

Remarque 7 3 La loi de Poisson permet de modéliser des phénomèmes rares lorsqu'on peut connaître la moyenne pour un laps de temps relativement grand Elle 



[PDF] Probabilités et variables aléatoires - Institut de Mathématiques de

fX(x) = { λ exp(−λx) si x ≥ 0, 0 si x < 0 La loi exponentielle est utilisée en fiabilité Le paramètre λ représente le taux moyen de 



[PDF] PROBABILITÉS - maths et tiques

permet d'affirmer que les fréquences se rapprochent des probabilités théoriques La moyenne des résultats se rapprochent donc de l'espérance de la loi de



[PDF] Cours de Probabilités

moyenne des tailles de 20 étudiants pris au hasard : X(ω) ∈ [α, β] 3 1 2 Loi de probabilité Une variable aléatoire est totalement définie par sa loi de probabilité



[PDF] Probabilités et Statistiques - IRISA

Probabilités et Statistiques: Introduction Variables quantitatives: les opérations arithmétiques (somme, moyenne, ) Modélisation par des lois de probabilité



[PDF] Cours 3 : Probabilités

Calcul de la moyenne d'une variable aléatoire de type binomial L'idée générale d'introduire les probabilités en statistiques sera plus claire au cours



[PDF] probabilités et statistiques : corrigé

On peut calculer plus facilement la probabilité que les deux lampes choisies Estimer par un intervalle de confiance 95 la durée de vie moyenne



[PDF] Probabilités & Statistiques - Laboratoire Analyse, Géométrie et

Par la loi des grands nombres, on a : Proposition Soit X une variable aléatoire d' espérance m et de variance σ2 1 La moyenne empirique est un estimateur sans  



[PDF] Distributions déchantillonnage

Cette variable aléatoire poss`ede bien entendu : — Une distribution de probabilité — Une valeur moyenne (la moyenne des moyennes d'échantillons, vous sui-

[PDF] moyenne, quartiles ect

[PDF] Moyenne, variance et ecart-type

[PDF] moyenne/médiane/étendue

[PDF] Moyennes

[PDF] Moyennes arithmétiques

[PDF] Moyennes et fonctions

[PDF] Moyennes et pourcentage

[PDF] Moyennes et pourcentages

[PDF] Moyennes Mathématiques

[PDF] Moyennes Pour statistique

[PDF] moyens de production d'électricité

[PDF] moyens de protection du sol

[PDF] moyens de recherche d'emploi ofppt

[PDF] Moyens de transport et émissions de C02

[PDF] Moyens mémo-technique

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 1

Cours 3 : Probabilités

Table des matières

Section 1. La roulette russe : problème empirique?.......................................................................... 3

Section 2. Rôle de la probabilité en statistiques inductives............................................................. 3

Section 3. La distribution binomiale.................................................................................................... 4

3.1. Calculer la probabilité d'un nombre de succès r.......................................................... 4

3.2. Paramètres et fonction de masse..................................................................................... 5

3.3. Calcul des moments statistiques..................................................................................... 6

a. Calcul de la moyenne d'une variable aléatoire de type binomial........................... 6

b. Calcul de la variance d'une variable aléatoire binomiale......................................... 7

c. Autres moments statistiques......................................................................................... 8

Section 4. La distribution normale....................................................................................................... 8

4.1. Fonction de masse et paramètres.................................................................................... 8

4.2. Probabilité d'un événement normalement distribué................................................. 10

4.3. Pourquoi la normale? ..................................................................................................... 11

a. Approximation de la distribution binomiale............................................................ 11

b. Plusieurs sources d'erreurs ......................................................................................... 12

Transformation linéaire.................................................................................................................. 13

4.4. Distribution normale standardisée............................................................................... 15

Section 5. La distribution de Weibull................................................................................................ 16

5.1. Fonction de masse et paramètres.................................................................................. 17

5.2. Moments statistiques...................................................................................................... 17

Section 6. La distribution χ

2

................................................................................................................ 18

6.1. Fonction de masse et paramètre ................................................................................... 18

6.2. Moments statistiques...................................................................................................... 19

Section 7. La distribution de Fisher F................................................................................................ 19

7.1. Fonction de masse et paramètre ................................................................................... 20

7.2. Moments statistiques...................................................................................................... 20

Comment lire une table statistique............................................................................................... 20

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 2

Section 8. Conclusion........................................................................................................................... 22

Exercices....................................................................................................................................... 23

Lectures

Suggérée : Howell, chapitre 2, 2.14, chapitre 3, 3.1 à 3.3, chapitre 5, 5.1 à 5.7 inclusivement.

Objectifs

Connaître les postulats sous jacents aux distributions binomiale, normale, 2 et de Fisher. Connaître la moyenne de ces distributions. Pouvoir normaliser des données et les dénormaliser. Être en mesure de lire une table statistique de ces distributions.

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 3

Section 1. La roulette russe : problème empirique? La probabilité est apparue dans les années 1600, époque où les jeux de hasard étaient très prisés. Avant de faire un pari, l'aristocrate moyen voulait connaître ses chances de gagner. Or, ils ne connaissaient d'autres moyens de faire ce calcul que de jouer le jeu un grand nombre de fois avec un serviteur de confiance. La probabilité de gagner devient: jouéepartiedeNbregaindeNbreGain )Pr(= (Vous comprendrez que cette méthode n'était guère utile au jeu de la roulette russe). Pour contrer cette stratégie for simple, certains joueurs inventèrent des jeux plus complexes, souvent basé sur une séquence. Pour évaluer leur chance, certains aristocrates n'eurent d'autres recours que d'aller consulter les plus grands mathématiciens de leurs temps (les

Bernoulli, Pascal, Fermat, etc.). Ces derniers firent bien plus qu'évaluer les chances de gain, ils

établirent les probabilités de voir tel ou tel événement se produire dans une situation donnée

très générale. Nous examinons quelques-unes de ces distributions de probabilité dans la suite. Section 2. Rôle de la probabilité en statistiques inductives La probabilité est la branche des mathématiques qui s'occupe des populations. Étant donnés quelques postulats simples, peut-on savoir comment les scores de la population

entière seront répartis. Idéalement, on souhaite avoir le moins de postulats possibles (dans le

but d'une plus grande généralité). On peut voir les probabilités comme une grosse expérience de pensé : Peut-on, par la seule logique, prédire le résultat d'une " expérience ». Par exemple, imaginons qu'une

" expérience » consiste à lancer 10 fois une pièce de monnaie. Peut-on prédire d'obtenir 8 fois

pile? Sans les mathématiques, nous sommes contraint de nous fier à notre intuition, à notre

expérience. Dans ce cas-ci, notre intuition suggère que c'est sans doute très rare. Or, les

mathématiciens (Bernoulli le premier) peuvent nous dire la probabilité exacte que cela se

produise sans même avoir jamais lancé une pièce de monnaie de leur vie. Le résultat, nous le

verrons à la section 3, est d'un peu moins de 5%. La démarche des probabilités consiste toujours par poser des postulats : " Et si... » et de voir quelles conséquences on peut en tirer. Par exemple, " Et si je connaissais la probabilité

d'un pile lors d'un lancé unique, pourrais-je en déduire la probabilité d'obtenir r piles sur n

lancés? ». Comme les postulats sont souvent généraux, les conséquences trouvées peuvent

aussi servir dans d'autres situations. Par exemple, la question " Si j'ai 10 enfants, quel est la

probabilité d'en avoir 8 avec les yeux bleus? » nécessite exactement le même raisonnement

mathématique que celui avec les pièces de monnaie pour être résolue. L'idée générale d'introduire les probabilités en statistiques sera plus claire au cours suivant sur la statistique inductive, dans laquelle l'on souhaite déduire des informations sur une population à partir d'informations sur un échantillon.

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 4

Section 3. La distribution binomiale

La distribution la plus simple est celle qui décrit des événements n'ayant que deux

possibilités. Par exemple, une pièce de monnaie est lancée, et le résultat peut être pile ou face.

Ou encore, un individu est choisi au hasard et son sexe est noté. Le résultat peut être Homme

ou Femme. Dans l'industrie, une machine peut fonctionner ou être en panne, etc. Un essai où seulement deux cas sont possibles est parfois appelé un essai de Bernoulli, en l'honneur du mathématicien qui le premier a travaillé ce genre de problème au cours des années 1700.

En général, l'un des deux résultats est appelé de façon arbitraire un " succès » et l'autre

un " échec ». Pour simplifier, notons p la probabilité d'un succès, Pr{S}. Il s'ensuit que 1 - p est

la probabilité d'un échec, Pr{E} (souvent, les auteurs notent 1 - p en utilisant la lettre q). Dans

le cas d'une pièce de monnaie non truquée, p = ½. Dans le cas de la machinerie, l'entrepreneur souhaite que p soit le plus élevé possible.

3.1. Calculer la probabilité d'un nombre de succès r.

Dans un essai de Bernoulli, chaque essai est indépendant des essais précédents. Il

découle alors que la probabilité est simplement multiplicative Par exemple, la probabilité de

deux succès est Pr{S, S} : Pr{S, S} = Pr{S} × Pr{S} = p × p = p 2 . Ainsi, Pr{S, S, E, S, E, E} = p ×p × (1-p) × p × (1-p) × (1-p) = p 3 (1-p) 3 . Notez qu'en fait, l'ordre dans lequel les résultats sont obtenus n'est pas important puisqu'ils sont indépendants. Si, au lieu d'être intéressé dans le résultat d'un seul évènement, nous souhaitons quantifier le nombre total de succès, par exemple, le nombre de machines défectueuses dans une usine, nous devons tenir compte du nombre de façons possibles d'obtenir ce résultat

donné. Par exemple, au cours d'une joute où on lance cinq fois une pièce de monnaie, on veut

savoir la probabilité d'obtenir 3 piles (P). On peut obtenir ce résultat de l'une ou l'autre de ces

façons : {P, P, P, F, F} {P, P, F, P, F} {P, P, F, F, P} {P, F, P, P, F} {P, F, P, F, P} {P, F, F, P, P} {F, P, P, P, F} {F, P, P, F, P} {F, P, F, P, P} {F, F, P, P, P}

soit 10 façons différentes d'obtenir 3 piles parmi 5 lancés. La probabilité d'obtenir le premier

résultat est de p 3 (1 - p) 2 . De même la probabilité d'obtenir la seconde configuration, etc. Donc, la probabilité d'obtenir un total de 3 piles parmi 5 lancers, peu importe l'ordre, est de 10 p 3 (1 - p) 2 . De façon générale, il faut toujours multiplier la probabilité d'une configuration par le nombre de façons de l'obtenir. Pour cette raison, on utilise l'opérateur rn qui indique le nombre de combinaisons possibles de r parmi n événements binaires. On calcule ce nombre avec la formule rnrn rn

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 5

Quand une variable est le résultat d'un événement aléatoire du genre d'un essai de

Bernoulli, on dit que X reflète une distribution binomiale. Pour simplifier, on peut écrire plus

densément qu'une variable aléatoire X est le nombre de succès obtenus dans une suite de n

essais de Bernoulli, au cours desquels la probabilité d'un succès est p à l'aide de la notation: X

~ (n, p). Dans ce cas, la probabilité d'avoir r succès au cours de n essais, Pr{ X i = r succès} est donné par rnr pprnrf =)1()( X

3.2. Paramètres et fonction de masse

Ce que l'on doit retenir de ce qui précède est que si l'on a des postulats simples sur une

population (ici des événements binaires, chacun avec une probabilité p et 1 - p) alors il est

possible d'obtenir la probabilité pour chaque observation possible (obtenir 0 succès : f (0), obtenir 1 succès : f (1), etc.). Cependant, en plus de ces postulats sur notre population, il est nécessaire de connaître les valeurs p et n. On appelle ces valeurs des paramètres de la

population. En probabilité, p et n sont données. Par contre, comme on le verra dans le cours 4,

en statistique, ces valeurs sont généralement des inconnues que l'on essaie d'estimer avec des échantillons. La fonction f(r) est la fonction de masse (PDF, voir lexique) qui décrit les probabilités pour tous les r. Comme on le verra au point c, il n'en faut pas plus pour calculer les moments statistiques d'un point de vue purement théorique. Pour vous pratiquer, essayez de calculer à la main la probabilité d'obtenir 0 pile sur 5

lancés d'une pièce de monnaie, 1 pile, etc. Puisque ces nombres représentent une fréquence

relative, on peut faire un graphique des histogrammes, qui devrait alors ressembler à celui de la Figure 1. Dans le cas où p est ½, on observe une distribution symétrique avec une moyenne qui semble être à 2.5. Cependant, p n'est pas toujours de ½. Dans le cas de machineries industrielles, la probabilité p qu'une machine soit en panne peut être de l'ordre de 1/100. Quelle est la probabilité que l'on trouve trois machines en panne au même moment dans une usine de 35 machines? Le graphique de la Figure 2 illustre ces probabilités (manque les histogrammes de 11 à 35, mais ils sont virtuellement de zéro). Comme on le voit, la probabilité que le nombre de pannes soit de 5 est excessivement

012345

.05 0.1 .15 0.2 .25 0.3 Figure 1 : Distribution du nombre de piles sur 5 lancés

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 6

faible (de l'ordre de 4 × 10 -4 ). Avec un tableau cumulatif (graphe des fréquences cumulatives ou CDF), on voit bien que tous les nombres de pannes probablement possibles se situent entre

0 et 2, comme on le voit à la Figure 3.

Dans ce dernier cas, l'asymétrie est extrême (et positive), et le nombre modal de panne est zéro. La moyenne est de 0.35 panne, soit moins de une en moyenne. Si vous voulez calculer la moyenne à la main dans ce dernier cas, vous allez trouver l'exercice assez laborieux. Il est cependant possible de résumer les moments statistiques à l'aide de formules simples, comme nous le montrons ici.

3.3. Calcul des moments statistiques

a. Calcul de la moyenne d'une variable aléatoire de type binomial On peut calculer la moyenne attendue de X, notée ici E(X) en utilisant la formule du cours 2.1: n r rfrE 0 )( )(X où r dénote tous les résultats possibles pour X (soit 0 succès, 1 succès, ... n succès). Pour y arriver, il faut connaître ces relations : (a) 11 rn rn rn et

012345678910

0.1 0.2 0.3 0.4 0.5 0.6 0.7 Figure 2 : Exemple de distribution quand la probabilité d'un succès est 1/100

012345678910

0.2 0.4 0.6 0.8 1 Figure 3 : Exemple de distribution cumulative quand p est 1/100

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 7

(b) MkMkM k babakM)( 0 Notons qu'avec la relation (a), nous pouvons récrire : rnrrnrrnrrnr pprnnppprnnpprn rnrpprnrrfr )1(11)1(11)1(11)1()( 1

Dès lors, on peut écrire :

n rrnrn rrnr pprnnppprnnpE 1101
)1(11)1(11)(X Si nous posons k = r - 1 et M = n - 1, nous obtenons : M kkMkn kknk ppkMnpppknnpE 01 01 )1()1(1)(X que l'on peut résoudre à l'aide de la relation (b) en posant a = p et b = (1-p) : npppnpE M =-+=)1()(X b. Calcul de la variance d'une variable aléatoire binomiale Pour calculer la variance attendue, notée Var(X), nous utilisons la seconde relation sur la variance présentée au cours 2.4 : nppprnrnpnppprnrEEVar n rrnrn rrnr 112
0222
)1(11)()1()()()( XXX

PSY 1004 Techniques d'analyses en psychologie

Cours 3. Probabilités 8

À nouveau, posons k = r - 1.

npppknppknknpnpppknknpVar n kknkn kknkn kknk1 01 1 011 01 )1(1)1(1)1(1)1()( X Le premier terme entre crochets représente la moyenne d'une variable qui serait binomiale entre 0 et n - 1. Posons Y ~ (n - 1, p). Le second terme se résout suivant la relation (a) notée à la sous-section précédente. ()pnpnppnpnpnppnnpnpppEnpVar nquotesdbs_dbs4.pdfusesText_7