PROBABILITÉS
L'espérance est donc la moyenne que l'on peut espérer si l'on répète l'expérience un grand nombre de fois. - La variance (respectivement l'écart-type) est la
7 Lois de probabilité
calculer des probabilités sur la loi exponentielle Cela veut dire qu'en moyenne il y aura 340 ? 0.975 = 331. 5 passagers par vol. En.
Exercices Corrigés Statistique et Probabilités
Examen Statistique et Probabilités (1) . Calculer les valeurs de tendance centrale de la distribution : la moyenne le mode et les trois quartiles Q1
Cours de probabilités et statistiques
On suppose que le bruit est une suite de variables indépendantes de loi normale de moyenne nulle et de variance 1. Pour un signal la moyenne n'est pas nulle.
Statistique et probabilités
qN?k ? M(k) en notant que p + q = 1 le résultat pour la moyenne est trouvé. Statistique et probabilités – p. 12. Page 13. La variance pour la loi binomiale.
Probabilités continues
Même terminologie que pour des distributions discr`etes : dyssymétrie (skewness) moyenne
Probabilité de défaillance à la demande moyenne et tests longs par
2 ??? 2021 des composants étant donné le test mais elle est plus réaliste. Mots Clés — SIS
Cours de Statistiques inférentielles
La convergence en moyenne quadratique entraîne la convergence en probabilité. 2. Pour les (Xn) sont des variables aléatoires d'espérance et de variance
Psy1004 – Section 3: Probabilités
vraisemblance la moyenne de la population." ? "En prenant une donnée au hasard
Introduction aux probabilités et à la statistique Jean Bérard
2.6.2 Espérance et moyenne loi empirique . La théorie des probabilités constitue un cadre mathématique pour la description.
PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 1
Cours 3 : Probabilités
Table des matières
Section 1. La roulette russe : problème empirique?.......................................................................... 3
Section 2. Rôle de la probabilité en statistiques inductives............................................................. 3
Section 3. La distribution binomiale.................................................................................................... 4
3.1. Calculer la probabilité d'un nombre de succès r.......................................................... 4
3.2. Paramètres et fonction de masse..................................................................................... 5
3.3. Calcul des moments statistiques..................................................................................... 6
a. Calcul de la moyenne d'une variable aléatoire de type binomial........................... 6b. Calcul de la variance d'une variable aléatoire binomiale......................................... 7
c. Autres moments statistiques......................................................................................... 8
Section 4. La distribution normale....................................................................................................... 8
4.1. Fonction de masse et paramètres.................................................................................... 8
4.2. Probabilité d'un événement normalement distribué................................................. 10
4.3. Pourquoi la normale? ..................................................................................................... 11
a. Approximation de la distribution binomiale............................................................ 11
b. Plusieurs sources d'erreurs ......................................................................................... 12
Transformation linéaire.................................................................................................................. 13
4.4. Distribution normale standardisée............................................................................... 15
Section 5. La distribution de Weibull................................................................................................ 16
5.1. Fonction de masse et paramètres.................................................................................. 17
5.2. Moments statistiques...................................................................................................... 17
Section 6. La distribution χ
2................................................................................................................ 18
6.1. Fonction de masse et paramètre ................................................................................... 18
6.2. Moments statistiques...................................................................................................... 19
Section 7. La distribution de Fisher F................................................................................................ 19
7.1. Fonction de masse et paramètre ................................................................................... 20
7.2. Moments statistiques...................................................................................................... 20
Comment lire une table statistique............................................................................................... 20
PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 2
Section 8. Conclusion........................................................................................................................... 22
Exercices....................................................................................................................................... 23
Lectures
Suggérée : Howell, chapitre 2, 2.14, chapitre 3, 3.1 à 3.3, chapitre 5, 5.1 à 5.7 inclusivement.Objectifs
Connaître les postulats sous jacents aux distributions binomiale, normale, 2 et de Fisher. Connaître la moyenne de ces distributions. Pouvoir normaliser des données et les dénormaliser. Être en mesure de lire une table statistique de ces distributions.PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 3
Section 1. La roulette russe : problème empirique? La probabilité est apparue dans les années 1600, époque où les jeux de hasard étaient très prisés. Avant de faire un pari, l'aristocrate moyen voulait connaître ses chances de gagner. Or, ils ne connaissaient d'autres moyens de faire ce calcul que de jouer le jeu un grand nombre de fois avec un serviteur de confiance. La probabilité de gagner devient: jouéepartiedeNbregaindeNbreGain )Pr(= (Vous comprendrez que cette méthode n'était guère utile au jeu de la roulette russe). Pour contrer cette stratégie for simple, certains joueurs inventèrent des jeux plus complexes, souvent basé sur une séquence. Pour évaluer leur chance, certains aristocrates n'eurent d'autres recours que d'aller consulter les plus grands mathématiciens de leurs temps (lesBernoulli, Pascal, Fermat, etc.). Ces derniers firent bien plus qu'évaluer les chances de gain, ils
établirent les probabilités de voir tel ou tel événement se produire dans une situation donnée
très générale. Nous examinons quelques-unes de ces distributions de probabilité dans la suite. Section 2. Rôle de la probabilité en statistiques inductives La probabilité est la branche des mathématiques qui s'occupe des populations. Étant donnés quelques postulats simples, peut-on savoir comment les scores de la populationentière seront répartis. Idéalement, on souhaite avoir le moins de postulats possibles (dans le
but d'une plus grande généralité). On peut voir les probabilités comme une grosse expérience de pensé : Peut-on, par la seule logique, prédire le résultat d'une " expérience ». Par exemple, imaginons qu'une" expérience » consiste à lancer 10 fois une pièce de monnaie. Peut-on prédire d'obtenir 8 fois
pile? Sans les mathématiques, nous sommes contraint de nous fier à notre intuition, à notreexpérience. Dans ce cas-ci, notre intuition suggère que c'est sans doute très rare. Or, les
mathématiciens (Bernoulli le premier) peuvent nous dire la probabilité exacte que cela seproduise sans même avoir jamais lancé une pièce de monnaie de leur vie. Le résultat, nous le
verrons à la section 3, est d'un peu moins de 5%. La démarche des probabilités consiste toujours par poser des postulats : " Et si... » et de voir quelles conséquences on peut en tirer. Par exemple, " Et si je connaissais la probabilitéd'un pile lors d'un lancé unique, pourrais-je en déduire la probabilité d'obtenir r piles sur n
lancés? ». Comme les postulats sont souvent généraux, les conséquences trouvées peuvent
aussi servir dans d'autres situations. Par exemple, la question " Si j'ai 10 enfants, quel est laprobabilité d'en avoir 8 avec les yeux bleus? » nécessite exactement le même raisonnement
mathématique que celui avec les pièces de monnaie pour être résolue. L'idée générale d'introduire les probabilités en statistiques sera plus claire au cours suivant sur la statistique inductive, dans laquelle l'on souhaite déduire des informations sur une population à partir d'informations sur un échantillon.PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 4
Section 3. La distribution binomiale
La distribution la plus simple est celle qui décrit des événements n'ayant que deuxpossibilités. Par exemple, une pièce de monnaie est lancée, et le résultat peut être pile ou face.
Ou encore, un individu est choisi au hasard et son sexe est noté. Le résultat peut être Homme
ou Femme. Dans l'industrie, une machine peut fonctionner ou être en panne, etc. Un essai où seulement deux cas sont possibles est parfois appelé un essai de Bernoulli, en l'honneur du mathématicien qui le premier a travaillé ce genre de problème au cours des années 1700.En général, l'un des deux résultats est appelé de façon arbitraire un " succès » et l'autre
un " échec ». Pour simplifier, notons p la probabilité d'un succès, Pr{S}. Il s'ensuit que 1 - p est
la probabilité d'un échec, Pr{E} (souvent, les auteurs notent 1 - p en utilisant la lettre q). Dans
le cas d'une pièce de monnaie non truquée, p = ½. Dans le cas de la machinerie, l'entrepreneur souhaite que p soit le plus élevé possible.3.1. Calculer la probabilité d'un nombre de succès r.
Dans un essai de Bernoulli, chaque essai est indépendant des essais précédents. Ildécoule alors que la probabilité est simplement multiplicative Par exemple, la probabilité de
deux succès est Pr{S, S} : Pr{S, S} = Pr{S} × Pr{S} = p × p = p 2 . Ainsi, Pr{S, S, E, S, E, E} = p ×p × (1-p) × p × (1-p) × (1-p) = p 3 (1-p) 3 . Notez qu'en fait, l'ordre dans lequel les résultats sont obtenus n'est pas important puisqu'ils sont indépendants. Si, au lieu d'être intéressé dans le résultat d'un seul évènement, nous souhaitons quantifier le nombre total de succès, par exemple, le nombre de machines défectueuses dans une usine, nous devons tenir compte du nombre de façons possibles d'obtenir ce résultatdonné. Par exemple, au cours d'une joute où on lance cinq fois une pièce de monnaie, on veut
savoir la probabilité d'obtenir 3 piles (P). On peut obtenir ce résultat de l'une ou l'autre de ces
façons : {P, P, P, F, F} {P, P, F, P, F} {P, P, F, F, P} {P, F, P, P, F} {P, F, P, F, P} {P, F, F, P, P} {F, P, P, P, F} {F, P, P, F, P} {F, P, F, P, P} {F, F, P, P, P}soit 10 façons différentes d'obtenir 3 piles parmi 5 lancés. La probabilité d'obtenir le premier
résultat est de p 3 (1 - p) 2 . De même la probabilité d'obtenir la seconde configuration, etc. Donc, la probabilité d'obtenir un total de 3 piles parmi 5 lancers, peu importe l'ordre, est de 10 p 3 (1 - p) 2 . De façon générale, il faut toujours multiplier la probabilité d'une configuration par le nombre de façons de l'obtenir. Pour cette raison, on utilise l'opérateur rn qui indique le nombre de combinaisons possibles de r parmi n événements binaires. On calcule ce nombre avec la formule rnrn rnPSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 5
Quand une variable est le résultat d'un événement aléatoire du genre d'un essai deBernoulli, on dit que X reflète une distribution binomiale. Pour simplifier, on peut écrire plus
densément qu'une variable aléatoire X est le nombre de succès obtenus dans une suite de nessais de Bernoulli, au cours desquels la probabilité d'un succès est p à l'aide de la notation: X
~ (n, p). Dans ce cas, la probabilité d'avoir r succès au cours de n essais, Pr{ X i = r succès} est donné par rnr pprnrf =)1()( X3.2. Paramètres et fonction de masse
Ce que l'on doit retenir de ce qui précède est que si l'on a des postulats simples sur unepopulation (ici des événements binaires, chacun avec une probabilité p et 1 - p) alors il est
possible d'obtenir la probabilité pour chaque observation possible (obtenir 0 succès : f (0), obtenir 1 succès : f (1), etc.). Cependant, en plus de ces postulats sur notre population, il est nécessaire de connaître les valeurs p et n. On appelle ces valeurs des paramètres de lapopulation. En probabilité, p et n sont données. Par contre, comme on le verra dans le cours 4,
en statistique, ces valeurs sont généralement des inconnues que l'on essaie d'estimer avec des échantillons. La fonction f(r) est la fonction de masse (PDF, voir lexique) qui décrit les probabilités pour tous les r. Comme on le verra au point c, il n'en faut pas plus pour calculer les moments statistiques d'un point de vue purement théorique. Pour vous pratiquer, essayez de calculer à la main la probabilité d'obtenir 0 pile sur 5lancés d'une pièce de monnaie, 1 pile, etc. Puisque ces nombres représentent une fréquence
relative, on peut faire un graphique des histogrammes, qui devrait alors ressembler à celui de la Figure 1. Dans le cas où p est ½, on observe une distribution symétrique avec une moyenne qui semble être à 2.5. Cependant, p n'est pas toujours de ½. Dans le cas de machineries industrielles, la probabilité p qu'une machine soit en panne peut être de l'ordre de 1/100. Quelle est la probabilité que l'on trouve trois machines en panne au même moment dans une usine de 35 machines? Le graphique de la Figure 2 illustre ces probabilités (manque les histogrammes de 11 à 35, mais ils sont virtuellement de zéro). Comme on le voit, la probabilité que le nombre de pannes soit de 5 est excessivement012345
.05 0.1 .15 0.2 .25 0.3 Figure 1 : Distribution du nombre de piles sur 5 lancésPSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 6
faible (de l'ordre de 4 × 10 -4 ). Avec un tableau cumulatif (graphe des fréquences cumulatives ou CDF), on voit bien que tous les nombres de pannes probablement possibles se situent entre0 et 2, comme on le voit à la Figure 3.
Dans ce dernier cas, l'asymétrie est extrême (et positive), et le nombre modal de panne est zéro. La moyenne est de 0.35 panne, soit moins de une en moyenne. Si vous voulez calculer la moyenne à la main dans ce dernier cas, vous allez trouver l'exercice assez laborieux. Il est cependant possible de résumer les moments statistiques à l'aide de formules simples, comme nous le montrons ici.3.3. Calcul des moments statistiques
a. Calcul de la moyenne d'une variable aléatoire de type binomial On peut calculer la moyenne attendue de X, notée ici E(X) en utilisant la formule du cours 2.1: n r rfrE 0 )( )(X où r dénote tous les résultats possibles pour X (soit 0 succès, 1 succès, ... n succès). Pour y arriver, il faut connaître ces relations : (a) 11 rn rn rn et012345678910
0.1 0.2 0.3 0.4 0.5 0.6 0.7 Figure 2 : Exemple de distribution quand la probabilité d'un succès est 1/100012345678910
0.2 0.4 0.6 0.8 1 Figure 3 : Exemple de distribution cumulative quand p est 1/100PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 7
(b) MkMkM k babakM)( 0 Notons qu'avec la relation (a), nous pouvons récrire : rnrrnrrnrrnr pprnnppprnnpprn rnrpprnrrfr )1(11)1(11)1(11)1()( 1Dès lors, on peut écrire :
n rrnrn rrnr pprnnppprnnpE 1101)1(11)1(11)(X Si nous posons k = r - 1 et M = n - 1, nous obtenons : M kkMkn kknk ppkMnpppknnpE 01 01 )1()1(1)(X que l'on peut résoudre à l'aide de la relation (b) en posant a = p et b = (1-p) : npppnpE M =-+=)1()(X b. Calcul de la variance d'une variable aléatoire binomiale Pour calculer la variance attendue, notée Var(X), nous utilisons la seconde relation sur la variance présentée au cours 2.4 : nppprnrnpnppprnrEEVar n rrnrn rrnr 112
0222
)1(11)()1()()()( XXX
PSY 1004 Techniques d'analyses en psychologie
Cours 3. Probabilités 8
À nouveau, posons k = r - 1.
npppknppknknpnpppknknpVar n kknkn kknkn kknk1 01 1 011 01 )1(1)1(1)1(1)1()( X Le premier terme entre crochets représente la moyenne d'une variable qui serait binomiale entre 0 et n - 1. Posons Y ~ (n - 1, p). Le second terme se résout suivant la relation (a) notée à la sous-section précédente. ()pnpnppnpnpnppnnpnpppEnpVar nquotesdbs_dbs4.pdfusesText_7[PDF] Moyenne, variance et ecart-type
[PDF] moyenne/médiane/étendue
[PDF] Moyennes
[PDF] Moyennes arithmétiques
[PDF] Moyennes et fonctions
[PDF] Moyennes et pourcentages
[PDF] Moyennes Mathématiques
[PDF] Moyennes Pour statistique
[PDF] moyens de production d'électricité
[PDF] moyens de protection du sol
[PDF] Moyens de transport et émissions de C02
[PDF] Moyens mémo-technique
[PDF] Moyens permettant ? un robot de contourner des obstacles
[PDF] moyens plastiques pour montrer le mouvement sur image fixe