Estimation et tests statistiques TD 5. Solutions
Exercice 1 – Dans un centre avicole des études antérieures ont montré que la masse d'un oeuf choisi au hasard peut être considérée comme la réalisation
Tests Statistiques
2 Tests statistiques : premières pierres et construction Exercice 1 : Test sur l'espérance d'une loi gaussienne ... 3.5 Problèmes corrigés.
Exercices corrigés de statistiques inférentielles – Tests dhypothèses
Exercice 1 Tests classiques – Probabilité critique. Dans un centre de renseignements téléphoniques une étude statistique a montré que l'attente (en
LES TESTS DHYPOTHÈSE
2. La statistique qui convient pour le test est donc une variable aléatoire dont la valeur observée sera utilisée pour décider du « rejet » ou du « non
Introduction aux tests statistiques avec
xi. C'est une estimation ponctuelle de la valeur moyenne de X. ? L'écart-type corrigé de x1
Exercices Corrigés Statistique et Probabilités
I. Statistique descriptive univariée. Exercice 1. On dispose des résultats d'une enquête concernant l'âge et les loisirs d'une population de 20 personnes:.
L2 - Psychologie 2019-2020 - Trois exercices sur les tests
L'exercice 2 est un exercice de comparaison de moyennes précédé d'un exercice de comparaison Corrigé de l'Exercice 1. ... Statistiques du test.
Exercices et problèmes de statistique et probabilités
Corrigés des exercices . 7.1 Définition générale d'un problème de test . ... Énoncés des Problèmes sur les tests non paramétriques d'adéquation .
DEVOIR : CORRIGE
CORRIGES DES EXERCICES : Tests de proportion et test du signe pour la médiane. Exercice 2.1 loi de la statistique de test sous l'hypothèse nulle.
Université de Batna 2 Faculté de médecine Corrigé type de TD9 de
Corrigé type de TD9 de Bio-statistique (2019/2020) : Test d'hypothèses. Exercice 1 : 2) Calcul de la statistique de test observée :.
TestsStatistiques
Rejeter,ne pas rejeter... Se risquer?MagalieFromontAnn´ee universitaire2015-2016
Table des matières
1 Introduction 5
1.1 Problèmes de tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Modèles statistiques : rappels . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Hypothèse nulle pas si nulle, hypothèse alternative . . . . . . . . . . . 5
1.2 Exemple à boire sans modération . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Problème de test envisagé . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Règle de décision et risques associés . . . . . . . . . . . . . . . . . . . . 7
2 Tests statistiques : premières pierres et construction 9
2.1 Tests statistiques (non randomisés) . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Erreurs et risques de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 Risque de première espèce, niveau et taille, probabilité critique . . . . 10
2.2.2 Risque de deuxième espèce, fonction puissance . . . . . . . . . . . . . 11
2.3 Construction de tests (non randomisés) . . . . . . . . . . . . . . . . . . . . . . 12
2.3.1 Le principe de Neyman et Pearson . . . . . . . . . . . . . . . . . . . . . 12
2.3.2 La construction en pratique . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Intervalles de confiance et problèmes de test bilatères . . . . . . . . . . . . . . 13
3 Tests paramétriques de base pas si basiques 15
3.1 Tests en modèles gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.1 Tests sur l"espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.2 Tests sur la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.3 Tests de comparaison d"espérances . . . . . . . . . . . . . . . . . . . . . 17
3.1.4 Tests de comparaison de variances . . . . . . . . . . . . . . . . . . . . . 18
3.2 Tests en modèles de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.1 Tests sur une probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.2 Tests de comparaison de probabilités . . . . . . . . . . . . . . . . . . . 19
3.3 Test du rapport de vraisemblance maximale . . . . . . . . . . . . . . . . . . . . 19
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5 Problèmes corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.1 Faire le ménage ou l"amour, faut-il choisir? . . . . . . . . . . . . . . . . 25
3.5.2 Élections présidentielles 2012 . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5.3 Fermeture de Megaupload . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5.4 Crise publicitaire pour M6 . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3Table des matières
4 Tests de Neyman-Pearson, tests uniformément plus puissants 45
4.1 Tests randomisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Tests uniformément plus puissants (UPP), tests sans biais . . . . . . . . . . . . 47
4.3 Tests d"hypothèses simples - Lemme fondamental de Neyman-Pearson . . . . 47
4.4 Tests d"hypothèses composites . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.1 Extension du Lemme de Neyman-Pearson . . . . . . . . . . . . . . . . 50
4.4.2 Tests unilatères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.3 Tests bilatères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.4 Tests avec paramètres de nuisance . . . . . . . . . . . . . . . . . . . . . 57
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.6 Problèmes corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.6.1 Campagne d"e-mailing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.6.2 Presse écrite en danger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.6.3 Ensemencement des nuages . . . . . . . . . . . . . . . . . . . . . . . . . 69
5 Tests non paramétriques du Khi-Deux et de Kolmogorov-Smirnov 71
5.1 Les tests du Khi-Deux de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.1 La (pseudo) distance du Khi-Deux . . . . . . . . . . . . . . . . . . . . . 71
5.1.2 Le test du Khi-Deux d"adéquation . . . . . . . . . . . . . . . . . . . . . 72
5.1.3 Le test du Khi-Deux d"indépendance . . . . . . . . . . . . . . . . . . . 73
5.1.4 Le test du Khi-Deux d"homogénéité . . . . . . . . . . . . . . . . . . . . 74
5.2 Test de Kolmogorov-Smirnov, extensions et généralisations . . . . . . . . . . . 74
5.2.1 Le test de Kolmogorov-Smirnov d"adéquation . . . . . . . . . . . . . . 74
5.2.2 Le test de Kolmogorov-Smirnov d"homogénéité . . . . . . . . . . . . . 76
5.2.3 Tests de Cramér-von Mises et Anderson-Darling . . . . . . . . . . . . . 77
5.2.4 Test de normalité de Lilliefors . . . . . . . . . . . . . . . . . . . . . . . . 78
5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6 Tests non paramétriques basés sur les rangs ou les statistiques d"ordre 83
6.1 Symétrie : test des rangs signés de Wilcoxon . . . . . . . . . . . . . . . . . . . 83
6.2 Homogénéité : tests de Wilcoxon et Mann-Whitney . . . . . . . . . . . . . . . 84
6.3 Tests de Wilcoxon et Mann-Whitney : présence d"ex aequo . . . . . . . . . . . 85
6.4 Normalité : test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7 Annales corrigées 87
7.1 Lutte contre la fraude fiscale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.2 Dernière pensée pour Gregory House . . . . . . . . . . . . . . . . . . . . . . . 95
7.3 Vaccination contre la grippe A pandémique . . . . . . . . . . . . . . . . . . . . 104
7.4 Finale de Roland Garros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.5 Solidarités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.6 Réussite et insertion professionnelle . . . . . . . . . . . . . . . . . . . . . . . . 127
8 Rappels utiles sur les lois usuelles dans
Ret dansRn133
8.1 Lois usuelles dans
R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1358.1.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.1.2 Lois absolument continues . . . . . . . . . . . . . . . . . . . . . . . . . 137
8.2 Lois usuelles dansRn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4Chapitre 1
Introduction
On considère un phénomène aléatoire modélisé par une variable aléatoireX, dont la loi de
probabilitéPest connue à un paramètre2(inconnu) prés. Comme dans le cadre d"un problème d"estimation, on disposed"une observationxde cettevariableX(souvent,Xest un n-échantillon (X1;:::;Xn) d"une variable aléatoire parente etx=(x1;:::;xn) est l"observation de cet échantillon, ou bienX=(Y;Z), oùY=(Y1;:::;Yn1) etZ=(Z1;:::;Zn2) sont deux échantillons indépendants etx=(y;z) est l"observation de ces échantillons). laissant penser a priori que le paramètreappartient à un sous-ensemble0de, et on cherche à valider ou invalider cette hypothèse sur la base de l"observationx.1.1 Problèmes de tests
1.1.1 Modèles statistiques : rappels
Définition 1(Modèle statistique).Lemodèle statistiquecorrespondant à la variable X est défini
par le triplet(X;A;fPg2), oùXest l"ensemble des valeurs possibles de l"observation x de X,Aestune tribu surX, Pest la loi de X, dépendant d"un paramètre, inconnu, supposé appartenir à un
ensemblefixé. Définition 2(Modèle identifiable).Le modèle statistique(X;A;fPg2)est ditidentifiablesi l"application7!Pest injective. Définition 3(Modèle paramétrique/non paramétrique).Le modèle statistique(X;A;fPg2) est ditparamétriquesiRdpour d2N,non paramétriquesinon.1.1.2 Hypothèse nulle pas si nulle, hypothèse alternative
Définition 4(Hypothèse statistique).Faire une hypothèse statistique sur le paramètreconsiste
à se donner un sous-ensemblede, et à énoncer queappartient à. L"hypothèse s"écrit alors
(H) :2: Définition 5(Problème de test, hypothèse nulle/alternative).Se poser unproblème de test consiste à :1. Considérer deux hypothèses(H0)et(H1), appelées respectivementhypothèse nulleethypo-
thèse alternative, correspondant à des sous-ensembles disjoints0et1de. 5Chapitre 1. Introduction
2. Chercher à décider, sur la base de l"observation x, laquelle des deux hypothèses(H0)et(H1)
est vraie.On dit alors qu"on teste(H0) :20contre(H1) :21.
Accepter(H0)revient à décider que(H0)est vraie, rejeter(H0)au profit de(H1)revient à décider que
(H1)est vraie. Exemple courant et historique :X=(X1;:::;Xn) est un échantillon d"une loi d"espérance, mesurée après cet événement. On teste l"hypothèse nulle (H0) :20=f0g(absence d"eet moyen de l"événement) contre l"hypothèse alternative (H1) :21= nf0g, ou encore (H0) :=0 contre (H1) :,0.Cet exemple est à l"origine de la dénomination de l"hypothèse nulle... qui n"est en fait pas si
"nulle", par le rôle privilégié qui lui est attribué.Dissymétrie des hypothèses
En théorie des tests classique issue du principe de Neyman et Pearson, les hypothèses nulleet alternative ne jouent pas des rôles symétriques. (H0) est l"hypothèse que l"on privilégie,
dans le sens où elle est présumée vraie tant que l"observationxne conduit pas à la rejeter
au profit de (H1). L"analogie entre un problème de test d"hypothèses et un procès d"assisespeut aider à comprendre. Dans un procès d"assises, tout suspect est présumé innocent tant
qu"on n"apporte pas la preuve de sa culpabilité, preuve qui doit de plus s"appuyer sur deséléments matériels. De la même façon, dans un problème de test de (H0) contre (H1), (H0)
est présumée vraie tant qu"on n"apporte pas de preuve (xconstitue les éléments matériels
ici) contre elle au profit de (H1). Donc, accepter (H0), c"est seulement dire qu"on n"a pas pu, au vu de l"observationx, la rejeter au profit de (H1). Accepter (H0), c"est "acquitter faute de preuve". On préférera donc souvent dire dans ce cas que l"on ne rejette pas (H0) au profit de (H1).Diérentes formes d"hypothèses
- Hypothèses simples :0=f0get1=f1g, i.e. (H0) :=0contre (H1) :=1. Exemples dans des cadres paramétriques et non paramétriques. - Hypothèse simple contre hypothèse composite :0=f0get1contient au moins deux éléments. Par exemple, dans le cas où =R,1.0=f0get1=Rnf0g, i.e. (H0) :=0contre (H1) :,0. Le problème de
test est ditbilatère.2.0=f0get1=]0;+1[, i.e. (H0) :=0contre (H1) : > 0, ou0=f0get
1=] 1;0[, i.e. (H0) :=0contre (H1) : < 0. Le problème de test est dit
unilatère. Exemples des tests non paramétriques d"adéquation à une loi. - Hypothèses composites :0et1contiennent au moins deux éléments. Par exemple, dans le cas où =R,1.0=] 1;0] et1=]0;+1[, i.e. (H0) :0contre (H1) : > 0, ou
0=[0;+1[ et1=] 1;0[, i.e. (H0) :0contre (H1) : < 0. Le
problème de test est ditunilatère. 61.2. Exemple à boire sans modération
2.0=[1;2] et1=] 1;1[[]2;+1[. Le problème de test est ditbilatère.
Exemples des tests paramétriques de comparaison. Exemples des tests non paramétriques d"appartenance à une famille de lois. Exemples des tests non paramétriques d"indépendance.1.2 Exemple à boire sans modération
Le ministère de la santé étudie régulièrement la nécessité de prendre des mesures contre
la consommation d"alcool, et l"ecacité de telles mesures. L"INSEE fournit à cet eet no- tamment des données annuelles sur la consommation moyenne d"alcool par personne etpar jour. En janvier 1991, la loi Evin limite la publicité pour les boissons alcoolisées, et une
campagne de publicité "Tu t"es vu quand t"as bu?" est lancée en parallèle. La consommation moyenne d"alcool pur par personne de plus de 15 ans et par jour (en g) est supposée suivre une loi gaussienneN(m;2) avec=2. En 1990, avant la loi Evin,mest supposée égale à35. Le ministère juge qu"un objectif immédiat à atteindre est quempasse de 35 à 33. Sur
l"observation des consommations moyennes d"alcool pour les années 1991 à 1994 comprises,le ministère se fixe la règle de décision suivante : si la moyenne des consommations d"alcool
par personne et par jour sur ces 4 années est supérieure au seuil de 34:2, les mesures prises sont jugées inecaces.10 grammes d"alcool pur correspondent à un verre de boisson alcoolisée servi dans un café
soit à peu prés 10 cl de vin à 12,5 degrés, 25 cl de bière à 5 degrés, 6 cl de porto à 20 degrés
et 3 cl de whisky ou autre spiritueux à 40 degrés.Questions.
- Quels sont les risques associés à cette règle de décision arbitraire? - Peut-on se donner des critères objectifs pour fixer un autre seuil que 34:2?1.2.1 Problème de test envisagé
SoitX=(X1;X2;X3;X4) la variable aléatoire modélisant la consommation moyenne d"alcool pur par personne de plus de 15 ans et par jour au cours des années 1991 à 1994, etx= (x1;x2;x3;x4) l"observation de cette variable. avecparamètre inconnu (=m2 =]0;+1[). On souhaite, au vu de l"observationx, trancher entre les deux hypothèses=33 ou=35.On privilégie ici l"hypothèse=33 dans le sens où elle est présumée vraie tant qu"on n"a
pas d"éléments pour lui préférer l"hypothèse=33, i.e. on ne souhaite pas la rejeter à tort.
On veut donc tester (H0) :=33 contre (H1) :=35.
1.2.2 Règle de décision et risques associés
La règle de décision retenue par le ministère se traduit de la façon suivante : - Si 14 P 4 i=1xis, on rejette (H0) au profit de (H1). - Si 14 P 4 i=1xiLe modèle statistique posé rend possible le calcul des probabilités ou risques associés à ces
deux erreurs. Soitla probabilité de rejeter (H0) au profit de (H1) alors que (H0) est vraie. =P330BBBBB@8
>><>>:x=(x1;x2;x3;x4);14 4 X i=1x i34:29 >>=>>;1CCCCCA;
que l"on noteraP3314 P 4 i=1Xi34:2, posant queXsuit ici la loiP33=N(33;4)N4.LorsqueXsuit la loiP33,14
P 4 i=1Xi=¯Xsuit la loiN(33;1), et (¯X33) N(0;1). On a donc =P(N34:233); oùN N(0;1), et finalement, siFdésigne la fonction de répartition de la loiN(0;1), =1F(1:2)=0:1151: De la même façon, on peut calculer la probabilitéde ne pas rejeter (H0) au profit de (H1) alors que (H1) est vraie : =P35¯X<34:2=F(34:235)=0:2119:Ces probabilités ne sont pas équivalentes, la deuxième étant supérieure à la première.
On a donc ici contrôlé en priorité le risque de décider que les mesures n"ont pas été ecaces
(rejeter (H0) au profit de (H1)) alors qu"elles l"ont été (alors que (H0) est vraie).0:05, un seuilsdiérent de 34:2 doit être choisi.
Sachant queP33¯Xs=1F(s33), et que le 0.95-quantile de la loiN(0;1) vaut 1:645, s=34:645 convient. On aura ainsiP33¯Xs=0:05. Cet exemple va nous permettre de définir la notion de test statistique (non randomisé), ainsi que les notions qui s"y rattachent. 8Chapitre 2
Tests statistiques : premières pierres et
construction2.1 Tests statistiques (non randomisés)
Définition 6(Test statistique (non randomisé), région de rejet ou critique).Un test statistique
(non randomisé) consiste en une partition deXen deux ensembles : l"ensemble des valeurs possiblesde x conduisant au rejet de(H0)au profit de(H1), notéR(H0)et appelérégion de rejetourégion
critiquedu test, et son complémentaire dansXqui correspond à l"ensemble des valeurs possibles de
x ne conduisant pas au rejet de(H0)au profit de(H1). celui considéré ensuite àR(H0)=fx;¯x34:645g.Un test statistique (non randomisé) est donc caractérisé par sa région critique, ou encore par
la fonction indicatrice de sa région critique. Définition 7(Fonction de test (non randomisé)).On appellefonction du test (non randomisé) derégioncritiqueR(H0)lastatistiquedeXdansf0;1g,telleque(x)=1sietseulementsix2 R(H0). Autrement dit, si(x)=1, on rejette(H0)au profit de(H1), et si(x)=0, on ne rejette pas(H0)au profit de(H1).Remarques.
- On peut voir(x) comme la probabilité de rejeter (H0) au profit de (H1) avec le testà partir de l"observationx.
- Un test statistique étant entièrement caractérisé par sa fonction de test, on confondra
souvent les deux dénominations.Définition 8(Statistique de test, valeurs critiques).La région critique d"un test s"écrit en général
sous l"une des formes suivantes :R(H0)=fx;T(x)sg,R(H0)=fx;T(x)sg,R(H0)=fx;jT(x)j sg, R (H0)=fx;T(x)s1g [ fx;T(x)s2g, ouR(H0)=fx;T(x)2[s1;s2]g(s12.2 Erreurs et risques de décision
Prendre la décision de rejeter ou non une hypothèse nulle au profit d"une hypothèse alter- native, c"est prendre le risque de commettre une erreur. Deux types d"erreurs sont possibles.de première espèceet, si l"on ne rejette pas (H0) au profit de (H1) alors que (H1) est vraie, on
parle d"erreur de deuxième espèce.Réalité
Décision(H0)(H1)(H0)décision correcteerreur de 2ème espèce (H1)erreur de 1ère espècedécision correcte2.2.1 Risque de première espèce, niveau et taille, probabilité critique
A chaque type d"erreur correspond une probabilité ou un risque de commettre cette erreur. Définition 9(Risque de première espèce).Lerisque de première espèced"un testest l"application, notée, qui à chaque020donne la probabilité P0de rejeter(H0)avec: :0![0;1]07!(0)=P0(R(H0))=P0(fx;(x)=1g):
Pour simplifier les notations, on pourra écrireP0((X)=1) pour désigner la probabilité P0(fx;(x)=1g).
On remarque ici que(0)=E0[(X)], oùE0[(X)] désigne l"espérance de(X) lorsqueX est de loiP0. Définition 10(Risque de première espèce maximal).Lerisque de première espèce maximal d"un testest donné parsup020(0). Définition 11(Test de niveau/taille0).Soit02[0;1].Un testest deniveau0si son risque de première espèce maximal est inférieur ou égal à0i.e. :
sup020(0)0(inéquation du niveau):
Un testest detaille0si son risque de première espèce maximal est égal à0i.e. : sup020(0)=0(équation de la taille):
Exemple de la Section 1.2 : le test(x)=1¯x34:645est de taille 0:05, donc également de niveau 0:05. 102.2. Erreurs et risques de décision
Définition 12(Probabilité critique oup-valeur). - SiR(H0)est de la formefx;T(x)sg, où T est une statistique de test, s une valeur critique, on définit laprobabilité critiqueou p-valeur(p-valueen anglais) du test de région critique R (H0)comme p(x)=sup 020P0(T(X)T(x)):
- SiR(H0)est de la formefx;T(x)sg, on définit laprobabilité critiqueou p-valeurdu test de région critiqueR(H0)comme p(x)=sup 020P0(T(X)T(x)):
P pas l"hypothèse(H0)au profit de(H1)sur la base de l"observation x. Exemple de la Section 1.2 : les tests considérés sont de la forme(x)=1¯xs, et puisque (x1;x2;x3;x4)=(34:7;34:4;33:7;33:3), leurp-valeur estp(x)=P33(¯X34:025)=0:1527. Puisquep(x)0:05, on ne rejette pas (H0) au profit de (H1) pour un niveau 0:05. En eet, on a bien¯x<34:645.
2.2.2 Risque de deuxième espèce, fonction puissance
Définition 13(Risque de deuxième espèce).Lerisque de deuxième espèced"un testestl"application, notée, qui à chaque121associe la probabilité P1de ne pas rejeter(H0)au profit
de(H1)avec: :1![0;1]17!(1)=P1(XnR(H0))=P1(fx;(x)=0g):
Remarque.(1)=1E1[(X)].
Définition 14(Fonction puissance).Lafonction puissancedu testest l"application, notée qui à chaque121associe la probabilité P1de rejeter(H0)au profit de(H1)avec: :1![0;1]17!1(1)=P1(R(H0))=P1(fx;(x)=1g):
Remarques.
(1)=E1[(X)]. Par ailleurs, lorsque1=f1g, on parle de puissance du test. La fonction puissance est le prolongement de la fonctionsur1. Exemple de la Section 1.2 : le test(x)=1¯x34:645est, comme on l"a vu, de niveau 0:05. Sonrisque de deuxième espèce est égal à 0:3613 et sa puissance à 10:3613=0:6387 (test peu
puissant). 11 Chapitre 2. Tests statistiques : premières pierres et construction2.3 Construction de tests (non randomisés)
2.3.1 Le principe de Neyman et Pearson
Pour des hypothèses (H0) et (H1) fixées, un test de (H0) contre (H1) "idéal" serait un test de risques de première et deuxième espèces minimum. Cependant, on peut remarquer notamment qu"un test qui consiste à toujours accepter (H0) a un risque de première espèce nul, mais un risque de deuxième espèce maximum. Réciproquement, un test qui consiste à toujours rejeter (H0) au profit de (H1) a un risque de deuxième espèce nul, mais un risquede première espèce maximum. A taille d"échantillon fixée, diminuer le risque de première
espèce ne peut se faire en général qu"au détriment du risque de deuxième espèce et vice
versa (principe des vases communicants). Il est donc impossible, dans la plupart des cas, detrouver un test minimisant à la fois les risques de première et deuxième espèces. Afin de
sortir de cette impasse, Neyman et Pearson proposent, en 1933, de traiter les deux risques defaçon non symétrique, définissant ainsi le principe de dissymétrie des hypothèses. Lors de la
construction d"un test, ils choisissent de considérer comme prioritaire de contrôler l"un desdeux risques, celui de première espèce, par une valeur0fixée a priori (en pratique 0:01, 0:05
voire 0:1), et d"utiliser ensuite le risque de deuxième espèce ou la puissance pour évaluer la
qualité du test.2.3.2 La construction en pratique
La construction pratique d"un test peut se faire selon le schéma suivant :1. Détermination d"un modèle statistique représentant le phénomène aléatoire étudié.
2. Détermination des hypothèses (H0) et (H1) à partir du problème posé, en respectant
la dissymétrie des rôles des deux hypothèses.3. Déterminationd"unestatistiquedetestT:X !Rcommeoutildécisionnel,respectant
de(elle ne doit donc pas dépendre de), la loi deT(X) sous l"hypothèse (H0) (ouà sa "frontière") doit être entièrement connue, libre du paramètre inconnu, tabulée si
possible, et sa loi sous (H1) doit diérer de celle sous (H0). Cette statistique de test est souvent construite à partir d"un estimateur de, ou d"un estimateur d"une distance choisie entreet0.4. Détermination intuitive de la forme de la région critique et de la fonction de test, sur
la base des seules connaissances en estimation généralement. Par exemple,R(H0)= fx;T(x)sg,R(H0)=fx;T(x)sg,R(H0)=fx;jT(x)j sg,R(H0)=fx;T(x)s2ouT(x) s1g,R(H0)=fx;T(x)2[s1;s2]g(s1 5. Détermination précise des valeurs critiquess,s1,s2, de telle façon que le test soit bien
de niveau0fixé au préalable (c.f. inéquation du niveau), de taille la plus proche possible de0(pour ne pas trop perdre en puissance). 6. Conclusion au vu de l"observationx.
7. Évaluation de la puissance du test, ou tracé de la fonction puissance éventuellement.
12 2.4. Intervalles de confiance et problèmes de test bilatères
2.4 Intervalles de confiance et problèmes de test bilatères
Définition 15.Étant donné02]0;1[, unintervalle de confiance de niveau de confiance 10 pour()est défini par deux statistiques A et B telles que pour tout2, P (fx;()2[A(x);B(x)]g)10: On considère le problème de test de l"hypothèse (H0) :()=0contre (H1) :(),0. SiAetBdéfinissent un intervalle de confiance de niveau de confiance 10pour(), alors sup ;()=0P (fx;()2[A(x);B(x)]g)10; d"où sup ;()=0P (fx;0<[A(x);B(x)]g)0: Par conséquent, le testde région critique
R (H0)=fx;0<[A(x);B(x)]g est un test de niveau0de (H0) contre (H1). La conclusion de ce test s"exprime donc sous la forme simple suivante : si02[A(x);B(x)], alors on accepte l"hypothèse (H0), sinon, onquotesdbs_dbs12.pdfusesText_18
5. Détermination précise des valeurs critiquess,s1,s2, de telle façon que le test soit bien
de niveau0fixé au préalable (c.f. inéquation du niveau), de taille la plus proche possible de0(pour ne pas trop perdre en puissance).6. Conclusion au vu de l"observationx.
7. Évaluation de la puissance du test, ou tracé de la fonction puissance éventuellement.
122.4. Intervalles de confiance et problèmes de test bilatères
2.4 Intervalles de confiance et problèmes de test bilatères
Définition 15.Étant donné02]0;1[, unintervalle de confiance de niveau de confiance 10 pour()est défini par deux statistiques A et B telles que pour tout2, P (fx;()2[A(x);B(x)]g)10: On considère le problème de test de l"hypothèse (H0) :()=0contre (H1) :(),0. SiAetBdéfinissent un intervalle de confiance de niveau de confiance 10pour(), alors sup ;()=0P (fx;()2[A(x);B(x)]g)10; d"où sup ;()=0P (fx;0<[A(x);B(x)]g)0:Par conséquent, le testde région critique
R (H0)=fx;0<[A(x);B(x)]g est un test de niveau0de (H0) contre (H1). La conclusion de ce test s"exprime donc sous la forme simple suivante : si02[A(x);B(x)], alors on accepte l"hypothèse (H0), sinon, onquotesdbs_dbs12.pdfusesText_18[PDF] test statistique student
[PDF] test svt 5eme circulation sanguine
[PDF] testament klaus barbie
[PDF] teste asii cunoasterii clasa 2
[PDF] teste bac biologie
[PDF] teste bac biologie 2016
[PDF] teste bac biologie 9-10 online
[PDF] teste bac romana
[PDF] teste biologie bac 2016 online
[PDF] teste biologie bac online
[PDF] teste biologie clas a 7
[PDF] teste chimie admitere medicina carol davila
[PDF] teste de chimie organica
[PDF] teste de inteligenta