[PDF] Tests Statistiques 2 Tests statistiques : premières





Previous PDF Next PDF



Estimation et tests statistiques TD 5. Solutions

Exercice 1 – Dans un centre avicole des études antérieures ont montré que la masse d'un oeuf choisi au hasard peut être considérée comme la réalisation 



Tests Statistiques

2 Tests statistiques : premières pierres et construction Exercice 1 : Test sur l'espérance d'une loi gaussienne ... 3.5 Problèmes corrigés.



Exercices corrigés de statistiques inférentielles – Tests dhypothèses

Exercice 1 Tests classiques – Probabilité critique. Dans un centre de renseignements téléphoniques une étude statistique a montré que l'attente (en 



LES TESTS DHYPOTHÈSE

2. La statistique qui convient pour le test est donc une variable aléatoire dont la valeur observée sera utilisée pour décider du « rejet » ou du « non 



Introduction aux tests statistiques avec

xi. C'est une estimation ponctuelle de la valeur moyenne de X. ? L'écart-type corrigé de x1



Exercices Corrigés Statistique et Probabilités

I. Statistique descriptive univariée. Exercice 1. On dispose des résultats d'une enquête concernant l'âge et les loisirs d'une population de 20 personnes:.



L2 - Psychologie 2019-2020 - Trois exercices sur les tests

L'exercice 2 est un exercice de comparaison de moyennes précédé d'un exercice de comparaison Corrigé de l'Exercice 1. ... Statistiques du test.



Exercices et problèmes de statistique et probabilités

Corrigés des exercices . 7.1 Définition générale d'un problème de test . ... Énoncés des Problèmes sur les tests non paramétriques d'adéquation .



DEVOIR : CORRIGE

CORRIGES DES EXERCICES : Tests de proportion et test du signe pour la médiane. Exercice 2.1 loi de la statistique de test sous l'hypothèse nulle.



Université de Batna 2 Faculté de médecine Corrigé type de TD9 de

Corrigé type de TD9 de Bio-statistique (2019/2020) : Test d'hypothèses. Exercice 1 : 2) Calcul de la statistique de test observée :.

TestsStatistiques

Rejeter,ne pas rejeter... Se risquer?MagalieFromont

Ann´ee universitaire2015-2016

Table des matières

1 Introduction 5

1.1 Problèmes de tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Modèles statistiques : rappels . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.2 Hypothèse nulle pas si nulle, hypothèse alternative . . . . . . . . . . . 5

1.2 Exemple à boire sans modération . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Problème de test envisagé . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.2 Règle de décision et risques associés . . . . . . . . . . . . . . . . . . . . 7

2 Tests statistiques : premières pierres et construction 9

2.1 Tests statistiques (non randomisés) . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Erreurs et risques de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.1 Risque de première espèce, niveau et taille, probabilité critique . . . . 10

2.2.2 Risque de deuxième espèce, fonction puissance . . . . . . . . . . . . . 11

2.3 Construction de tests (non randomisés) . . . . . . . . . . . . . . . . . . . . . . 12

2.3.1 Le principe de Neyman et Pearson . . . . . . . . . . . . . . . . . . . . . 12

2.3.2 La construction en pratique . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.4 Intervalles de confiance et problèmes de test bilatères . . . . . . . . . . . . . . 13

3 Tests paramétriques de base pas si basiques 15

3.1 Tests en modèles gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.1.1 Tests sur l"espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.1.2 Tests sur la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3.1.3 Tests de comparaison d"espérances . . . . . . . . . . . . . . . . . . . . . 17

3.1.4 Tests de comparaison de variances . . . . . . . . . . . . . . . . . . . . . 18

3.2 Tests en modèles de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2.1 Tests sur une probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2.2 Tests de comparaison de probabilités . . . . . . . . . . . . . . . . . . . 19

3.3 Test du rapport de vraisemblance maximale . . . . . . . . . . . . . . . . . . . . 19

3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.5 Problèmes corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.5.1 Faire le ménage ou l"amour, faut-il choisir? . . . . . . . . . . . . . . . . 25

3.5.2 Élections présidentielles 2012 . . . . . . . . . . . . . . . . . . . . . . . . 30

3.5.3 Fermeture de Megaupload . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.5.4 Crise publicitaire pour M6 . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3

Table des matières

4 Tests de Neyman-Pearson, tests uniformément plus puissants 45

4.1 Tests randomisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.2 Tests uniformément plus puissants (UPP), tests sans biais . . . . . . . . . . . . 47

4.3 Tests d"hypothèses simples - Lemme fondamental de Neyman-Pearson . . . . 47

4.4 Tests d"hypothèses composites . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4.4.1 Extension du Lemme de Neyman-Pearson . . . . . . . . . . . . . . . . 50

4.4.2 Tests unilatères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.4.3 Tests bilatères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4.4.4 Tests avec paramètres de nuisance . . . . . . . . . . . . . . . . . . . . . 57

4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4.6 Problèmes corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.6.1 Campagne d"e-mailing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.6.2 Presse écrite en danger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4.6.3 Ensemencement des nuages . . . . . . . . . . . . . . . . . . . . . . . . . 69

5 Tests non paramétriques du Khi-Deux et de Kolmogorov-Smirnov 71

5.1 Les tests du Khi-Deux de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . 71

5.1.1 La (pseudo) distance du Khi-Deux . . . . . . . . . . . . . . . . . . . . . 71

5.1.2 Le test du Khi-Deux d"adéquation . . . . . . . . . . . . . . . . . . . . . 72

5.1.3 Le test du Khi-Deux d"indépendance . . . . . . . . . . . . . . . . . . . 73

5.1.4 Le test du Khi-Deux d"homogénéité . . . . . . . . . . . . . . . . . . . . 74

5.2 Test de Kolmogorov-Smirnov, extensions et généralisations . . . . . . . . . . . 74

5.2.1 Le test de Kolmogorov-Smirnov d"adéquation . . . . . . . . . . . . . . 74

5.2.2 Le test de Kolmogorov-Smirnov d"homogénéité . . . . . . . . . . . . . 76

5.2.3 Tests de Cramér-von Mises et Anderson-Darling . . . . . . . . . . . . . 77

5.2.4 Test de normalité de Lilliefors . . . . . . . . . . . . . . . . . . . . . . . . 78

5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

6 Tests non paramétriques basés sur les rangs ou les statistiques d"ordre 83

6.1 Symétrie : test des rangs signés de Wilcoxon . . . . . . . . . . . . . . . . . . . 83

6.2 Homogénéité : tests de Wilcoxon et Mann-Whitney . . . . . . . . . . . . . . . 84

6.3 Tests de Wilcoxon et Mann-Whitney : présence d"ex aequo . . . . . . . . . . . 85

6.4 Normalité : test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . 85

7 Annales corrigées 87

7.1 Lutte contre la fraude fiscale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

7.2 Dernière pensée pour Gregory House . . . . . . . . . . . . . . . . . . . . . . . 95

7.3 Vaccination contre la grippe A pandémique . . . . . . . . . . . . . . . . . . . . 104

7.4 Finale de Roland Garros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

7.5 Solidarités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

7.6 Réussite et insertion professionnelle . . . . . . . . . . . . . . . . . . . . . . . . 127

8 Rappels utiles sur les lois usuelles dans

Ret dansRn133

8.1 Lois usuelles dans

R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

8.1.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

8.1.2 Lois absolument continues . . . . . . . . . . . . . . . . . . . . . . . . . 137

8.2 Lois usuelles dansRn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

4

Chapitre 1

Introduction

On considère un phénomène aléatoire modélisé par une variable aléatoireX, dont la loi de

probabilitéPest connue à un paramètre2(inconnu) prés. Comme dans le cadre d"un problème d"estimation, on disposed"une observationxde cettevariableX(souvent,Xest un n-échantillon (X1;:::;Xn) d"une variable aléatoire parente etx=(x1;:::;xn) est l"observation de cet échantillon, ou bienX=(Y;Z), oùY=(Y1;:::;Yn1) etZ=(Z1;:::;Zn2) sont deux échantillons indépendants etx=(y;z) est l"observation de ces échantillons). laissant penser a priori que le paramètreappartient à un sous-ensemble0de, et on cherche à valider ou invalider cette hypothèse sur la base de l"observationx.

1.1 Problèmes de tests

1.1.1 Modèles statistiques : rappels

Définition 1(Modèle statistique).Lemodèle statistiquecorrespondant à la variable X est défini

par le triplet(X;A;fPg2), oùXest l"ensemble des valeurs possibles de l"observation x de X,Aest

une tribu surX, Pest la loi de X, dépendant d"un paramètre, inconnu, supposé appartenir à un

ensemblefixé. Définition 2(Modèle identifiable).Le modèle statistique(X;A;fPg2)est ditidentifiablesi l"application7!Pest injective. Définition 3(Modèle paramétrique/non paramétrique).Le modèle statistique(X;A;fPg2) est ditparamétriquesiRdpour d2N,non paramétriquesinon.

1.1.2 Hypothèse nulle pas si nulle, hypothèse alternative

Définition 4(Hypothèse statistique).Faire une hypothèse statistique sur le paramètreconsiste

à se donner un sous-ensemblede, et à énoncer queappartient à. L"hypothèse s"écrit alors

(H) :2: Définition 5(Problème de test, hypothèse nulle/alternative).Se poser unproblème de test consiste à :

1. Considérer deux hypothèses(H0)et(H1), appelées respectivementhypothèse nulleethypo-

thèse alternative, correspondant à des sous-ensembles disjoints0et1de. 5

Chapitre 1. Introduction

2. Chercher à décider, sur la base de l"observation x, laquelle des deux hypothèses(H0)et(H1)

est vraie.

On dit alors qu"on teste(H0) :20contre(H1) :21.

Accepter(H0)revient à décider que(H0)est vraie, rejeter(H0)au profit de(H1)revient à décider que

(H1)est vraie. Exemple courant et historique :X=(X1;:::;Xn) est un échantillon d"une loi d"espérance, mesurée après cet événement. On teste l"hypothèse nulle (H0) :20=f0g(absence d"eet moyen de l"événement) contre l"hypothèse alternative (H1) :21= nf0g, ou encore (H0) :=0 contre (H1) :,0.

Cet exemple est à l"origine de la dénomination de l"hypothèse nulle... qui n"est en fait pas si

"nulle", par le rôle privilégié qui lui est attribué.

Dissymétrie des hypothèses

En théorie des tests classique issue du principe de Neyman et Pearson, les hypothèses nulle

et alternative ne jouent pas des rôles symétriques. (H0) est l"hypothèse que l"on privilégie,

dans le sens où elle est présumée vraie tant que l"observationxne conduit pas à la rejeter

au profit de (H1). L"analogie entre un problème de test d"hypothèses et un procès d"assises

peut aider à comprendre. Dans un procès d"assises, tout suspect est présumé innocent tant

qu"on n"apporte pas la preuve de sa culpabilité, preuve qui doit de plus s"appuyer sur des

éléments matériels. De la même façon, dans un problème de test de (H0) contre (H1), (H0)

est présumée vraie tant qu"on n"apporte pas de preuve (xconstitue les éléments matériels

ici) contre elle au profit de (H1). Donc, accepter (H0), c"est seulement dire qu"on n"a pas pu, au vu de l"observationx, la rejeter au profit de (H1). Accepter (H0), c"est "acquitter faute de preuve". On préférera donc souvent dire dans ce cas que l"on ne rejette pas (H0) au profit de (H1).

Diérentes formes d"hypothèses

- Hypothèses simples :0=f0get1=f1g, i.e. (H0) :=0contre (H1) :=1. Exemples dans des cadres paramétriques et non paramétriques. - Hypothèse simple contre hypothèse composite :0=f0get1contient au moins deux éléments. Par exemple, dans le cas où =R,

1.0=f0get1=Rnf0g, i.e. (H0) :=0contre (H1) :,0. Le problème de

test est ditbilatère.

2.0=f0get1=]0;+1[, i.e. (H0) :=0contre (H1) : > 0, ou0=f0get

1=] 1;0[, i.e. (H0) :=0contre (H1) : < 0. Le problème de test est dit

unilatère. Exemples des tests non paramétriques d"adéquation à une loi. - Hypothèses composites :0et1contiennent au moins deux éléments. Par exemple, dans le cas où =R,

1.0=] 1;0] et1=]0;+1[, i.e. (H0) :0contre (H1) : > 0, ou

0=[0;+1[ et1=] 1;0[, i.e. (H0) :0contre (H1) : < 0. Le

problème de test est ditunilatère. 6

1.2. Exemple à boire sans modération

2.0=[1;2] et1=] 1;1[[]2;+1[. Le problème de test est ditbilatère.

Exemples des tests paramétriques de comparaison. Exemples des tests non paramétriques d"appartenance à une famille de lois. Exemples des tests non paramétriques d"indépendance.

1.2 Exemple à boire sans modération

Le ministère de la santé étudie régulièrement la nécessité de prendre des mesures contre

la consommation d"alcool, et l"ecacité de telles mesures. L"INSEE fournit à cet eet no- tamment des données annuelles sur la consommation moyenne d"alcool par personne et

par jour. En janvier 1991, la loi Evin limite la publicité pour les boissons alcoolisées, et une

campagne de publicité "Tu t"es vu quand t"as bu?" est lancée en parallèle. La consommation moyenne d"alcool pur par personne de plus de 15 ans et par jour (en g) est supposée suivre une loi gaussienneN(m;2) avec=2. En 1990, avant la loi Evin,mest supposée égale à

35. Le ministère juge qu"un objectif immédiat à atteindre est quempasse de 35 à 33. Sur

l"observation des consommations moyennes d"alcool pour les années 1991 à 1994 comprises,

le ministère se fixe la règle de décision suivante : si la moyenne des consommations d"alcool

par personne et par jour sur ces 4 années est supérieure au seuil de 34:2, les mesures prises sont jugées inecaces.

10 grammes d"alcool pur correspondent à un verre de boisson alcoolisée servi dans un café

soit à peu prés 10 cl de vin à 12,5 degrés, 25 cl de bière à 5 degrés, 6 cl de porto à 20 degrés

et 3 cl de whisky ou autre spiritueux à 40 degrés.

Questions.

- Quels sont les risques associés à cette règle de décision arbitraire? - Peut-on se donner des critères objectifs pour fixer un autre seuil que 34:2?

1.2.1 Problème de test envisagé

SoitX=(X1;X2;X3;X4) la variable aléatoire modélisant la consommation moyenne d"alcool pur par personne de plus de 15 ans et par jour au cours des années 1991 à 1994, etx= (x1;x2;x3;x4) l"observation de cette variable. avecparamètre inconnu (=m2 =]0;+1[). On souhaite, au vu de l"observationx, trancher entre les deux hypothèses=33 ou=35.

On privilégie ici l"hypothèse=33 dans le sens où elle est présumée vraie tant qu"on n"a

pas d"éléments pour lui préférer l"hypothèse=33, i.e. on ne souhaite pas la rejeter à tort.

On veut donc tester (H0) :=33 contre (H1) :=35.

1.2.2 Règle de décision et risques associés

La règle de décision retenue par le ministère se traduit de la façon suivante : - Si 14 P 4 i=1xis, on rejette (H0) au profit de (H1). - Si 14 P 4 i=1xiChapitre 1. Introduction Le seuilsest ici fixé arbitrairement à 34:2. Chacune des décisions possibles a pour conséquence une erreur éventuelle : - Décider que les mesures n"ont pas été ecaces (rejeter (H0) au profit de (H1)) alors qu"elles l"ont été (alors que (H0) est vraie), et prendre de nouvelles mesures. - Décider que les mesures ont été ecaces (accepter ou ne pas rejeter (H0) au profit de (H1)) alors qu"elles ne l"ont pas été (alors que (H1) est vraie), et ne rien faire.

Le modèle statistique posé rend possible le calcul des probabilités ou risques associés à ces

deux erreurs. Soitla probabilité de rejeter (H0) au profit de (H1) alors que (H0) est vraie. =P330

BBBBB@8

>><>>:x=(x1;x2;x3;x4);14 4 X i=1x i34:29 >>=>>;1

CCCCCA;

que l"on noteraP3314 P 4 i=1Xi34:2, posant queXsuit ici la loiP33=N(33;4)N4.

LorsqueXsuit la loiP33,14

P 4 i=1Xi=¯Xsuit la loiN(33;1), et (¯X33) N(0;1). On a donc =P(N34:233); oùN N(0;1), et finalement, siFdésigne la fonction de répartition de la loiN(0;1), =1F(1:2)=0:1151: De la même façon, on peut calculer la probabilitéde ne pas rejeter (H0) au profit de (H1) alors que (H1) est vraie : =P35¯X<34:2=F(34:235)=0:2119:

Ces probabilités ne sont pas équivalentes, la deuxième étant supérieure à la première.

On a donc ici contrôlé en priorité le risque de décider que les mesures n"ont pas été ecaces

(rejeter (H0) au profit de (H1)) alors qu"elles l"ont été (alors que (H0) est vraie).

0:05, un seuilsdiérent de 34:2 doit être choisi.

Sachant queP33¯Xs=1F(s33), et que le 0.95-quantile de la loiN(0;1) vaut 1:645, s=34:645 convient. On aura ainsiP33¯Xs=0:05. Cet exemple va nous permettre de définir la notion de test statistique (non randomisé), ainsi que les notions qui s"y rattachent. 8

Chapitre 2

Tests statistiques : premières pierres et

construction

2.1 Tests statistiques (non randomisés)

Définition 6(Test statistique (non randomisé), région de rejet ou critique).Un test statistique

(non randomisé) consiste en une partition deXen deux ensembles : l"ensemble des valeurs possibles

de x conduisant au rejet de(H0)au profit de(H1), notéR(H0)et appelérégion de rejetourégion

critiquedu test, et son complémentaire dansXqui correspond à l"ensemble des valeurs possibles de

x ne conduisant pas au rejet de(H0)au profit de(H1). celui considéré ensuite àR(H0)=fx;¯x34:645g.

Un test statistique (non randomisé) est donc caractérisé par sa région critique, ou encore par

la fonction indicatrice de sa région critique. Définition 7(Fonction de test (non randomisé)).On appellefonction du test (non randomisé) derégioncritiqueR(H0)lastatistiquedeXdansf0;1g,telleque(x)=1sietseulementsix2 R(H0). Autrement dit, si(x)=1, on rejette(H0)au profit de(H1), et si(x)=0, on ne rejette pas(H0)au profit de(H1).

Remarques.

- On peut voir(x) comme la probabilité de rejeter (H0) au profit de (H1) avec le test

à partir de l"observationx.

- Un test statistique étant entièrement caractérisé par sa fonction de test, on confondra

souvent les deux dénominations.

Définition 8(Statistique de test, valeurs critiques).La région critique d"un test s"écrit en général

sous l"une des formes suivantes :R(H0)=fx;T(x)sg,R(H0)=fx;T(x)sg,R(H0)=fx;jT(x)j sg, R (H0)=fx;T(x)s1g [ fx;T(x)s2g, ouR(H0)=fx;T(x)2[s1;s2]g(s1statistique surXappeléestatistique de test, et où s, s1et s2sont appeléesles valeurs critiquesdu

test. Exemple de la Section 1.2 :T(x)=¯xest la statistique des tests considérés,s=34:2 puis s=34:645 sont les valeurs critiques des tests considérés. 9 Chapitre 2. Tests statistiques : premières pierres et construction

2.2 Erreurs et risques de décision

Prendre la décision de rejeter ou non une hypothèse nulle au profit d"une hypothèse alter- native, c"est prendre le risque de commettre une erreur. Deux types d"erreurs sont possibles.

de première espèceet, si l"on ne rejette pas (H0) au profit de (H1) alors que (H1) est vraie, on

parle d"erreur de deuxième espèce.

Réalité

Décision(H0)(H1)(H0)décision correcteerreur de 2ème espèce (H1)erreur de 1ère espècedécision correcte

2.2.1 Risque de première espèce, niveau et taille, probabilité critique

A chaque type d"erreur correspond une probabilité ou un risque de commettre cette erreur. Définition 9(Risque de première espèce).Lerisque de première espèced"un testest l"application, notée, qui à chaque020donne la probabilité P0de rejeter(H0)avec: :0![0;1]

07!(0)=P0(R(H0))=P0(fx;(x)=1g):

Pour simplifier les notations, on pourra écrireP0((X)=1) pour désigner la probabilité P

0(fx;(x)=1g).

On remarque ici que(0)=E0[(X)], oùE0[(X)] désigne l"espérance de(X) lorsqueX est de loiP0. Définition 10(Risque de première espèce maximal).Lerisque de première espèce maximal d"un testest donné parsup020(0). Définition 11(Test de niveau/taille0).Soit02[0;1].

Un testest deniveau0si son risque de première espèce maximal est inférieur ou égal à0i.e. :

sup

020(0)0(inéquation du niveau):

Un testest detaille0si son risque de première espèce maximal est égal à0i.e. : sup

020(0)=0(équation de la taille):

Exemple de la Section 1.2 : le test(x)=1¯x34:645est de taille 0:05, donc également de niveau 0:05. 10

2.2. Erreurs et risques de décision

Définition 12(Probabilité critique oup-valeur). - SiR(H0)est de la formefx;T(x)sg, où T est une statistique de test, s une valeur critique, on définit laprobabilité critiqueou p-valeur(p-valueen anglais) du test de région critique R (H0)comme p(x)=sup 020P

0(T(X)T(x)):

- SiR(H0)est de la formefx;T(x)sg, on définit laprobabilité critiqueou p-valeurdu test de région critiqueR(H0)comme p(x)=sup 020P

0(T(X)T(x)):

P pas l"hypothèse(H0)au profit de(H1)sur la base de l"observation x. Exemple de la Section 1.2 : les tests considérés sont de la forme(x)=1¯xs, et puisque (x1;x2;x3;x4)=(34:7;34:4;33:7;33:3), leurp-valeur estp(x)=P33(¯X34:025)=0:1527. Puisquep(x)0:05, on ne rejette pas (H0) au profit de (H1) pour un niveau 0:05. En eet, on a bien

¯x<34:645.

2.2.2 Risque de deuxième espèce, fonction puissance

Définition 13(Risque de deuxième espèce).Lerisque de deuxième espèced"un testest

l"application, notée, qui à chaque121associe la probabilité P1de ne pas rejeter(H0)au profit

de(H1)avec: :1![0;1]

17!(1)=P1(XnR(H0))=P1(fx;(x)=0g):

Remarque.(1)=1E1[(X)].

Définition 14(Fonction puissance).Lafonction puissancedu testest l"application, notée qui à chaque121associe la probabilité P1de rejeter(H0)au profit de(H1)avec: :1![0;1]

17!1(1)=P1(R(H0))=P1(fx;(x)=1g):

Remarques.

(1)=E1[(X)]. Par ailleurs, lorsque1=f1g, on parle de puissance du test. La fonction puissance est le prolongement de la fonctionsur1. Exemple de la Section 1.2 : le test(x)=1¯x34:645est, comme on l"a vu, de niveau 0:05. Son

risque de deuxième espèce est égal à 0:3613 et sa puissance à 10:3613=0:6387 (test peu

puissant). 11 Chapitre 2. Tests statistiques : premières pierres et construction

2.3 Construction de tests (non randomisés)

2.3.1 Le principe de Neyman et Pearson

Pour des hypothèses (H0) et (H1) fixées, un test de (H0) contre (H1) "idéal" serait un test de risques de première et deuxième espèces minimum. Cependant, on peut remarquer notamment qu"un test qui consiste à toujours accepter (H0) a un risque de première espèce nul, mais un risque de deuxième espèce maximum. Réciproquement, un test qui consiste à toujours rejeter (H0) au profit de (H1) a un risque de deuxième espèce nul, mais un risque

de première espèce maximum. A taille d"échantillon fixée, diminuer le risque de première

espèce ne peut se faire en général qu"au détriment du risque de deuxième espèce et vice

versa (principe des vases communicants). Il est donc impossible, dans la plupart des cas, de

trouver un test minimisant à la fois les risques de première et deuxième espèces. Afin de

sortir de cette impasse, Neyman et Pearson proposent, en 1933, de traiter les deux risques de

façon non symétrique, définissant ainsi le principe de dissymétrie des hypothèses. Lors de la

construction d"un test, ils choisissent de considérer comme prioritaire de contrôler l"un des

deux risques, celui de première espèce, par une valeur0fixée a priori (en pratique 0:01, 0:05

voire 0:1), et d"utiliser ensuite le risque de deuxième espèce ou la puissance pour évaluer la

qualité du test.

2.3.2 La construction en pratique

La construction pratique d"un test peut se faire selon le schéma suivant :

1. Détermination d"un modèle statistique représentant le phénomène aléatoire étudié.

2. Détermination des hypothèses (H0) et (H1) à partir du problème posé, en respectant

la dissymétrie des rôles des deux hypothèses.

3. Déterminationd"unestatistiquedetestT:X !Rcommeoutildécisionnel,respectant

de(elle ne doit donc pas dépendre de), la loi deT(X) sous l"hypothèse (H0) (ou

à sa "frontière") doit être entièrement connue, libre du paramètre inconnu, tabulée si

possible, et sa loi sous (H1) doit diérer de celle sous (H0). Cette statistique de test est souvent construite à partir d"un estimateur de, ou d"un estimateur d"une distance choisie entreet0.

4. Détermination intuitive de la forme de la région critique et de la fonction de test, sur

la base des seules connaissances en estimation généralement. Par exemple,R(H0)= fx;T(x)sg,R(H0)=fx;T(x)sg,R(H0)=fx;jT(x)j sg,R(H0)=fx;T(x)s2ouT(x) s

1g,R(H0)=fx;T(x)2[s1;s2]g(s1

5. Détermination précise des valeurs critiquess,s1,s2, de telle façon que le test soit bien

de niveau0fixé au préalable (c.f. inéquation du niveau), de taille la plus proche possible de0(pour ne pas trop perdre en puissance).

6. Conclusion au vu de l"observationx.

7. Évaluation de la puissance du test, ou tracé de la fonction puissance éventuellement.

12

2.4. Intervalles de confiance et problèmes de test bilatères

2.4 Intervalles de confiance et problèmes de test bilatères

Définition 15.Étant donné02]0;1[, unintervalle de confiance de niveau de confiance 10 pour()est défini par deux statistiques A et B telles que pour tout2, P (fx;()2[A(x);B(x)]g)10: On considère le problème de test de l"hypothèse (H0) :()=0contre (H1) :(),0. SiAetBdéfinissent un intervalle de confiance de niveau de confiance 10pour(), alors sup ;()=0P (fx;()2[A(x);B(x)]g)10; d"où sup ;()=0P (fx;0<[A(x);B(x)]g)0:

Par conséquent, le testde région critique

R (H0)=fx;0<[A(x);B(x)]g est un test de niveau0de (H0) contre (H1). La conclusion de ce test s"exprime donc sous la forme simple suivante : si02[A(x);B(x)], alors on accepte l"hypothèse (H0), sinon, onquotesdbs_dbs12.pdfusesText_18

[PDF] test statistique non paramétrique

[PDF] test statistique student

[PDF] test svt 5eme circulation sanguine

[PDF] testament klaus barbie

[PDF] teste asii cunoasterii clasa 2

[PDF] teste bac biologie

[PDF] teste bac biologie 2016

[PDF] teste bac biologie 9-10 online

[PDF] teste bac romana

[PDF] teste biologie bac 2016 online

[PDF] teste biologie bac online

[PDF] teste biologie clas a 7

[PDF] teste chimie admitere medicina carol davila

[PDF] teste de chimie organica

[PDF] teste de inteligenta