[PDF] Receiving Operator Characteristic (ROC) pdfauthor=Xavier Dupré





Previous PDF Next PDF



La courbe ROC (receiver operating characteristic) : principes et

Utilisée dans de nombreux domaines médicaux cet outil statistique Biais dans l'estimation de l'aire sous la courbe possible.



Tutoriel sur les courbes ROC et leur création grâce au site Internet

16 juin 2020 L'aire sous la courbe ROC est un indicateur statistique quantifiant la capacité du test diagnostique à discriminer les individus malades des ...



Statistiques - Ajustement de courbes

1 Rappels de Statistiques Soit une série statistique : x1x2



MÉDICAMENT GÉNÉRIQUE

sur la comparaison statistique médicament Générique vs Princeps de 2 paramètres d'exposition systémique au médicament : — l'aire sous la courbe (AUC ...



LOIS À DENSITÉ

La probabilité P(37? Y ? 40) correspond à l'aire sous la courbe de la conçoit une loi statistique continue appelée loi normale ou loi de Laplace-.



Sensibilité spécificité

https://cedric.cnam.fr/~saporta/Sensibilite_specificiteSTA201.pdf



Receiving Operator Characteristic (ROC) pdfauthor=Xavier Dupré

16 avr. 2013 Ce théorème nous permet de définir un estimateur pour l'aire sous la courbe ROC à l'aide des. U-statistiques de Mann-Whitney (voir ...



Lincohérence de laire sous la courbe ROC que faire à ce propos

L'un d'eux est l'aire sous la courbe ROC (AUC : the area under the curve). Cette (bien qu'imbriquées) incluant les statistiques



[PDF] Statistiques - Ajustement de courbes

La probabilité pour que la variable x soit comprise entre deux valeurs a et b est donnée par l'intégrale (aire sous la courbe) : Prob(a



[PDF] Statistique descriptive

L'aire sous la courbe polygonale est inchange=n (les bouts extrêmes sout places pour vérifier cette condition Loraque les li deviennent petits



[PDF] Receiving Operator Characteristic (ROC) - Xavier Dupré

16 avr 2013 · L'aire sous la courbe (AUC) correspond à l'intégrale de la fonction ROC Elle se calcule à partir du théorème suivant : Théorème 4 : aire sous 



[PDF] La loi normale

courbe symétrique par rapport `a µ ? forme de cloche ? l'aire grisée représente la proportion cumulée Chapitre 3 2012–2013 



[PDF] Résumé du Cours de Statistique Descriptive - UniNE

15 déc 2010 · Apprendre les principales techniques de statistique descriptive Dans la Figure 5 4 la probabilité Pr[X ? a] est l'aire sous la densité 



[PDF] La courbe ROC (receiver operating characteristic)

Elle permet la détermination et la comparaison des performances diagnostiques de plusieurs tests à l'aide de l'évaluation des aires sous la courbe Elle est 



[PDF] Cours de Statistiques niveau L1-L2 - HAL

7 mai 2018 · Statistique descriptive : elle a pour but de résumer l'information Graphiquement peut se lire sur la courbe de F : Variable continue



[PDF] Application - Département de mathématiques et de statistique

L'aire sous la courbe ROC est un indice permettant d'évaluer l'exactitude prédictive d'un test diagnostique La comparaison des aires sous les courbes associées 



[PDF] MAT 1720 A : Calcul différentiel et intégral I

14 oct 2015 · MAT 1720 A : Calcul différentiel et intégral I Intégration L'aire sous la courbe L'intégrale de Riemann Propriétés de l'intégrale de

:

Receiving Operator Characteristic (ROC)

Xavier Dupré

http://www.xavierdupre.fr/

16 avril 2013

Résumé

Ce document introduit la courbe ROC (Receiving Operator Characteristic) qui est communé- ment utilisée pour mesurer la performance d"un classifieur. Il introduit aussi des termes comme précision, rappel, AUC, qui sont présents dans la plupart des articles qui traitent de machine learning.

Table des matières

1 Définitions1

2 Aire sous la courbe 3

3 Intervalles de confiance pour la courbe 5

4 Pour aller plus loin 8

1 Définitions

Supposons que nous avons un classifieur qui classe des observations en un ensemble de classes. De

plus, il donne cette réponse accompagnée d"un score de pertinence. Deux cas sont possible : soit la

réponse est bonne (1), soit la réponse est fausse (0). Pour chaque observations, on associe un couple

(r;x)oùrest égal à 0 ou 1.xest le score de pertinence. On cherche à déterminer à partir de quel

seuil de pertinence, la réponse du classifieuur est fiable. En faisant varierx, on obtient une courbe

telle que celle de la figure 1.

Cette courbe sert également à comparer différents classifieurs. Plus une courbe a des valeurs élevées,

plus l"aire sous la courbe est grande, moins le classifieur fait d"erreur.

1.1 Quelques termes

D"une manière simplifiée, le classifieur retourne une réponse qui est soit mauvaise (-) soit bonne

(+). On peut l"évaluer car pour construire un classifier on dispose toujours d"une base contenant les

réponses attendues. En fonction du scorexet d"un seuils, on définit quatre cas : 1

Figure1 :Courbe ROC extrait dehttp://en.

wikipedia.org/wiki/File:Roccurves.png.réponse prédite est +réponse prédite est - x>sTP : vrai (true) positifFP : faux positif x < sTN : vrai (true) négatifFN : faux négatif

A partir de ces définitions, on définit :

la précision :

TPTP+FP

le rapp elou recall : TPTP+TNEn choisissant un seuil relatif au score de pertinencex, au-dessus, on valide la réponse du classifieur,

en-dessous, on ne la valide pas. On peut toujours calculer la précision et le rappel pour toutes les

réponses dont le score est au-dessus d"un seuils. La courbe ROC s"obtient en faisant variers.Définition 1 : ROC

On suppose queYest la variable aléatoire des scores des expériences qui ont réussi.Xest

celle des scores des expériences qui ont échoué. On suppose également que tous les scores

sont indépendants. On noteFXetFYles fonctions de répartition de ces variables. On définit en fonction d"un seuils2R:

1.R(s) = 1FY(s)

2.E(s) = 1FX(s)

La courbe ROC est le graphe(E(s);R(s))lorsquesvarie dansR. Avec les notations TP, FP, FN, TN, cela revient à (TP(s)désigne les true positifs au-dessus du seuils) : 2

E(s) = 1TP(s)TP(s) +TN(s)

R(s) = 1FN(s)FN(s) +FN(s)

On remarque que8s; TP(s) +TN(s)est constant. De même pourFN(s) +FN(s).

Remarque 2 : fonctions monotones

On remarque que les fonctionss!E(s)ets!R(s)sont décroissantes toutes deux. Elles sont donc inversibles.

Remarque 3 : score aléatoire

Dans le cas où la variable aléatoireest indépendante de la variableX, la courbe ROC est une droite reliant les points(0;0)et(1p;p)oùp=P(= 1). Ceci signifie que la connaissance du score Xn"apporte pas d"information quant à la réussite de l"expérience.

Il peut paraître complexe de distinguer la réponse du classifieur du score. C"est pourtant nécessaire

dans le cas où le classifieur retourne un entier qui désigne une classe parmin. Un cas positif est

lorsque la classe prédite est égale à la classe attendue, il est négatif dans le cas contraire. La courbe

peut être adaptée pour d"autres problèmes tels que le ranking (voir [Agarwal2005]).

2 Aire sous la courbe

2.1 Expression

L"aire sous la courbe (AUC) correspond à l"intégrale de la fonction ROC. Elle se calcule à partir du

théorème suivant :Théorème 4 : aire sous la courbe On utilise les notations de la définition 1. L"aire sous la courbe ROC est égale àP(Y > X).

Démonstration (théorème 4) :

On notefXla densité de la variableXetfYcelle de la variableY. On peut alors définir la probabilité

P(Y > X)par une intégrale :

P(Y > X) =Z

xZ y f

X(x)fY(y)11fy>xgdxdy(1)

On noteFXla fonction de répartition deX1. On pose comme changement de variable :u=FX(x). On en déduit quedu=fX(x)dx. La variable aléatoireU=FX(X)est uniforme et comprise dans [0;1]2.1.FX(x) =Rx

1fX(u)du

2. SoitXune variable aléatoire de densitéfet de fonction de répartitionF. SiU=F(X), alors :

P(U6t) =P(F(X)6t) =PX6F1(t)=FF1(t)=t

3

P(Y > X) =Z

x f

X(x)dxZ

y f

Y(y)11fy>xgdy

Z u duZ y f

Y(y)11fy>F1

X(u)gdy

Z u duPY > F1 X(u)

Or siu=FX(s) =E(s), alorsF1

X(u) =setPY > F1

X(u)=R0(s). Par conséquent :

P(Y > X) =Z

u duPY > F1

X(u)=Z

u du R0(F1

X(u))(2)

Cette dernière expression est l"aire recherchée. (4) ut

Ce théorème nous permet de définir un estimateur pour l"aire sous la courbe ROC à l"aide des

U-statistiques de Mann-Whitney (voir [Saporta1990]).Corollaire 5 : estimateur de l"aire sous la courbe ROC

On dispose des scores(Y1;:::;Yn)des expériences qui ont réussi et(X1;:::;Xm)les scores

des expériences qui ont échoué. On suppose également que tous les scores sont indépen-

dants. les scores(Yi)sont identiquement distribués, il en est de même pour les scores(Xi).

Un estimateur de l"aireAsous la courbe ROC" est :

A=1nm m X i=1n X j=111 fYj>Xig+12

11fYj=Xig(3)

Démonstration (corollaire 5) :

La démonstration est évidente :

E ^A =1nm m X i=1n X j=1P(Yj> Xi) +12

P(X=Y) =P(Y > X) +12

P(Y=X)

Dans le cas oùXouYsont continues,P(X=Y) = 0.(5)ut

2.2 Intervalles de confiance

Il est possible de déterminer un intervalle de confiance pour cet estimateur. Le théorème central

limite nous permet de dire que cet estimateur tend vers une loi normale lorsquenetmtendent versLa variableUest de loi uniforme sur[0;1]. De plus, soitgune fonction intégrable quelconque, on poseu=F(x)et :

Z R g(x)f(x)dx=Z [0;1]g(F1(u))du 4 l"infini.

Corollaire 6 : variance de l"estimateur

On notePX=P(X 1 + (n1)PY^A2^

A(1^A)+ (m1)PX^A2^

A(1^A)#

(4)

Démonstration (corollaire 6) :

Cette démonstration n"est vrai que dans le cas continu. Par conséquent,P(X=Y) = 0. On calcule tout d"abordE^A2 et on utilise le fait queV^A =E^A2 ^A2. A2=1n 2m22 4 mX i=1n X j=111 fXi 1n 2m2m X i=1n X j=1m X k=1n X l=111 fXiOn en déduit que : E ^A2 =^Anm +n1nm

P(maxfXi;Xkg< Yj) +

m1nm

P(Xi ^A2 V ^A2 =1nm h^A+ (n1)PY+ (m1)PX(n+m+ 1)^A2i 1nm h^A+ (n1) P Y^A2 + (m1) P X^A2 +^A2i

On retrouve l"expression cherchée.

(6) ut

3 Intervalles de confiance pour la courbe

Les systèmes de reconnaissance sont souvent ajustés de telle manière que le taux d"erreur soit

constant, par exemple 1%. C"est la proportion de documents reconnus qui détermine la performance

de ce système. L"objectif ce paragraphe est de déterminer un intervalle de confiance du taux de

reconnaissance pour un taux d"erreur fixé. 5

3.1 Construction de la courbe ROC

Ce premier paragraphe détaille la manière dont est construite une courbe ROC (voir définition 1).Algorithme 7 : courbe ROC

On suppose qu"on dispose d"un ensemble de points(Xi;i)2Rf0;1gpouri2 f1;:::;ng. X

iest le score obtenu pour l"expériencei,ivaut 1 si elle a réussi et 0 si elle a échoué. On

suppose également que cette liste est triée par ordre croissant :8i; Xi6Xi+1. On souhaite également tracerkpoints sur la courbe, on détermine pour celakseuilsfs1;:::;skgdéfinis par :8j;sk=Xj kn On construit ensuite les points(Rj;Ej)définis par : R j=1n n X i=1 i11fXi>sjgetEj=1n n X i=1(1i)11fXi>sjg(6) La courbe ROC est composée de l"ensembleROC=f(Ej;Rj)j16j6kg.

Les deux suites(Rj)jet(Ej)jsont toutes les deux décroissantes d"après leur définition. Une autre

de ces courbe est données par la figure 2. La courbe peut être rendue continue par interpolation.Algorithme 8 : taux de classification à erreur fixe

On cherche un taux de reconnaissance pour un taux d"erreur donné. On dispose pour cela d"une courbe ROC obtenue par l"algorithme 7 et définie par les pointsROC= f(ej;rj)j16j6kg. On suppose ici que(e1;r1) = (1;1)et(ek;rk) = (0;). Si ce n"est pas le cas, on ajoute ces valeurs à l"ensembleROC. Pour un taux d"erreur donnée, on cherchejtel que : e j+16e6ej(7) Le taux de reconnaissancecherché est donné par : =exjx j+1xj[rj+1rj] +rj(8) Il ne reste plus qu"à détailler la méthodebootstrap.

3.2 Méthode boostrap

Une seule courbe ROC ne permet d"obtenir qu"un seul taux. On cherche ici à construire plusieurs

courbes ROC à partir de la même expérience de façon à obtenir plusieurs taux de reconnaissance pour

le même taux d"erreur. De cette manière, il sera possible de déterminer un intervalle de confiance.

6 On s"inspire pour cela des méthodes debootstrap.Algorithme 9 : courbe ROC, méthode boostrap On dispose toujours du nuage de pointsE= (Xi;i)2R f0;1gaveci2 f1;:::;ng. On choisitC2Nle nombre de courbes ROC qu"on désire tracer. Pour chaque courbe c2 f1;:::;Cg: 1. On construit un nouv elensem ble(X0i;0i)16i6nconstruit par un tirage aléatoire dans l"ensembleEavec remise. 2. L"algorithme 7 p ermetd econstuire la courb eRkOC. 3. L"algorithme 8 p ermetensuite de déterminer un taux d ereconnaissance kpour le taux d"erreure. La liste(1;:::;C)est triée par ordre croissant. Les quantiles sont ensuite utilisés pour déterminer l"intervalle de confiance[1;2]du taux de reconnaissance pour le taux d"erreur e de telle sorte que :

P(2[1;2]) = 1(9)

On prend généralement= 5%.

La figure 2 illustre les résultats obtenus par l"algorithme 9.Figure2 :La première image est celle d"une courbe ROC (l"axe des abscisses est inversé), la seconde

représente toutes celles obtenues par la méthode bootstrap pour trois courbes. La troisième image superpose

cent courbes. Moins il y a de points pour estimer une partie de la courbe, plus les courbes sont espacées.

Ces courbes ont été construites avec 12000 points. Le taux de lecture pour 1% d"erreur est égal à 68,09%.

L"intervalle de confiance à 95% est[66;10%;70;16%](construit avec 500 courbes). Moyenne (68,25) et mé-

diane (68,12) sont sensiblement égales au taux calculé sur la première courbe construite sans tirage aléatoire.

L"écart-type est1;10, cela donne un intervalle de confiance équivalent au précédent si on considère que la

moyenne des taux suit asymptotiquement une loi normale. Cette expérience a été reproduite plusieurs fois et

ces bornes sont assez stables contrairement (0;05%) aux extremas (1%). 7

3.3 Aire sous la courbe

La méthode bootstrap peut elle aussi être appliquée pour calculer un intervalle de confiance pour

l"aire sous la courbe (AUC).Figure3 :Courbe ROC (l"axe des abscisse est inversé) obtenue pour 100 tirages aléatoires. L"aire sous la

courbe est égale à 0.80 et l"intervalle de confiance à 95% mesurée par la méthode bootsrap est :[0:79;0:80].

Les extremas sont presque identiques à ces chiffres.

4 Pour aller plus loin

4.1 Distribution des scores mauvais et bons

On appelle un mauvais score un score associé à un mauvais résultat, de même, un bon score est

le score d"un bon résultat. Si le score est une probabilité, on s"attend à trouver les bons scores

regroupés autour de la valeur 1. Si le score est un mauvais score, il devrait être plus proche de zéro.

La figure 4 montre des distributions obtenues pour deux problèmes différents. Dans les deux cas,

le but recherché est la détermination d"un seuil séparant le score d"un bon résultat de celui d"un

mauvais résultat. Lorsque ceci n"est pas possible, le score ne peut correspondre à un quelconque

critère confiance.

4.2 Taux de lecture ou de reconnaissance

Il n"existe pas une grande différence lorsque le taux d"erreur est faible. Le taux de lecture est simplement la proportion de documents pour lesquels le score est aussi d"un seuilsque la réponse du classifieur soit bonne ou mauvaise. Par exemple, pour un taux desubstitutionde 1%, si on a

70% en taux de lecture, cela signifie que sur 100 documents, le système va en accepter 70 et parmi

ces 70, 1% seront mal traités. Le taux de substitution est un taux d"erreur rapporté à un taux de

lecture donné. L"inconvénient du taux de lecture rapporté au taux de substitution est que la méthode

développée au paragraphe 3 ne s"applique plus aussi bien car pour un taux de substitution donné,

il peut exister plusieurs taux de lecture, ce que montre la figure 5. Cette même figure montre les

répercussions sur le calcul des intervalles de confiance. 8

Figure4 :Distribution des bons et mauvais scores. La première courbe montre deux distributions qui

se chevauchent même si les bons scores semblent plus concentrés autour des grandes valeurs. Le seconde

courbe montre un problème mieux séparable. L"existence d"un seuil entre un bon et un mauvais score est plus

plausible. On peut démontrer que la courbe taux de lecture / taux de substitution n"est pas une courbe ni monotone ni inversible. Pour cela on dispose d"une suite de couple(Xi;i)croissante selon lesXi.i

vaut 1 si l"expérience a réussi, 0 sinon. Pour un seuil donnés, on noteE0(s)le taux de substitution

etR0(s)le taux de lecture, on obtient : R

0(s) =1n

n X i=111 fXi>sg E

0(s) =1nR

0(s)n X i=1(1i)11fXi>sg On écrit différemment ces expressions en supposant queXi(s1)1< s16Xi(s1): R

0(s1) =ni(s1)n

E

0(s1) =1ni(s1)n

X i=i(s1)(1i) On suppose maintenant queXi(s2)1< s26Xi(s2)eti(s1) + 1 =i(s2): 9

Figure5 :La première image montre 5 courbes taux de lecture / taux de substitutions. Les courbes ne sont

pas monotones et montre qu"il existe parfois plusieurs taux de lecture pour un même taux de substitution.

Comme le calcul des intervalles de confiance fait intervenir une interpolation linéaire, lorsque les courbes

sont trop cahotiques, le calcul retourne des valeurs fausses. R

0(s2) =ni(s2)n

< R0(s1) E

0(s2) =1ni(s2)n

X i=i(s2)(1i) =1ni(s2)ni(s1)ni(s1)0

1i(s1)+nX

i=i(s1)(1i)1 A =1i(s1)ni(s2)+n P Si on suppose quei(s1)= 1, autrement dit, l"expériences1a réussi, on en déduit que : E

0(s2) =E0(s1)ni(s1)ni(s2)=E0(s1)ni(s2) + 1ni(s2)> E0(s1)

En revanche sii= 0:

E

0(s2) =E0(s1)

1 +1ni(s2)

1ni(s2)=E0(s1) +E(s1)1ni(s2)< E0(s1)

Il n"existe donc pas toujours une fonctionfreliantR0(s)àE0(s)à moins de construire cette courbe

de telle sorte qu"elle soit monotone en ne choisissant qu"une sous-suite(E0(Xi);R0(Xi))iqui vérifie

cette hypothèse. 10

Références

[Agarwal2005] Shiv aniAgarw al,Thore Graep el,Ralf Herb ich,Sariel Har-P eled,Dan Roth, Gene- ralization Bounds for the Area Under the ROC Curve, Journal of Machine Learning Research

6 (2005), pp 393-425

[Saporta1990] Gilb ertS aporta,Probabilités, analyse des données et statistique, Editions Technip (1990) 11 Index A aire

ROC ..................................... 3

Algorithme

courbe ROC..............................6 courbe ROC, méthode boostrap...........7 taux de classification à erreur fixe.........6

Area Under the ROC Curb ................... 3

AUC ....................................... 3, 8

B C

Corollaire

estimateur de l"aire sous la courbe ROC...4 variance de l"estimateur...................5 critère confiance ................................. 8 D

Définition

ROC ..................................... 2

distribution ............................... 9, 10 I intervalle de confiance .............................. 4 M P R rappel ........................................ 2 recall ......................................... 2

Receiver Operating Characteristic .......... 7, 8

Receiver Operator Characteristic..............1

références

Agarwal2005..........................3, 11

Saporta1990 .......................... 4, 11

remarque fonctions monotones ...................... 3 score aléatoire ............................ 3 ROC.....................................1, 7, 8bootstrap.................................6 S T taux

Théorème

aire sous la courbe........................3 tirage avec remise ............................... 7 U W Z numéros

Algorithme

7 ....................................... 6

8 ....................................... 6

9 ....................................... 7

Corollaire

5 ....................................... 4

6 ....................................... 5

Définition

1 ....................................... 2

démonstration corollaire 5 ............................. 4 corollaire 6 ............................. 5 théorème 4 ............................. 3

Théorème

4 ....................................... 3

liens http :// en. wikipedia. org/ wiki/

File :Roccurves.png...................2

http ://www.xavierdupre.fr/..............1 12quotesdbs_dbs35.pdfusesText_40

[PDF] tp physique mouvement d'un projectile

[PDF] aire sous la courbe unité

[PDF] tp mouvement d'un projectile dans un champ de pesanteur uniforme

[PDF] aire sous la courbe pharmacocinétique

[PDF] aire sous la courbe biodisponibilité

[PDF] tp chute parabolique d'une bille

[PDF] tp mouvement parabolique

[PDF] fabriquer un zootrope simple

[PDF] image zootrope

[PDF] exercice mouvement d'une particule chargée dans un champ électrique

[PDF] image pour zootrope

[PDF] exemple d'un texte narratif descriptif

[PDF] production écrite texte narratif exemple

[PDF] un texte narratif définition

[PDF] comment rédiger un texte narratif