Module 7 - Arbres de décisions Exercices - Corrigé
Page 1. Module 7 - Arbres de décisions. Exercices - Corrigé. Exercice 2. L'entropie peut être calculée selon : Individu. Taille. Couleur. Class.
Chapitre 9 Arbres de décision Solutions
Arbres de décision. Solutions. 1. Pour classifier un nouvel exemple on traverse l'arbre depuis la racine jusqu'`a une feuille. Pour chaque nœud interne
Exercice arbres de décision Problème de la compression/ dilation
Exercice arbres de décision. ▫ Construire l'arbre de décision à partir des données suivantes en utilisant l'algorithme ID3. ▫ Rappel: 2. Présence.
Corrigé
Exercice 2 (10 points) : Le tableau suivant contient des données sur les Nous avons donc deux arbres de décision possibles : Bien. Mention ? Admis. 8.
Apprentissage artificiel: Arbre de décisions
Exercice. Sachant que le premier attribut sélectionné est type continuer la construction de l'arbre de décision correspondant à cette base en utilisant l
Arbres de décision
tiré de Bratko exercice 18.2. Une maladie M est présente dans 25% des cas incorrectes produites par l'arbre de décision
Exercices corrigés sur probl`emes NP-complets
12 sept. 2018 ENONC´ES DES EXERCICES. I) Probl`eme de décisions a) Graphe eulérien ... Probl`eme k-Arbre-coloration. Données : Un arbre T = (VE) et un entier k ...
Examen
10 janv. 2016 Calculer les r`egles solides correspondant `a un seuil de confidence = 0.9. 4. En déduire un mod`ele de décision. B. Arbre de décision (4 pts :3 ...
Synthèse de cours exercices corrigés
Arbre binomial. 2 périodes avec les probabilités risque neutre associées à chaque ... décision d'investissement ainsi que l'utilisation des options réelles ...
Module 7 - Arbres de décisions Exercices - Corrigé
Page 1. Module 7 - Arbres de décisions. Exercices - Corrigé. Exercice 2. L'entropie peut être calculée selon : Individu. Taille. Couleur. Class.
Arbres de décision
Arbres de décision. François Paradis. Décembre 2005 Construction d'un arbre. • à chaque noeud choisir l'attribut de ... tiré de Bratko
Chapitre 9 Arbres de décision Solutions
Arbres de décision. Solutions. 1. Pour classifier un nouvel exemple on traverse l'arbre depuis la racine jusqu'`a une feuille.
Apprentissage de r`egles et arbres de décision
R`egles et arbres de décision : Arbres. Un arbre de décision pour X1
Exercice arbres de décision Problème de la compression/ dilation
Hidden Markov Model. (HMM). 1. Exercice arbres de décision. ? Construire l'arbre de décision à partir des données suivantes en utilisant l'algorithme ID3.
Exercices corrigés Arbre de décision
Exercices corrigés. Arbre de décision. Les arbres de décisions permettent de caractériser une classe d'algorithmes de tris : les algos de tris par.
Corrigé type (contrôle S5)
4 févr. 2021 Construction du plus petit arbre de décision possible. Exercice 1 (4.5pts) : soit la matrice de décision suivante :.
Exercices corrigés sur probl`emes NP-complets
12 sept. 2018 Ecrire le probl`eme de décision qui lui est associé et donner la taille de l'instance. Question 1.2. Trouver un algorithme polynomial qui ...
Chapitre 9 – Solutions des exercices de révision
Le détail des calculs des trois exercices de cette section ainsi que des Un arbre de décision représentant le problème de l'expert est donné ci-dessous.
Corrigé type (contrôle S5)
13 janv. 2019 Construction du plus petit arbre de décision possible. Exercice 1 (4.5pts) : soit la matrice de décision suivante :.
Module 7 - Arbres de décisions Exercices - Corrigé
Module 7 - Arbres de décisions Exercices - Corrigé Exercice 2 L’entropiepeutêtrecalculéeselon: Individu Taille Couleur Class 1 P U Pure 2 P U Pure 3 G U Pure 4 G M Pure 5 G M NPure 6 G M NPure 7 P U NPure 8 P M NPure E(P) = Xn i=1 p i logp i (1) aveclog désignelafonctiondelogarithmeenbase2 1 L’entropiedelavariablecouleurestdonnéepar
Les arbres de décision (decision trees) - Paris Descartes
LINF2275 Arbre de Décision 6 • Phase de construction d'un arbre (parallèle aux axes): 2 étapes à chaque nœud d'un arbre en construction (processus récursif): 1 Production d'une série de tests relatifs aux différentes variables (qualitatives ou quantitatives): – pour les variables quantitatives (discrète ou continue): tests
Searches related to arbre de décision exercices corrigés PDF
Après avoir détaillé les points clés de la construction d’un arbre de décision à partir d’un petit exemple nous présentons la méthode CHAID qui permet de répondre de manière cohérente à ces spécifications Nous la mettons alors en œuvre en utilisant un logiciel gratuit téléchargeable sur Internet
Quels sont les caractéristiques d'un arbre de décision ?
Les avantages et les inconvénients. Premièrement, les arbres de décision prennent très peu de temps pour traiter les données par rapport aux autres algorithmes. Les étapes de préparation de données comme par exemple la normalisation, la transformation et la mise à l'échelle des données ne sont pas nécessaires.
Comment dessiner un arbre de décision ?
Pour dessiner un arbre de décision, choisissez d'abord un support. Vous pouvez le dessiner à main levée sur du papier ou sur un tableau blanc, ou vous pouvez utiliser un logiciel d'arbres de décision spécialisé. Dans tous les cas, voici les étapes à suivre : 1. Commencez par la décision principale.
Comment coder un arbre de décision ?
Pour coder un arbre de de?cision associe? a? un certain algorithme de tri sur T, on utilise un type Noeud avec un champ boole?en EstFeuille indiquant si le nœud est une feuille ou non. En Ada (voir figure 3), on fait de ce champ un discriminant.
Qu'est-ce que l'apprentissage par arbre de décision ?
Cette méthode, appelée « apprentissage par arbre de décision », s'appuie sur les observations relatives à un élément pour prédire la valeur de cet élément. Dans ces arbres de décision, les nœuds représentent les données plutôt que les décisions. Ce type d'arbre est aussi appelé arbre de classification.
Rech. Intell. et Cooperation
Apprentissage de
regles et arbres de decisionM2 IA&RF / IRR Sept.-Nov. 2015
Introduction
Un agent dans une certaine situation / un certain etatsdoit prendre une decision plusieurs decision possibles, quelle est la((bonne))? depend de l'etat / de la situationIntroduction : Exemples
Un joueur articiel pour un jeu video
)Que faire du ballon ? (Passe, tir, dribble . . . ) Depends de la position du joueur sur le terrain, des positions de ses adversaires. . .2D Simulation Leage { RobocupIntroduction : Exemples
Un banquier devant decider d'accorder ou non un pr^et )depends du demandeur : ^age, profession, statut marital, biens immobiliers, salaire, montant du pr^et, . . .Introduction : Exemples
Un banquier devant decider d'accorder ou non un pr^et )depends du demandeur : ^age, profession, statut marital, biens immobiliers, salaire, montant du pr^et, . . .Un medecin devant poser un diagnostique
)depend du resultats d'observations / tests / examens : evre, douleur, toux, rhinorrhee, . . .Introduction
Decision complexes : dependent de nombreux facteursComment representer le modele de decision ?
on veut un modele comprehensible / interpretable par un humain )regles / arbres de decision Commentapprendre automatiquementle modele de decision ?Regles et arbres de decision
Situations / etats decrits parnattributsX1;X2;:::;Xn pour chaque attributXi:Xi=dom(Xi) =ensemble des valeurs possibles pourXi )l'ensemble des situations / etats possibles est S=Y X i2Xdom(Xi) un ensemble de decisions /classespossiblesY=fy1;:::g on veut representer / apprendre une fonctionc:S ! Y Regles et arbres de decision : Regles conjonctivesDe la formesiXi1=v1etXi2=v2et:::Xik=vkalorsyj
Par exemple:
Regles et arbres de decision : Regles conjonctivesDe la formesiXi1=v1etXi2=v2et:::Xik=vkalorsyj
Par exemple:
siposition=devantbut^posgardien=adroite^:::alors tireragauche Regles et arbres de decision : Regles conjonctivesDe la formesiXi1=v1etXi2=v2et:::Xik=vkalorsyj
Par exemple:
siposition=devantbut^posgardien=adroite^:::alors tireragauche siage40^proprietaire=oui^:::alors pretok Regles et arbres de decision : Regles conjonctivesDe la formesiXi1=v1etXi2=v2et:::Xik=vkalorsyj
Par exemple:
siposition=devantbut^posgardien=adroite^:::alors tireragauche siage40^proprietaire=oui^:::alors pretok Mais: siage>40? siposgardien6=agauche? )une seule regle ne sut pasRegles et arbres de decision : Arbres
Un arbre de decision pourX1;:::;Xnest un arbre dont : chaque nud interne est etiquete par un test portant sur un ou plusieurs attributs; les ar^etes sous les ls d'un nud interne donne sont etiquetees par des reponses possibles mutuellement exclusives au test porte par ce nud; les feuilles sont etiquetees par des decisions / classes de Y.Regles et arbres de decision : Arbres
Un arbre de decision pourX1;:::;Xnest un arbre dont : chaque nud interne est etiquete par un test portant sur un ou plusieurs attributs; les ar^etes sous les ls d'un nud interne donne sont etiquetees par des reponses possibles mutuellement exclusives au test porte par ce nud; les feuilles sont etiquetees par des decisions / classes de Y. Un arbre de decisionArepresente une fonctionhA:S ! Y, denie de la maniere suivante : pourx2 S, s'il existe une branche de l'arbre dontx verie toutes les conditions, alorshA(x)est la valeur portee par la feuille correspondante.Regles et arbres de decision : Arbres
Un arbre de decision pourX1;:::;Xnest un arbre dont : chaque nud interne est etiquete par un test portant sur un ou plusieurs attributs; les ar^etes sous les ls d'un nud interne donne sont etiquetees par des reponses possibles mutuellement exclusives au test porte par ce nud; les feuilles sont etiquetees par des decisions / classes de Y. Un arbre de decisionArepresente une fonctionhA:S ! Y, denie de la maniere suivante : pourx2 S, s'il existe une branche de l'arbre dontx verie toutes les conditions, alorshA(x)est la valeur portee par la feuille correspondante. Inter^et des arbres de decision: facile a lire / interpreter ; representation compacteRegles et arbres de decision : Arbres
revuebancaire:fr{ 28 Octobre 2014Regles et arbres de decision : Arbres
allergies:org{ 15 Septembre 2015Regles et arbres de decision : Arbres
Proprietes
A chaque branche d'un arbre de decision correspond une regle conjonctive. )on peut traduire un arbre en un ensemble de regles Toute fonctionS ! Ypeut ^etre representee par un / plusieurs arbre(s) de decision au pire, une branche par etat / situation )taille potentiellement exponentielleApprentissage supervise
Plut^ot que demander a un expert de construire l'enemble de regles ou l'arbre de decision, on peut : lui demander la bonne decision dans certaines situations induireun arbre / un ensemble de reglesApprentissage supervise
Plut^ot que demander a un expert de construire l'enemble de regles ou l'arbre de decision, on peut : lui demander la bonne decision dans certaines situations induireun arbre / un ensemble de reglesOn appelleexempleune paire(x;y)2 S Y:
xrepresente un etat / une situation ; yest la decision correspondanteApprentissage supervise
Plut^ot que demander a un expert de construire l'enemble de regles ou l'arbre de decision, on peut : lui demander la bonne decision dans certaines situations induireun arbre / un ensemble de reglesOn appelleexempleune paire(x;y)2 S Y:
xrepresente un etat / une situation ; yest la decision correspondante Etant donne un ensembleEd'exemples, on chercheh:S ! Y telle quey=h(x)pour tout(x;y)2 E.Apprentissage supervise : Une regle
Pour la suite, on distingue une valeury02 Y;
pour simplier la presentation, on notey0= +1. )on cherche a apprendre des regles de la forme siXi1=v1etXi2=v2et:::Xik=vkalors+1 qui permettront de predire sic(x) = +1ouc(x)6= +1.Apprentissage supervise : Une regle
Notations et terminologie :
Pour une regler=
((siXi1=v1etXi2=v2et:::Xik=vkalors+1))on note :Cond(r) =((Xi1=v1etXi2=v2et:::Xik=vk))
Un exemple(x;y)2 Eest:positifsiy= +1;negatifsinon ;La regle
exemple(x;y)siXij(x) =vijpourj21:::k. Etant donne un ensemble d'exemplesE, on cherche donc a calculer une regle qui : couvre autant d'exemples positifs que possible ; et couvre aussi peu d'exemples negatifs que possible.Apprentissage supervise : Une regle
Principe :
On part de la regle trivial((Si vrai alors+1));
cette regle couvre trop d'exemples negatifs (elles les cou- vre tous) ; donc on essaie d'ajouter petit a petit des conditions elementaires / atomes de la formeAi=vi, pour exclure les exemples negatifs, en excluant le moins possible d'exemples positifs.L'algorithme :
(a)Cond ((rien)); E + fxj(x;+1)2 Eg; E fxj(x;1)2 Eg; (b)T antque E6=;faire :
i. le((meilleur))atome ; ii.Cond Condet; iii.E E fxjxne verie pasCondg; E + E+ fxjxne verie pasCondg; (c) retourner r=((Si Cond alors+1)).Apprentissage supervise : Une regle
Un exempleOn a enregistre sur 14 jours si des voiliers etaient sortis sur la mer, ainsi que l'ensoleillement ou non ces jours-la, la temperature, le taux d'humidite, le vent :Apprentissage supervise : Une regle
ciel temp. humid. ventbateaux ?1soleil chaude haute nonnon
2soleil chaude haute ouinon
3couvert chaude haute nonoui
4pluie moy. haute nonoui
5pluie froide normal nonoui
6pluie froide normal ouinon
7couvert froide normal ouioui
8soleil moy. haute nonnon
9soleil froide normal nonoui
10pluie moy. normal nonoui
11soleil moy. normal ouioui
12couvert moy. haute ouioui
13couvert chaude normal nonoui
14pluie moy. haute ouinon
)peut-on predire, pour un autre jour, en fonction du soleil, de la temperature, du taux d'humidite, du vent, si on verraApprentissage supervise : Une regle
ou non des bateaux ? )peut-on((decouvrir))/induire, d'apres ce tableau, desregles de prediction, par exemple : siciel=soleil et temp=chaude et humid:=haute alors nonApprentissage supervise : Une regle
Choix d'un((bon))atomeOn cherche, parmi tous lesXi= v ipossibles, un atome qui : exclue autant d'exemples negatifs que possible ; et exclue aussi peu d'exemples positifs que possible.Pour chaque atome=((Xi=vi)), on note
p() =jfx2E+jXi(x) =vigj =le nombre d'exemples deE+((couverts))par; n() =jfx2EjXi(x) =vigj =le nombre d'exemples deE((couverts))par; )on veut maximiserp()tout en minimisantn().Exemples de criteres de maximisation possibles :
p()n() p()=(p() +n()) p()( log(p()=(p() +n()))c)(gain d'information) (Voir par exemple [?])Apprentissage supervise : Un ensemble de regles
En general, ca ne sut pas d'apprendre une regle :
la regle retournee par l'algorithme ci-dessus ne couvre pas d'exemples negatif, mais ne couvre sans doute pas tous les exemples positifs. On va donc cherche a apprendre d'autres regles, qui perme- tte d'apprendre d'autres exemples : on insere l'algorithme ci-dessus dans un boucle qui fait apprendre des regles jusqu'a ce que tous les exemples positifs soient couverts.Apprentissage supervise : Un ensemble de regles
Algorithme de couverture sequentielle
1.h ;;E+ fxj(x;+1)2 Eg;E fxj(x;1)2 Eg;
2.T antque E+6=;faire:
(a)Cond ((rien));E E;E+ E+; (b)T antque E6=;faire :
i. le((meilleur))atome ; ii.Cond Condet; iii.E E fxjxne verie pasCondg; E + E+ fxjxne verie pasCondg; (c)h h[ f((Si Cond alors+1))g; (d)E+ E+ fx2 E+jxnon couvert parhg=E+E+; 3.Retourner h.
(On dit qu'un exemple(x;y)estcouvertpar un ensemble de regleshs'il y a danshau moins une regle qui couvre(x;y).)Terminaison de l'algorithme
Etant donnesE+etEtels queE+\ E=;etE+6=;,
on peut toujours trouver un ensemble de regles qui classeApprentissage supervise : Un ensemble de regles
bien: h(x) =8 >:+1six2 E+1sinon
Etant donnesE+etE, tels queE+\E=;etE+6=;,
et une conditionCondveriee par toutx2E+, on peut tou- jours trouver une conditionCond' telle queCond(x)etCond0(x) = fauxpour toutx2E: on choisit unx02E+, et on pose Cond0(x) =vraisix=x0.
Apprentissage supervise : Arbres de decision
Un algorithme :
Entree : un ensembleE X Y;
1. si p ourtout (x;y);(x0;y0)2 Eon ay=y0: retourner cette valeur ;2.A le((meilleur))attribut deX;
3. cr eerun nud etiquetepa rA; 4. p ourchaque v2Afaire: (a) cr eerune b ranche etiqueteepa rv; (b) y attacher un a rbrede d ecisionp ourEv=f(x;y)2 E jA(x) =vg
Apprentissage supervise : Arbres de decision
Choix du((meilleur))attributOn va essayer de trouver l'attribut amenant uneentropieminimale. Etant donnes un ensemble d'exemplesE, un attributAet une valeurv2dom(A): on note :Ev=f(x;y0)2 E jA(x) =vg; pour chaquey2 Y: p yv=jf(x;y0)2 E jA(x) =vety0=ygj=jEvj; p yvest la proportion d'exemples qui ont l'etiquetteyparmi ceux qui ont la valeurvpour l'attributAdansE. Alors on denit l'entropie deEpour l'attributAet la valeur vainsi :Entropie(E;A;v) =X
y2YpyvlogpyvApprentissage supervise : Arbres de decision
Proprietes de l'entropie :
s'il existe une valeurytelle quepyv= 1: alorsEntropie(E;A;v) = 0; sinonEntropie(E;A;v)>0; la valeur maximale est atteinte lorsquepyv= 1=jYjpour toutey2 Y. Remarque :en theorie de l'information, l'entropie mesure l'incertitude d'une variable aleatoire. SiXpeut prendre deux valeurs0et1avec une probabilite 1/2 pour chacune, l'incertitude sur la valeur qui peut ^etre prise est maximale. Si par contre la probabilite d'avoir 1 est par exemple0;9, l'incertitude est tres faible (c'est tres probable d'avoir1).Apprentissage supervise : Arbres de decision
On va donc denir le gain ainsi:
G(E;A) =Entropie(E)X
v2dom(A)jE vjjEjEntropie(E;A;v)
Le second terme est la moyenne des entropies des ensemblesquotesdbs_dbs23.pdfusesText_29[PDF] cours arbre de décision
[PDF] classification par arbre de décision
[PDF] arbre de décision exemple
[PDF] arbre de décision cart
[PDF] construire un arbre de décision
[PDF] arbre de décision définition
[PDF] dénombrement cours 1ere s
[PDF] apollon et daphné résumé
[PDF] apollon et daphné leur histoire
[PDF] expression etre nature
[PDF] tp mise en évidence d'une réaction d'oxydoréduction
[PDF] apollon et daphné peinture
[PDF] apollon et daphné le bernin
[PDF] tp chimie réaction d oxydoréduction