[PDF] Arbres de décision tiré de Bratko exercice 18.





Previous PDF Next PDF



Module 7 - Arbres de décisions Exercices - Corrigé Module 7 - Arbres de décisions Exercices - Corrigé

Page 1. Module 7 - Arbres de décisions. Exercices - Corrigé. Exercice 2. L'entropie peut être calculée selon : Individu. Taille. Couleur. Class.



Chapitre 9 Arbres de décision Solutions

Arbres de décision. Solutions. 1. Pour classifier un nouvel exemple on traverse l'arbre depuis la racine jusqu'`a une feuille. Pour chaque nœud interne 



Apprentissage de r`egles et arbres de décision

Un arbre de décision A représente une fonction hA : S→Y définie de la mani`ere Exercices. Question 1.1 Lequel de ces trois attributs semble le mieux pour.



Exercice arbres de décision Problème de la compression/ dilation

Exercice arbres de décision. ▫ Construire l'arbre de décision à partir des données suivantes en utilisant l'algorithme ID3. ▫ Rappel: 2. Présence.



Corrigé

Exercice 2 (10 points) : Le tableau suivant contient des données sur les Nous avons donc deux arbres de décision possibles : Bien. Mention ? Admis. 8.



Apprentissage artificiel: Arbre de décisions

Exercice. Sachant que le premier attribut sélectionné est type continuer la construction de l'arbre de décision correspondant à cette base en utilisant l 



Exercices corrigés sur probl`emes NP-complets

12 sept. 2018 ENONC´ES DES EXERCICES. I) Probl`eme de décisions a) Graphe eulérien ... Probl`eme k-Arbre-coloration. Données : Un arbre T = (VE) et un entier k ...



Examen

10 janv. 2016 Calculer les r`egles solides correspondant `a un seuil de confidence = 0.9. 4. En déduire un mod`ele de décision. B. Arbre de décision (4 pts :3 ...



Synthèse de cours exercices corrigés

Arbre binomial. 2 périodes avec les probabilités risque neutre associées à chaque ... décision d'investissement ainsi que l'utilisation des options réelles ...



Module 7 - Arbres de décisions Exercices - Corrigé

Page 1. Module 7 - Arbres de décisions. Exercices - Corrigé. Exercice 2. L'entropie peut être calculée selon : Individu. Taille. Couleur. Class.



Arbres de décision

Arbres de décision. François Paradis. Décembre 2005 Construction d'un arbre. • à chaque noeud choisir l'attribut de ... tiré de Bratko



Chapitre 9 Arbres de décision Solutions

Arbres de décision. Solutions. 1. Pour classifier un nouvel exemple on traverse l'arbre depuis la racine jusqu'`a une feuille.



Apprentissage de r`egles et arbres de décision

R`egles et arbres de décision : Arbres. Un arbre de décision pour X1



Exercice arbres de décision Problème de la compression/ dilation

Hidden Markov Model. (HMM). 1. Exercice arbres de décision. ? Construire l'arbre de décision à partir des données suivantes en utilisant l'algorithme ID3.



Exercices corrigés Arbre de décision

Exercices corrigés. Arbre de décision. Les arbres de décisions permettent de caractériser une classe d'algorithmes de tris : les algos de tris par.



Corrigé type (contrôle S5)

4 févr. 2021 Construction du plus petit arbre de décision possible. Exercice 1 (4.5pts) : soit la matrice de décision suivante :.



Exercices corrigés sur probl`emes NP-complets

12 sept. 2018 Ecrire le probl`eme de décision qui lui est associé et donner la taille de l'instance. Question 1.2. Trouver un algorithme polynomial qui ...



Chapitre 9 – Solutions des exercices de révision

Le détail des calculs des trois exercices de cette section ainsi que des Un arbre de décision représentant le problème de l'expert est donné ci-dessous.



Corrigé type (contrôle S5)

13 janv. 2019 Construction du plus petit arbre de décision possible. Exercice 1 (4.5pts) : soit la matrice de décision suivante :.



Module 7 - Arbres de décisions Exercices - Corrigé

Module 7 - Arbres de décisions Exercices - Corrigé Exercice 2 L’entropiepeutêtrecalculéeselon: Individu Taille Couleur Class 1 P U Pure 2 P U Pure 3 G U Pure 4 G M Pure 5 G M NPure 6 G M NPure 7 P U NPure 8 P M NPure E(P) = Xn i=1 p i logp i (1) aveclog désignelafonctiondelogarithmeenbase2 1 L’entropiedelavariablecouleurestdonnéepar



Les arbres de décision (decision trees) - Paris Descartes

LINF2275 Arbre de Décision 6 • Phase de construction d'un arbre (parallèle aux axes): 2 étapes à chaque nœud d'un arbre en construction (processus récursif): 1 Production d'une série de tests relatifs aux différentes variables (qualitatives ou quantitatives): – pour les variables quantitatives (discrète ou continue): tests



Searches related to arbre de décision exercices corrigés PDF

Après avoir détaillé les points clés de la construction d’un arbre de décision à partir d’un petit exemple nous présentons la méthode CHAID qui permet de répondre de manière cohérente à ces spécifications Nous la mettons alors en œuvre en utilisant un logiciel gratuit téléchargeable sur Internet

Quels sont les caractéristiques d'un arbre de décision ?

Les avantages et les inconvénients. Premièrement, les arbres de décision prennent très peu de temps pour traiter les données par rapport aux autres algorithmes. Les étapes de préparation de données comme par exemple la normalisation, la transformation et la mise à l'échelle des données ne sont pas nécessaires.

Comment dessiner un arbre de décision ?

Pour dessiner un arbre de décision, choisissez d'abord un support. Vous pouvez le dessiner à main levée sur du papier ou sur un tableau blanc, ou vous pouvez utiliser un logiciel d'arbres de décision spécialisé. Dans tous les cas, voici les étapes à suivre : 1. Commencez par la décision principale.

Comment coder un arbre de décision ?

Pour coder un arbre de de?cision associe? a? un certain algorithme de tri sur T, on utilise un type Noeud avec un champ boole?en EstFeuille indiquant si le nœud est une feuille ou non. En Ada (voir figure 3), on fait de ce champ un discriminant.

Qu'est-ce que l'apprentissage par arbre de décision ?

Cette méthode, appelée « apprentissage par arbre de décision », s'appuie sur les observations relatives à un élément pour prédire la valeur de cet élément. Dans ces arbres de décision, les nœuds représentent les données plutôt que les décisions. Ce type d'arbre est aussi appelé arbre de classification.

1

Arbres de décision

François Paradis

Décembre 2005Notes de démonstration, Ift3330 Exemple (adapté dehttp://www.decisiontrees.net/tutorial/1_intro.html)

InsatisfaitouiélevéRangéeville

SatisfaitnonbasUnifamilialerural

SatisfaitouiélevéRangéerural

SatisfaitouibasRangéebanlieue

SatisfaitnonbasRangéeville

SatisfaitnonbasJumeléebanlieue

SatisfaitouibasJumeléerural

InsatisfaitouibasJumeléeville

SatisfaitnonbasJumeléeville

SatisfaitnonélevéJumeléeville

SatisfaitnonélevéUnifamilialerural

RésultatClient antérieur?RevenuType de maisonEmplacement 2

IFT3330, Demo Apprentissage, v0.93

Entropie

ccpcpI)(log)(2 v cresvcpvcpvpAI)|(log)|()()(2 Quantité moyenne d"information pour classifier un objet: où v sont les valeurs possibles de l"attribut A Entropie résiduelle pour l"attribut A:Dans notre exemple: I = -9/14 log

29/14 - 5/14 log25/14 = 0.947

Dans notre exemple:

I res(emplacement) = p(ville).0.97095+p(banlieue).0.97095+p(rural).0 = 0.6935 l"entropie est nulle si pour une classe p(c)=1 car les autres classes sont forcément 0 (voir p(rural) ci-dessous)

IFT3330, Demo Apprentissage, v0.94

Construction d"un arbre

• à chaque noeud, choisir l"attribut de gain (i.e I-Ires) maximal • arrêter quand l"entropie est nulle emplacement gain=0.246 ville banlieuerural revenu gain=0.970

élevé bas

client antérieur? gain=0.970 oui non satisfait

satisfaitinsatisfaitsatisfaitinsatisfaitConstruisez cet arbre dynamiquement sur le site de Michael Nashvili:

3

IFT3330, Demo Apprentissage, v0.95

De meilleures mesures d"impuretés

• Le gain favorise les attributs qui peuvent prendre plusieurs valeurs e.g. attribut dateavec 14 valeurs : gain = 0.9403 • Solutions: -binariserles attributs - autres mesures: vvpvpAI)(log)()(2 )()()(AIAIIAgainRatio res-=

IFT3330, Demo Apprentissage, v0.96

De meilleures mesures d"impureté

pour notre exemple originel + 14 dates différentes: gini(date) = +p(date2)*...= 0 gainRatio(date)=0.247 v jivjpvipvpAgini)|()|()()( 4

IFT3330, Demo Apprentissage, v0.97

Autre exemple

tiré de Bratko, exercice 18.2

Une maladie Mest présente dans 25% des cas.

Le symptôme Sest observé chez 75% des

patients qui souffrent de M, et chez 1/6 des autres patients. Soit les classes met ~m.

Calculez gainRatio pour l"attribut S.

I=0.8113; p(s) = 0.3125; p(m|s)=0.6; p(~m|s)=0.4

p(m|~s)=0.0909; Ires=0.6056; gainRatio=0.2296 )|()()|()()(sMIspsMIspSIres--= )|(log)|()|(log)|()|(22SmpSmpSmpSmpSMI+=

IFT3330, Demo Apprentissage, v0.98

Élagage d"arbres

kN nsCclassepse +-≈≠=11)|()(où k est le nb de classes (estimateur de Laplace) )()(iisEpsbe i∑=))(),(min()(sbesesE= • Problème de surentraînement • On coupe une branche à un noeud ssi l"erreur propagée (be) est plus grande que l"erreur statique (e) 5

IFT3330, Demo Apprentissage, v0.99

Exemple d"élagage

revenu bas emplacement unifamiliale rangéejumelée type ville banlieuerural

1/1 satisfait

2/2 satisfait2/2 satisfait

1/2 satisfait

e=1/3e=1/2e=2/5 be=4/9e=1/4e=1/4e=2/9=0.2222 be=0.3143 coupe! coupe! haut

IFT3330, Demo Apprentissage, v0.910

Comparaison

• Couper une branche revient àgénéraliserun arbre. • Dans l"exemple précédent, le cas de classe insatisfait [revenu=bas, emplacement=ville, type=jumelée] est considéré marginal. • En coupant une branche on espère diminuer l"erreur (ou augmenter la justesse) de classification. On peut mesurer l"erreur d"un arbre de décision sur un ensemble-test donné: erreur = nerr/N, où nerr est le nombre de classes incorrectes produites par l"arbre de décision, et

N est la taille de l"échantillon.

6

IFT3330, Demo Apprentissage, v0.911

Autres approches d"apprentissage

• Supervisées: arbres de décision, naïve Bayes,

SVM, NN, boosting/bagging, réseaux de

neurones, programmation logique inductive, etc. • Non supervisées: clustering, principal component analysis • Semi-supervisée: Expectation-maximization • Autres: Reinforcement, algorithmes génétiques

IFT3330, Demo Apprentissage, v0.912

Logiciels

•WekaData mining software suite

University of Waikato

•SVMLight Classification SVM

Thorsten Joachims, Cornell

•C4.5Arbres de décision

Ross Quinlan

http://www.rulequest.com/Personal/quotesdbs_dbs7.pdfusesText_13
[PDF] arbre de décision data mining

[PDF] cours arbre de décision

[PDF] classification par arbre de décision

[PDF] arbre de décision exemple

[PDF] arbre de décision cart

[PDF] construire un arbre de décision

[PDF] arbre de décision définition

[PDF] dénombrement cours 1ere s

[PDF] apollon et daphné résumé

[PDF] apollon et daphné leur histoire

[PDF] expression etre nature

[PDF] tp mise en évidence d'une réaction d'oxydoréduction

[PDF] apollon et daphné peinture

[PDF] apollon et daphné le bernin

[PDF] tp chimie réaction d oxydoréduction