PDFprof.com Search Engine



Université de Montréal Algorithmes dapprentissage pour la

PDF
Images
List Docs
  • C'est quoi un algorithme d'apprentissage ?

    C'est un algorithme capable d'effectuer des prédictions en se basant sur des données d'apprentissage.
    Après avoir défini les principales caractéristiques de l'algorithme des plus proches voisins, nous implémenterons un tel algorithme pour classifier un nouvel élément inconnu sur la base de ses plus proches voisins.

  • Quels sont les trois types d'apprentissages possibles pour l'IA ?

    Les techniques de l'Intelligence Artificielle
    Pour accomplir ces tâches, l'IA utilise différentes techniques, dont trois types d'apprentissage : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement.

  • Quels sont les algorithmes de l'apprentissage supervisé ?

    Les modèles d'apprentissage supervisé se structurent notamment autour de deux familles d'algorithmes: les algorithmes de régression et de classification.
    Un problème de régression se pose lorsque la variable à prédire de sortie (Y) est une variable continue (variable pouvant prendre une infinité de valeurs – ex.

  • Principaux algorithmes

    Choisir le nombre K de voisins.Calculer la distance Euclidienne des K voisins.Prendre les K plus proches voisins, dépendant du résultat du calcul de la distance.Parmi ce K voisin, compter le nombre de points dans chaque classe.

Université de Montréal Algorithmes dapprentissage pour la
Grille dévaluation compétences communication orale
Les compétences de base en communication OIQ
Quelles compétences orales?
La formation des formateurs aux compétences informationnelles
Récit rétrospectif dun apprenant de français langue seconde
Formation LA COMMUNICATION PROFESSIONNELLE EN SANTÉ
Communications-en-sante-de-quoi-parle-t-onpdf
Effet de la simulation sur le développement et le transfert
Cours Licence Aquaculture et Pisciculture
ECOLE DAQUACULTURE : FORMATION ET RECHERCHE
Next PDF List

Université de Montréal Algorithmes dapprentissage pour la

Université de MontréalAlgorithmes d"apprentissage pour la recommandationparValentin BissonDépartement d"informatique et de recherche opérationnelleFaculté des arts et des sciencesMémoire présenté à la Faculté des études supérieures et postdoctoralesen vue de l"obtention du grade de Maître ès sciences (M.Sc.)en informatiqueSeptembre, 2012cValentin Bisson, 2012.iiUniversité de MontréalFaculté des études supérieures et postdoctoralesCe mémoire intitulé:Algorithmes d"apprentissage pour la recommandationprésenté par:Valentin Bissona été évalué par un jury composé des personnes suivantes:Pascal Vincentprésident-rapporteurYoshua Bengiodirecteur de rechercheClaude Frassonmembre du juryivRÉSUMÉL"ère numérique dans laquelle nous sommes entrés apporte une quantité importante denouveaux défis à relever dans une multitude de domaines.

Le traitement automatique del"abondante information à notre disposition est l"un de ces défis, et nous allons ici nouspencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l"u-tilisateur d"articles adaptés à ses goûts, dans le contexte particulier et sans précédent notabledu jeu vidéo multi-joueurs en ligne.

Notre objectif est de prédire l"appréciation des niveauxpar les joueurs.Au moyen d"algorithmes d"apprentissage machine modernes tels que les réseaux de neu-rones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduc-tion aux concepts nécessaires à leur bonne compréhension, nous proposons deux architec-tures aux caractéristiques différentes bien que basées sur ce même concept d"apprentissageprofond.

La première est un réseau de neurones multi-couches pour lequel nous tentons d"-expliquer les performances variables que nous rapportons sur les expériences menées pourdiverses variations de profondeur, d"heuristique d"entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant.

Pour la seconde architecture,nous nous inspirons des modèles à énergie et proposons de même une explication des ré-sultats obtenus, variables eux aussi.

Enfin, nous décrivons une première tentative fructueused"amélioration de cette seconde architecture au moyen d"unfine-tuningsupervisé succédantlepré-entrainement,puisunesecondetentativeoùcefine-tuningestfaitaumoyend"uncritèred"entraînement semi-supervisé multi-tâches.Nos expériences montrent des performances prometteuses, notament avec l"architectureinspirée des modèles à énergie, justifiant du moins l"utilisation d"algorithmes d"apprentissageprofonds pour résoudre le problème de la recommandation.Mots clés: intelligence artificielle, apprentissage machine, réseaux de neurones, autoen-codeurs contractants, jeu vidéo, architectures profondes, modèles à énergieviABSTRACTThe age of information in which we have entered brings with it a whole new set of chal-lenges to take up in many different fields.

Making computers process this profuse informationis onesuch challenge, andthis thesis focuseson techniques adapted forautomatically filteringand recommending to users items that will fit their tastes, in the somehow original context ofan online multi-player game.

Our objective is to predict players" ratings of the game"s levels.We first introduce machine learning concepts necessary to understand the two architec-tures we then describe; both of which taking advantage of deep learning and unsupervisedpre-training concepts to solve the recommendation problem.

The first architecture is a mul-tilayered neural network for which we try to explain different performances we get for dif-ferent settings of depth, training heuristics and unsupervised pre-training methods, namely,straight, denoising and contrative auto-encoders.

The second architecture we explore takes itsroots in energy-based models.

We give possible explanations for the various results it yieldsdepending on the configurations we experimented with.

Finally, we describe two successfulimprovements on this second architecture.

The former is a supervised fine-tuning taking placeafter the unsupervised pre-training, and the latter is a tentative improvement of the fine-tuningphase by using a multi-tasking training criterion.Our experiments show promising results, especially with the architecture inspired fromenergy-based models, justifying the use of deep learning algorithms to solve the recommen-dation problem.Keywords: artificial intelligence, machine learning, neural networks, contractive au-toencoders, video game, deep learning, energy-based modelsviiiTABLE DES MATIÈRESRÉSUMÉ: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :vABSTRACT: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :viiTABLE DES MATIÈRES: : : : : : : : : : : : : : : : : : : : : : : : : : : : : :ixLISTE DES FIGURES: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :xiiiLISTE DES TABLEAUX: : : : : : : : : : : : : : : : : : : : : : : : : : : : : :xvLISTE DES SIGLES: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :xviiNOTATION: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :xixINTRODUCTION: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :1CHAPITRE 1 : INTRODUCTION À L"APPRENTISSAGE AUTOMATIQUE 51.

1) Qu"est-ce que l"apprentissage automatique . . . . . . . . . . . . . . . . . . . 51. 2) Modèles et types d"apprentissage . . . . . . . . . . . . . . . . . . . . . . . . 51. 3) Risque empirique et fonction de perte . . . . . . . . . . . . . . . . . . . . . 51. 4) Modèles paramétriques et non-paramétriques . . . . . . . . . . . . . . . . . 71. 5) Capacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81. 6) Méthodes de régularisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 91. 7) Algorithmes d"entraînement . . . . . . . . . . . . . . . . . . . . . . . . . . 101. 8) Dérivation des fonctions composées . . . . . . . . . . . . . . . . . . . . . . 141.

9) La normalisation de l"entrée . . . . . . . . . . . . . . . . . . . . . . . . . . 14CHAPITRE 2 : MODÈLES ÉTUDIÉS: : : : : : : : : : : : : : : : : : : : :172.

1) Modèles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.1. 1) Perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.1. 2) Régression logistique . . . . . . . . . . . . . . . . . . . . . . . . . . 182.1. 3) SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.1. 4) Séparation non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 192. 2) Modèles non-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.2. 1) Réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . 19x2.2. 2) Calcul des mise à jours des poids . . . . . . . . . . . . . . . . . . . 202.2. 3) Auto-encodeurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212. 3) Architectures profondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.3. 1) Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.3.

2) Pré