[PDF] [PDF] Introduction à lapprentissage automatique - Loria





Previous PDF Next PDF



Une introduction au Machine Learning

DE QUOI PARLE-T-ON ? < Intelligence artificielle (IA/AI). < Machine Learning / Apprentissage automatique. < Deep Learning / Réseaux de neurones.





PRÉSENTATION DU MACHINE LEARNING

30 juil. 2018 Dans le cas d'un programme informatique qui est celui qui nous intéresse dans cet ouvrage



Introduction au Machine learning et à la classification supervisée

? Statistique. ? Intelligence artificielle (AI). ? Machine Learning (ML). ? Big Data. ? Data Science. ? Deep Learning (DL). ? ?? ... Page 7 ...



Présentation PowerPoint

1 août 2017 Les algorithmes de Machine Learning utilisent donc ... Différence Machine Learning /. Data Mining ... Ex : Dans la population française :.



Introduction à lapprentissage automatique

Certaines figures sont plus lisibles en couleurs dans le document pdf en ligne. L'apprentissage automatique (en anglais machine learning ...



MACHINE LEARNING AVEC SCIKIT-LEARN

Lorsqu'on leur parle de « Machine Learning » que l'on traduit en français par. « apprentissage automatique »



Machine learning et Data Mining - Introduction

? fouille de données (data mining). ? intelligence artificielle. ? statistique. ? ? domaines différents avec des intersections plus ou moins grandes.



Deep learning cest quoi?

12 août 2019 Le machine learning est une technique d'apprentissage automatisé. Cela permet à l'ordinateur de « décider » sans.



Big Data Machine Learning : quest-ce que la science des données

18 jan. 2017 4. Quel Machine Learning pour les Big Data? 5. Les Big Data le Machine learning et la loi. 6. Enseignement des sciences des données.



[PDF] Introduction au Machine Learning Chloé-Agathe Azencott

Dans ce livre nous considérons que le machine learning est la science de l'apprentissage automatique d'une fonction prédictive à partir d'un jeu d'observations 



[PDF] machine-learning - RIP Tutorial

À propos You can share this PDF with anyone you feel could benefit from it downloaded the latest version from: machine-learning



[PDF] Introduction à lapprentissage automatique - Loria

G Thomas Mathematics for machine learning Univ of California at Berkeley 2018 https://gwthomas github io/docs/math4ml pdf Pour faciliter la lecture 



[PDF] Version 035930 - Machine Learning Statistiques et Programmation

30 mai 2022 · Dénomination française : algorithme des centres mobiles 1 Page 6 Machine Learning Statistiques et Programmation Version 0 3 593 0



[PDF] Machine Learning - Ensimag 3A IF

L'apprentissage machine ou apprentissage automatique de réseaux de neurones (nous le verrons dans le contexte des dits “extreme learning machines” 



[PDF] Salim Lardjane Université Bretagne Sud

4 jan 2021 · classique en Machine Learning et en Statistique • Dans scikit-learn il est inclus dans le module datasets • On peut le charger à l'aide 



[PDF] Machine Learning Statistiques et Programmation cours et

25 nov 2018 · Cours Machine Learning Statistiques et Programmation gratuit en PDF Table des matières Introduction; Clustering; Bases de Machine 



[PDF] Les différents algorithmes de lIA

Le Deep Learning de Google Photos comporte par exemple 30 couches Une autre évolution massive est celle des réseaux de neurones convolutifs Le machine 



[PDF] Introduction – Pourquoi devez-vous lire ce livre - UAC ONLINE

Installer Python Anaconda : le meilleur outil de Machine Learning apprentissage en vous fournissant des exemples de traductions français-

:

Introduction à l"apprentissage automatique

Frédéric SUR

sur@loria.fr https://members.loria.fr/FSur/

Tronc commun scientifique FICM 2A

École des Mines de Nancy

2022-2023Machine Learning Captcha

https://xkcd.com/2228/

Table des matières

À l"attention des étudiants FICM 2A

5

1 Introduction9

1.1 Qu"est-ce que l"apprentissage automatique?

9

1.2 Les données

10

1.3 Apprentissage non-supervisé

11

1.4 Apprentissage supervisé

13

1.5 Pour approfondir...

19

2 Deux limites fondamentales de l"apprentissage

23

2.1 La malédiction de la dimension

23

2.2 Dilemme biais-fluctuation

28

2.3 Pour approfondir...

33

3 Problèmes de partitionnement

39

3.1 Méthodes hiérarchiques

39

3.2 Partitionnement enK-moyennes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2

3.3 Méthodes de partitionnement basées sur la densité

48

3.4 Pour approfondir...

52

4 Théorie statistique de la décision

55

4.1 Minimisation du risque de prédiction

55

4.2 Pour approfondir...

61

5 Estimation de densités de probabilité

63

5.1 Méthodes non-paramétriques

63

5.2 Méthodes paramétriques

66

5.3 Le retour de la malédiction de la dimension

71

5.4 Pour approfondir...

73

6 Mise en œuvre du classifeur de Bayes

75

6.1 Classifieur naïf de Bayes

75

6.2 Régression logistique

77

6.3 Classification au sens desPplus proches voisins. . . . . . . . . . . . . . . . . . . . . . . . 80

6.4 Résumé : mise en œuvre du classifieur de Bayes

81

6.5 Pour approfondir...

82

7 Méthodes ensemblistes :baggingetboosting85

7.1 Méthodes ensemblistes, classifieurs faibles et forts

85

7.2 Techniques debagging. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .86

7.3 Techniques deboosting. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 2

7.4 Pour approfondir...

98

8 Machines à vecteurs supports

99

8.1 Notion de marge maximale

99

8.2 Marge souple et variables d"écart

1 03

8.3 Astuce du noyau

1 05

8.4 Retour sur les classifieurs du cours

1 11

8.5 Régression à vecteurs supports

1 15

8.6 Pour approfondir...

1 18

9 Les réseaux de neurones artificiels

123

9.1 Le perceptron (neurone artificiel)

1 23

9.2 Perceptron multicouche ou réseau de neurones artificiels

1 29

9.3 Expressivité des réseaux de neurones artificiels

1 35

9.4 Apprentissage et rétropropagation

1 36

9.5 Problème du sur-apprentissage

1 43

9.6 Conclusion sur les réseaux de neurones pré-2012...

1 43

9.7 Pour approfondir...

1 44

10 Introduction aux réseaux de neurones convolutifs et à l"apprentissage profond

145

10.1 Le retour des réseaux de neurones

1 45

10.2 Réseaux de neurones convolutifs

1 46

10.3 L"exemple de VGG16

1 51

10.4 Apprentissage par transfert et réglage fin

1 52

10.5 Pour approfondir...

1 53

A Quelques résultats utiles

155

A.1 Inégalités de Hoeffding

1 55

A.2 Dérivation des fonctions composées

1 55 A.3 Matrices symétriques, classification des quadriques et coniques 1 56

B Rappels d"optimisation

161

B.1 Éléments d"optimisation convexe

1 61

B.2 Dualité de Wolfe

1 63 B.3 Optimisation numérique par algorithme de descente 1 64

Index169

À l"attention des étudiants FICM 2A

Objectifs pédagogiquesLe but de ce cours est de permettre la compréhension des enjeux scientifiques et techniques de l"intelligence artificielle, ainsi que la mise en œuvre pratique d"algorithmes d"apprentissage. Le volume horaire disponible étant limité, le panorama que nous dresserons sera représentatif mais nécessairement partiel. Nous aborderons des ques- tions théoriques permettant de comprendre les limites fondamentales de l"apprentissage,

l"exposition de quelques modèles, des éléments de méthodologie, et la pratique dans un en-

vironnement de programmation très utilisé en milieu académique et industriel (carnetsJu- pyteret bibliothèque Pythonscikit-learn).

Le cours s"adresse à tous les élèves FICM, quelque soit leur département. Il ne s"agit pas

d"un cours de mathématiques ou d"informatique. L"apprentissage automatique est à présent

à interagir avec des spécialistes, voire à décider du déploiement d"une " solution IA ». Bon

nombre d"entre vous approfondirez le sujet dans des cours spécialisés ou même dans des M2

dédiés, et consoliderez les aspects mathématiques, informatiques, ou applicatifs selon votre

domaine de prédilection. PolycopiéCe document constitue les notes du coursIntroduction à l"apprentissage auto- matiquedu tronc commun scientifique 2A de Mines Nancy. Il expose les aspects fondamen- taux que vous devrez étudier en autonomie avant de participer au cours magistral et aux travaux pratiques.

Le polycopié est écrit dans l"optique d"être utile à tous. À ce titre, il couvre volontaire-

ment plus de sujets que ce qui sera discuté en cours ou évalué au test. Il contient des dé-

monstrations, des approfondissements, ou des suggestions de lectures complémentaires qui pourront servir dans le cadre d"un projet 2A ou 3A, parcours recherche, cours de M2, ou, plus simplement, susciteront la curiosité. Pour faciliter la lecture, les paragraphes facultatifs sont

non traités ou facultatifs ne figurent pas dans la version imprimée par souci d"économie. Ladernière version du polycopié est téléchargeable sur la page Arche ainsi qu"à l"URL suivante :

Certaines figures sont plus lisibles en couleurs dans le document pdf en ligne. Vous vous rendrez compte que le polycopié ne se suffit pas à lui-même : les exemples vus

en cours et les travaux pratiques facilitent souvent la compréhension. N"hésitez pas à revenir

au polycopié après la séance de cours.

Je souhaite remercier les collègues s"étant succédé dans l"équipe enseignante pour leur

relecture attentive et les suggestions d"ajouts ou de clarifications. PageArcheducoursLe calendrier, les supports de cours, les sujets de TP et leur correction, ainsi que les passages à lire en prévision de chaque séance seront disponibles sur la page Arche du cours. Une heure de lecture attentive est à prévoir avant chaque séance. BibliographieLe cours s"appuie essentiellement sur les ouvrages suivants : 1. C. B ishop,Pattern recognition and machine learning, Springer, 2006 2. T .H astie,R .T ibshirani,J. F riedman,The elements of statistical learning, 2nd edition,

Springer 2008.

3. B .E fronan dT .H astie,Computer age statistical inference, Cambridge Univ. Press, 2016 4. I. G oodfellow,Y .B engio,A. C ourville,Deep learning, MIT Press, 2016.

Ils sont disponibles à la médiathèque et font partie des documents à consulter si vous sou-

haitez approfondir les sujets traités :http://bu.univ-lorraine.fr/. Le document suivant est un aide-mémoire très utile de résultats mathématiques de pre- mier cycle ou de cours de tronc commun de première année à Mines Nancy : G. Thoma s,Mathematics for machine learning, Univ. of California at Berkeley, 2018. Pour faciliter la lecture de ces ouvrages et d"autres ressources, le vocabulaire de la littéra- ture anglo-saxonne est indiqué en italique tout au long du polycopié. Chaque chapitre se conclut par des suggestions de lecture. Les articles peuvent être trou- ment évoqués dans le document ou que vous jugerez nébuleux : de nombreuses ressources

pertinentes sont disponibles en ligne et il est toujours intéressant de voir différentes présen-

tations du même sujet. ÉvaluationLe cours cherchant à satisfaire des aspirations diverses, vous pouvez légitime- ment vous demander sur quels éléments portera l"évaluation. Une note de TP (sur 4 points)

sera attribuée par les encadrants de TP, sur la base de votre travail en séance et des résultats

aux QCM en ligne au début de chaque séance. L"examen final (sur 16 points) aura pour ob- jectif de vérifier la compréhension des grands principes de l"apprentissage, des principaux algorithmes, et du traitement de données réelles. Vous trouverez sur Arche des sujets d"exa- men des années passées.

Frédéric Sur

2 janvier 2023

(première version de ce document : janvier 2020)

Notations

Dans ce document, les vecteurs figurent en gras et les matrices en lettres capitales. On identifiera souvent un vecteur et la matrice colonne le représentant.

Voici les principales notations utilisées :

l epr oduitscalair eeu clidiende d euxv ecteursxetyest notéx·y. Rappelons que si les composantes de ces vecteurs sontx=(x1,x2,...xd) ety=(y1,y2,...,yd), alorsx·y=Pd i=1xiyi;

l an ormeeucli dienned "unv ecteurxest notée∥x∥2. Elle vérifie∥x∥22=x·xet pour tous

vecteursxetyet scalaireλ∈R,∥x+λy∥22=∥x∥22+∥y∥22+2λx·y;

l at ransposéed "unema triceAest notéAT; l edét erminantd "unemat ricec arréeAest noté|A|; l "inversed "unem atricecarrée i nversibleBest notéB-1; l eca rdinald "unens emblefi niSest noté #S; l "espéranced "unev ariablea léatoireXest notéeE(X); l orsqu"onchercheàoptimiserunefonctionf,onnotera argminxf(x) ou argmaxxf(x) une valeur dexoùf(x) atteint son minimum ou maximum (" la » valeur dans le cas d"un extremum unique).

Chapitre1

Introduction

Ce chapitre introduit le vocabulaire de l"apprentissage automatique (machine learning dans la littérature anglo-saxonne). La discipline étant relativement récente et en mutation constante, le vocabulaire évolue et est sujet à des abus de langage, en particulier lorsqu"on francise des termes techniques issus de la littérature scientifique en langue anglaise. L"objec- tif de cette introduction est également de dresser un panorama de l"apprentissage et d"expli- citer l"articulation entre les chapitres du cours. 1.1

Q u"est-ceque l "apprentissagea utomatique?

La définition de l"apprentissage automatique selon Wikipedia (octobre 2022) est : "L"apprentissage automatique (en anglaismachine learning, littéralement "ap- prentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d"étude de l"intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d" " ap- prendre» à partir de données, c"est-à-dire d"améliorer leurs performances à ré- soudre des tâches sans être explicitement programmés pour chacune. Plus lar- gement, il concerne la conception, l"analyse, l"optimisation, le développement et l"implémentation de telles méthodes. On parle d"apprentissagestatistiquecar l"apprentissage consiste à créer un modèle dont l"erreurstatistique moyenneest la plus faible possible.»

L"objectif du cours est de donner un sens à cette définition : que signifie "apprendre» à partir

de données, ou "ne pas être explicitement programmé» pour résoudre une tâche? Voici trois exemples de problèmes relevant de l"apprentissage automatique. Exemple 1.1Supposons que l"on dispose d"une collection d"articles de journaux. Comment identifier des groupes d"articles portant sur un même sujet?

CHAPITRE 1. INTRODUCTION 10

Exemple 1.2

Supposons que l"on dispose d"un certain nombre d"images représentant des chiens, et d"autres représentant des chats. Comment classer automatiquement une nouvelle image dans une des catégories "chien» ou "chat»?Exemple 1.3 Supposons que l"on dispose d"une base de données regroupant les caractéristiques de d"occupants, montant des frais de chauffage. Comment prédire la facture de chauffage à

partirdesautrescaractéristiquespourunlogementquin"appartiendraitpasàcettebase?Trois grandes approches relèvent de l"apprentissage automatique : l"apprentissage su-

pervisé, l"apprentissage non-supervisé, et l"apprentissage par renforcement. Bien entendu, cette classification est sujette à discussion, l"apprentissage semi-supervisé ou l"apprentis- sage faiblement supervisé (par exemple) apparaissant aux interfaces de ces approches. Ce cours traite les deux premiers aspects de l"apprentissage, et pas l"apprentissage par renforce- ment qui relève d"autres méthodes mathématiques et algorithmiques. Dans l"exemple 1, on cherche à regrouper les articles portant sur un même sujet, sans disposer d"exemples d"ar-quotesdbs_dbs26.pdfusesText_32
[PDF] understanding machine learning from theory to algorithms

[PDF] apprentissage automatique pdf

[PDF] master machine learning algorithms pdf

[PDF] introduction au machine learning

[PDF] machine learning cours pdf

[PDF] machine learning book pdf

[PDF] les boucles en algorithme exercice corrigé pdf

[PDF] la boucle tant que algorithme pdf

[PDF] les tableaux en algorithme pdf

[PDF] algorithmique et programmation 3eme

[PDF] programmation mblock

[PDF] tuto mblock

[PDF] mbot programmation

[PDF] algorithme nombre d or

[PDF] algobox suite arithmétique