convergence de l'algorithme du perceptron garantie si séparabilité Exercices Montrer que pour η assez petit la descente de gradient permet de diminuer à
Previous PDF | Next PDF |
[PDF] Corrigé du
par exemple Exercice 3 : Perceptron monocouche (6 points) cette erreur à rebours pour corriger les poids à l'aide des formules ci-dessus On a : x e1 1 )x(f
[PDF] Perceptron simple Perceptron multi-couches - LaBRI
Perceptron simple Perceptron multi- Supervisé → Si la réponse est fausse, on corrige le modèle en donnant la bonne réponse Exercice 1 Soit la fonction
[PDF] réseaux de neurones et connexionnisme résumé de cours et - ENIB
Le Perceptron exercices • Tester la classification de nouveaux points Comment sont-ils classés ? Plus il y a d'erreur de sortie, plus i doit être augmenté Pour corriger cette erreur • Plus i à ou réseau à attracteur mono couche • Hopfield
[PDF] TD-Perceptron
Exercice 1 – Perceptron linéaire `a seuil Q 1 1 Un NB : dans l'ensemble du TD, on consid`ere xi comme un vecteur ligne et w comme un vecteur colonne 3
[PDF] TP5 : Perceptron - Institut de Mathématiques de Toulouse
des poids de taille n × p 3 2 Apprentissage supervisé Le réseau de neurones du perceptron mono-couche permet de construire une procédure de classification
[PDF] Réseaux de neurones
convergence de l'algorithme du perceptron garantie si séparabilité Exercices Montrer que pour η assez petit la descente de gradient permet de diminuer à
[PDF] Deep Learning : Perceptrons simples et multicouches
Pratique des perceptrons (sous R et Python) 6 Références Le perceptron simple est un modèle de prédiction (supervisé) linéaire réagir (corriger) ou non
[PDF] Corrigé
Exercice 1(QCM) : (10 points) Question1 : Dans un Question3 : Le perceptron est un : Examen semestriel Module : Reconnaissance des Formes Corrigé
Spécialité :
Grade, Lieu d'exercice, Examinateur M Prénom NOM a)Le perceptron monocouche : Historiquement, le premier RNA, est le Perceptron de Rosenblatt
[PDF] Chapitre 3 Apprentissage automatique : les réseaux de neurones
6 nov 2002 · Vous trouverez une description de cette dernière dans l'exercice perceptron est défini par la donnée de +1n constantes : les w 1 , , w n
[PDF] exercice corrigé pont tout thyristor
[PDF] exercice corrigé portique isostatique
[PDF] exercice corrigé poutre hyperstatique
[PDF] exercice corrigé prévision de la demande
[PDF] exercice corrigé primal dual
[PDF] exercice corrigé probabilité seconde
[PDF] exercice corrigé probabilité stmg
[PDF] exercice corrigé programmation système
[PDF] exercice corrigé proportionnalité 6ème
[PDF] exercice corrigé prorata tva
[PDF] exercice corrigé prorata tva pdf
[PDF] exercice corrigé puit de potentiel
[PDF] exercice corrigé puit de potentiel infini
[PDF] exercice corrigé pythagore brevet
![[PDF] Réseaux de neurones [PDF] Réseaux de neurones](https://pdfprof.com/Listes/37/31201-37pmc.pdf.pdf.jpg)
Réseaux de neurones
Liva Ralaivola
liva@lif.univ-mrs.fr Laboratoire d'Informatique Fondamentale de MarseilleUMR 6166 CNRS - Université de Provence
http://www.lif.univ-mrs.frRéseaux de neurones - p.1
Contexte
Classification supervisée (pattern recognition) S={(x1,y1),...,(x?,y?)}ensemble d'apprentissageX=Rd,Y={0,1}m xide classec?yi=?00100?
`1' encemepositionUtilisation
temps d'apprentissage long autoriséet/ou apprentissageen lignerequisnombre de données assez grandinterprétabilité du modèle non nécessairepossible bruit sur les données
Réseaux de neurones - p.2
Plan HistoriquePerceptron linéairePerceptron multi-couchesRéseaux de neurones - p.3
Historique (1/2)
Motivations biologiques
systèmes apprenants composés de réseaux connectés de plusieurs unitéscapacités de mémoire/adaptabilité de ces systèmesRéseaux de neurones - p.4
Historique (2/2)
Caractéristiques réseau de neurones biologique nombre de neurones dans le cerveau :1011neurones chacunétant connecté à104autres neuronestemps de transmission de l'information entre deux neuronesdu cerveau :10-3mais temps d'activation du réseau très rapide :10-1secondes
pour la reconnaissance d'un procheconnexions en boucles Caractéristiques réseau de neurones artificiels nombre de neurones : de l'ordre de quelques centaines aumaximum avec quelques dizaines de connexionstemps de transmission de l'information entre deux neurones:
10 -10secondesdifficulté d'apprentissage avec des connexions en boucleRéseaux de neurones - p.5
Perceptron linéaire (1/4)
Séparateur linéaire
biais : activation = 1σ(?di=1wixi+w0)x1
x2x=σ
w 0 w 1 w 2 Classification dexeffectuée en fonction de l'hyperplan w·˜x= 0oùw=???w 0 w 1 w 2??? et˜x=? 1 x?Réseaux de neurones - p.6
Perceptron linéaire (2/4)
Algorithme d'apprentissage I
Classification binaireyi? {-1,+1}Initialisationw=0Répéter jusqu'à convergence ou bien atteinte d'un nombremax d'itérations
pour tous les exemples(xp,yp)faire - siσ(w·˜xp) =yp ne rien faire - sinon w←w+yp˜xpRéseaux de neurones - p.7
Perceptron linéaire (3/4)
Algorithme d'apprentissage II (descente de gradient)InitialiserwaléatoirementRépéter jusqu'à convergence ou atteinte d'un nombre maxd'itérations
InitialiserΔwià0Pour tous les exemples(xp,yp) calculer la sorties=w·˜xppour chaque composantewiΔwi←Δwi+η(yp-s)xpi
pour chaque composantewifaire w i←wi+ ΔwiRéseaux de neurones - p.8
Perceptron linéaire (4/4)
Propriétés du perceptron linéaire
convergence de l'algorithme du perceptron garantie si séparabilité des exemples possibleséparation impossible du XORExtensions
perceptron multi-coucheskernel adatron [Friess et al., 1998]voted perceptron [Freund and Schapire, 1999]
Réseaux de neurones - p.9
Perceptron multi-couches(1/9)
Neurone formel
-1+1+1 ij k w ji si,a iσ(x) =
11+exp(-x)
σ(x) = tanh(x)
w kj sk,a k sj=? iw jiai aj=σ(s j)Perceptron multi-couches
biais : activation = 1 ikj =yx 1 x 2x=y1 y 2Réseaux de neurones - p.10
Perceptron multi-couches(2/9)
Fonction implémentée :f:Rd→RmErreur quadratique, en posantop=f(xp)E(w) =??
p=1E p(w)avecEp(w) =12?op-yp?2=1
2m q=1(opq-ypq)2 autres fonctions possibles (e.g. cross-entropy)Descente de gradient
wt+1=wt-η?wE(w), η >0Descente de gradient stochastique, à la présentation del'exemple(xp,yp)
w t+1=wt-ηt?wEp(w), η >0Réseaux de neurones - p.11
Perceptron multi-couches(3/9)
η,ηt: pas d'apprentissage, pas d'apprentissage adaptatifPropriétés deηtpour descente de gradient stochastique
tη t→ ∞,? tη t<∞Exercices Montrer que pourηassez petit la descente de gradient permet de diminuer à chaque étape l'erreurEDe quelle forme peut êtreηt?