L'algorithme du gradient peut s'interpréter comme la méthode d'Euler explicite de résolution de l'équation différentielle ordinaire ( flot du gradient), avec un pas de discrétisation adapté à l'itération courante par la recherche linéaire. Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?
Chp. 7. Algorithmes de gradient conjugu¶e GradOpt : f = (1=2) xT Q x. Deux directions de recherche cons¶ecutives : ¡ xk¡1 sont orthogonales : sont ( ( con-jugu¶ees ) ) : xT uk¡1 = 0.
Un défaut facilement observable de l'algorithme du gradient à pas constant, est sa non-convergence pour des pas trop élevés, ce même pour des fonctions qui en théorie devraient le faire converger. La fonction ci-dessous en est un cas typique. Dans la pratique avec un pas de 0.01 l'algorithme converge en moins 150 itérations.
Le gradient du critμere au point xn calcul¶e μa la nμeme it¶eration doit ^etre orthogonal μa tous les vecteurs de cette base : il est donc nul, et xn minimise f sur IRn.